ES2649978T3 - Procedimiento de decodificación de vídeo - Google Patents

Procedimiento de decodificación de vídeo Download PDF

Info

Publication number
ES2649978T3
ES2649978T3 ES15163275.9T ES15163275T ES2649978T3 ES 2649978 T3 ES2649978 T3 ES 2649978T3 ES 15163275 T ES15163275 T ES 15163275T ES 2649978 T3 ES2649978 T3 ES 2649978T3
Authority
ES
Spain
Prior art keywords
unit
size
units
current
coding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15163275.9T
Other languages
English (en)
Inventor
Jung-Hye Min
Woo-Jin Han
Il-Koo Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2649978T3 publication Critical patent/ES2649978T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un procedimiento de decodificación de una imagen, comprendiendo el procedimiento: extraer información que indica un modo de predicción intra aplicado a un bloque actual a decodificar, desde una secuencia de bits; determinar uno de los píxeles vecinos adyacentes al bloque actual o píxeles vecinos filtrados que se filtran desde los píxeles vecinos como píxeles de referencia, en base a al menos uno de un tamaño del bloque actual y un modo de predicción intra del bloque actual; realizar predicción intra en el bloque actual usando la información extraída y los píxeles de referencia determinados, en el que, cuando el bloque actual tiene un tamaño de N x N, donde N es un número entero, los píxeles vecinos incluyen 2N píxeles vecinos adyacentes a un lado superior y un lado superior derecho del bloque actual y 2N píxeles vecinos adyacentes a un lado izquierdo y un lado inferior izquierdo del bloque actual, en el que la imagen se divide en una pluralidad de unidades de codificación máximas de forma cuadrada, de acuerdo con la información sobre un tamaño máximo de una unidad de codificación, una unidad de codificación máxima entre la pluralidad de unidades de codificación máxima de forma cuadrada se divide jerárquicamente en una o más unidades de codificación de profundidades codificadas de acuerdo con la información de división a partir de la secuencia de bits, la una o más unidades de codificación de profundidad codificada tienen una forma cuadrada, una unidad de codificación de una profundidad codificada actual es una de unidades de datos de forma cuadrada dividida de una unidad de codificación de una profundidad codificada superior, cuando la información de división indica una división para la unidad de codificación de la profundidad codificada actual, la unidad de codificación de la profundidad codificada actual se divide en unidades de codificación de profundidad codificada más profunda dividiendo una altura y una anchura de la unidad de codificación de la profundidad codificada actual por 2 de acuerdo con la información de división, independientemente de las unidades de codificación vecinas, cuando la información de división indica una no división para la unidad de codificación de la profundidad codificada actual, la unidad de codificación de la profundidad codificada actual se divide en una o más unidades de predicción para decodificación de predicción y la unidad de codificación de la profundidad codificada actual se divide en una o más unidades de transformación para transformación inversa, en el que la una o más unidades de predicción se obtienen de acuerdo con un tipo de partición que se extrae de la secuencia de bits, dividiendo de manera igual una altura o una anchura de la unidad de codificación de la profundidad codificada actual por 2, o dividiendo de manera igual tanto la altura como la anchura de la unidad de codificación de la profundidad codificada actual por 2, o determinando la unidad de codificación de la profundidad codificada actual como la una de la una o más unidades de predicción, en el que la una o más unidades de transformación son cuadradas, las unidades de transformación divididas de la unidad de codificación de la profundidad codificada actual son del mismo tamaño y la una o más unidades de transformación se obtienen de acuerdo con información sobre el tamaño de la unidad de transformación que se extrae de la secuencia de bits, en el que el procedimiento de decodificación admite que un tamaño y una forma de la una o más unidades de predicción sean los mismos que un tamaño y una forma de la una o más unidades de transformación o que el tamaño y la forma de la una o más unidades de predicción sean diferentes del tamaño y de la forma de la una o más unidades de transformación; y el bloque actual es uno de la una o más unidades de predicción obtenidas a partir de la unidad de codificación de la profundidad codificada actual.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
10
15
20
25
30
35
40
45
50
55
mínimo cuando un codificador, tal como el aparato 100 de codificación de vídeo, realice repetidamente codificación para cada unidad de codificación más profunda de acuerdo con profundidades de conformidad con cada unidad de codificación máxima. En consecuencia, el aparato 200 de decodificación de vídeo puede restablecer una imagen al decodificar los datos de imagen de acuerdo con una profundidad codificada y un modo de codificación que genere el error de codificación mínimo.
Ya que información de codificación acerca de la profundidad codificada y el modo de codificación puede asignarse a una unidad de datos predeterminada de entre una unidad de codificación, una unidad de predicción y una unidad mínima correspondientes, el extractor 220 de datos de imagen e información de codificación puede extraer la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de datos predeterminadas. Las unidades de datos predeterminadas a las cuales se asigna la misma información acerca de la profundidad codificada y el modo de codificación pueden inferirse como siendo las unidades de datos incluidas en la misma unidad de codificación máxima.
El decodificador 230 de datos de imagen almacena la imagen actual al decodificar los datos de imagen en cada unidad de codificación máxima con base en la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máximas. En otras palabras, el decodificador 230 de datos de imagen puede decodificar los datos de imagen codificados con base en la información extraída acerca del tipo de división, el modo de predicción y la unidad de transformación para cada unidad de codificación de entre las unidades de codificación que tengan la estructura de árbol incluidas en cada unidad de codificación máxima. Un proceso de decodificación puede incluir una predicción que incluya intra predicción y compensación de movimiento, y una transformación inversa. La transformación inversa se puede realizar de acuerdo con el procedimiento de transformación ortogonal inversa o transformación de números enteros inversa.
El decodificador 230 de datos de imagen puede realizar intra predicción o compensación de movimiento de acuerdo con una división y un modo de predicción de cada unidad de codificación, en base a la información acerca del tipo de división y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con profundidades codificadas.
Asimismo, el decodificador 230 de datos de imagen puede realizar transformación inversa de acuerdo con cada unidad de transformación en la unidad de codificación, en base a la información acerca del tamaño de la unidad de transformación de la unidad de codificación de acuerdo con profundidades codificadas, para de esta manera realizar la transformación inversa de acuerdo con unidades de codificación máximas.
El decodificador 230 de datos de imagen puede determinar por lo menos una profundidad codificada de una unidad de codificación máxima actual usando información de división de acuerdo con profundidades. Si la información de división indica que los datos de imagen ya no son divididos en la profundidad actual, la profundidad actual es una profundidad codificada. En consecuencia, el decodificador 230 de datos de imagen puede decodificar datos codificados de al menos una unidad de codificación que corresponda a cada profundidad codificada en la unidad de codificación máxima actual usando la información acerca del tipo de división de la unidad de predicción, el modo de predicción y el tamaño de la unidad de transformación para cada unidad de codificación que corresponda a la profundidad codificada, y enviar los datos de imagen de la unidad de codificación máxima actual.
En otras palabras, las unidades de datos que contengan la información de codificación que incluya la misma información de división pueden acumularse al observar el conjunto de información de codificación asignado para la unidad de datos predeterminada de entre la unidad de codificación, la unidad de predicción y la unidad mínima, y las unidades de datos acumuladas pueden considerarse como una unidad de datos que será decodificada por el decodificador 230 de datos de imagen en el mismo modo de codificación.
El aparato 200 de decodificación de vídeo puede obtener información acerca de al menos una unidad de codificación que genere el error de codificación mínimo cuando la codificación se lleve a cabo recursivamente para cada unidad de codificación máxima, y puede usar la información para decodificar la imagen actual. En otras palabras, las unidades de codificación que tengan estructura de árbol determinada como unidades de codificación óptimas en cada unidad de codificación máxima pueden ser decodificadas. También, el tamaño máximo de unidad de codificación se determina considerando la resolución y una cantidad de datos de imagen.
En consecuencia, incluso si datos de imagen tienen alta resolución y una gran cantidad de datos, los datos de imagen pueden ser decodificados y restablecidos eficientemente usando un tamaño de una unidad de codificación y un modo de codificación, que se determinan de manera adaptiva de acuerdo con características de los datos de imagen, al usar información acerca de un modo de codificación óptimo recibido desde un codificador.
Se describirá ahora con referencia a las figuras 3 a 13 un procedimiento para determinar unidades de codificación que tengan una estructura de árbol, una unidad de predicción y una unidad de transformación, de acuerdo con un ejemplo.
La figura 3 es un diagrama para describir un concepto de unidades de codificación.
Un tamaño de una unidad de codificación puede expresarse en anchura x altura, y puede ser 64 x 64, 32 x 32, 16 x
10
15
20
25
30
35
40
45
50
55
16 y 8 x 8. Una unidad de codificación de 64 x 64 puede dividirse en divisiones de 64 x 64, 64 x 32, 32 x 64 o 32 x 32, y una unidad de 32 x 32 puede dividirse en divisiones de 32 x 32, 32 x 16, 16 x 32 o 16 x 16, una unidad de codificación de 16 x 16 puede dividirse en divisiones de 16 x 16, 16 x 8, 8 x 16 u 8 x 8, y una unidad de codificación de 8x8 puede dividirseen divisiones de 8x8, 8x4, 4x8 o4x4.
En datos 310 de vídeo, una resolución es 1920 x 1080, un tamaño máximo de una unidad de codificación es 64, y una profundidad máxima es 2. En datos 320 de vídeo, una resolución es 1920 x 1080, un tamaño máximo de una unidad de codificación es 64, y una profundidad máxima es 3. En datos de vídeo 330, una resolución es 352 x 288, un tamaño máximo de una unidad de codificación es 16 y una profundidad máxima es 1. La profundidad máxima mostrada en la figura 3 indica un número total de divisiones a partir de una unidad de codificación máxima hasta una unidad de decodificación mínima.
Si una resolución es alta o una cantidad de datos es grande, un tamaño máximo de una unidad de codificación puede ser grande para de esta manera no solo incrementar la eficiencia de codificación, sino también reflejar de manera precisa las características de una imagen. En consecuencia, el tamaño máximo de la unidad de codificación de los datos 310 y 320 de vídeo que tienen la resolución más alta que los datos 330 de vídeo puede ser 64.
Ya que la profundidad máxima de los datos 310 de vídeo es 2, las unidades 315 de codificación de los datos 310 de vídeo pueden incluir una unidad de codificación máxima que tenga un tamaño de eje largo de 64, y unidades de codificación que tengan tamaños de eje largo de 32 y 16, toda vez que las profundidades son profundizadas hasta dos capas al dividir la unidad de codificación máxima dos veces. Mientras tanto, ya que la profundidad máxima de los datos 330 de vídeo es 1, las unidades de codificación 335 de los datos 330 de vídeo pueden incluir una unidad de codificación máxima que tenga un tamaño de eje largo de 16, y unidades de codificación que tengan un tamaño de eje largo de 8, toda vez que las profundidades son profundizadas hasta una capa al dividir la unidad de codificación máxima una vez.
Ya que la profundidad máxima de los datos 320 de vídeo es 3, las unidades 325 de codificación de los datos 320 de vídeo pueden incluir una unidad de codificación máxima que tenga un tamaño de eje largo de 64, y unidades de codificación que tengan tamaños de eje largo de 32, 16 y 8. toda vez que las profundidades son profundizadas hasta 3 capas al dividir la unidad de codificación máxima tres veces. Al hacerse más profunda una profundidad, la información detallada puede expresarse en forma precisa.
La figura 4 es un diagrama de bloques de un codificador 400 de imágenes en base a unidades de codificación.
El codificador de imágenes 400 realiza operaciones del determinador 120 de unidades de codificación del aparato 100 de codificación de vídeo para codificar datos de imagen. En otras palabras, un intra predictor 410 realiza intra predicción en unidades de codificación en un modo intra, de entre una trama 405 actual, y un estimador 420 de movimiento y un compensador 425 de movimiento realizan inter estimación y compensación de movimiento en unidades de codificación en un modo inter de entre la trama 405 actual usando la trama 405 actual, y la trama 495 de referencia.
Los datos enviados desde el intra predictor 410; el estimador 420 de movimiento y el compensador 425 de movimiento son enviados como un coeficiente de transformación cuantificado a través de un transformador 430 y un cuantificador 440. El coeficiente de transformación cuantificado se restablece como datos en un dominio espacial a través de un cuantificador 460 inverso y un transformador 470 inverso, y los datos restablecidos en el dominio espacial son enviados como tramas 495 de referencia después de haber sido post-procesadas a través de una unidad 480 de desbloqueo y una unidad 490 de filtración recurrente. El coeficiente de transformación cuantificado puede enviarse como una secuencia 455 de bits a través de un codificador 450 por entropía.
Para que el codificador 400 de imágenes sea aplicado en el aparato 100 de codificación de vídeo, todos los elementos del codificador 400 de imágenes, es decir, el intra predictor 410, el estimador 420 de movimiento, el compensador 425 de movimiento, el transformador 430, el cuantificador 440, el codificador 450 por entropía, el cuantificador 460 inverso, el transformador 470 inverso, la unidad 480 de desbloqueo y la unidad 490 de filtración recurrente realizan operaciones en base a cada unidad de codificación de entre unidades de codificación que tienen una estructura de árbol mientras considera la profundidad máxima de cada unidad de codificación máxima.
Específicamente, el intra predictor 410, el estimador 420 de movimiento y el compensador 425 de movimiento determinan divisiones y un modo de predicción de cada unidad de codificación de entre las unidades de codificación que tengan una estructura de árbol mientras consideran el tamaño máximo y la profundidad máxima de una unidad de codificación máxima actual, y el transformador 430 determina el tamaño de la unidad de transformación en cada unidad de codificación de entre las unidades de codificación que tengan una estructura de árbol.
La figura 5 es un diagrama de bloques de un decodificador 500 de imágenes en base a unidades de codificación.
Un analizador 510 analiza datos de imagen codificados que serán decodificados e información acerca de la codificación requerida para decodificar a partir de una secuencia 505 de bits. Los datos de imagen codificados son enviados como datos cuantificados inversos a través de un decodificador 520 por entropía y un cuantificador 530 inverso, y los datos cuantificados inversos son restablecidos a datos de imagen en un dominio espacial a través de
5
10
15
20
25
30
35
40
45
50
55
un transformador 540 inverso.
Un intra predictor 550 realiza intra predicción en unidades de codificación en un modo intra con respecto a los datos de imagen en el dominio espacial, y un compensador 560 de movimiento realiza compensación de movimiento en unidades de codificación en un modo inter usando una trama 585 de referencia.
Los datos de imagen en el dominio espacial, que pasaron a través del intra predictor 550 y el compensador 560 de movimiento, pueden ser enviados como una trama 595 restablecida después de haber sido post-procesados a través de una unidad 570 de desbloqueo y una unidad 580 de filtración recurrente. Asimismo, los datos de imagen que son post-procesados a través de la unidad 570 de desbloqueo y la unidad 580 de filtración recurrente pueden ser enviados como la trama 585 de referencia.
Para decodificar los datos de imagen en el decodificador 230 de datos de imagen del aparato 200 de decodificación de vídeo, el decodificador 500 de imágenes puede realizar operaciones que se realice después del analizador 510.
Para que el decodificador 500 de imágenes sea aplicado en el aparato 200 de decodificación de vídeo, todos los elementos del decodificador 500 de imágenes, es decir, el analizador 510, el decodificador 520 por entropía, el cuantificador 530 inverso, el transformador 540 inverso, el intra predictor 550, el compensador 560 de movimiento, la unidad 570 de desbloqueo y la unidad 580 de filtración recurrente realizan operaciones en base a unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
Específicamente, el intra predictor 550 y el compensador 560 de movimiento realizan operaciones en base a divisiones y un modo de predicción para cada una de las unidades de codificación que tengan una estructura de árbol, y el transformador 540 inverso realiza operaciones en base a un tamaño de una unidad de transformación para cada unidad de codificación.
La figura 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con profundidades, y divisiones.
El aparato 100 de codificación de vídeo y el aparato 200 de decodificación de vídeo usan unidades de codificación jerárquicas para considerar así las características de una imagen. Una altura máxima, una anchura máxima y una profundidad máxima de unidades de codificación pueden determinarse en forma adaptiva de acuerdo con las características de la imagen, o pueden establecerse de manera diferente por un usuario. Los tamaños de unidades de codificación más profundas de acuerdo con profundidades pueden determinarse de acuerdo con el tamaño máximo predeterminado de la unidad de codificación.
En una estructura 600 jerárquica de unidades de codificación, la altura máxima y la anchura máxima de las unidades de codificación son cada una 64, y la profundidad máxima es 4. Ya que una profundidad se hace más profunda a lo largo de un eje vertical de la estructura 600 jerárquica, una altura y una anchura de la unidad de codificación más profunda se dividen cada una. Asimismo, una unidad de predicción y divisiones, que son las bases para la predicción de acuerdo con cada unidad de codificación más profunda, se muestran a lo largo de un eje horizontal de la estructura 600 jerárquica.
En otras palabras, una unidad 610 de codificación es una unidad de codificación máxima en la estructura 600 jerárquica, en la que una profundidad de 0 y un tamaño, es decir, una altura por anchura es 64 x 64. La profundidad se hace más profunda a lo largo del eje vertical, y existen una unidad 620 de codificación que tiene un tamaño de 32 x 32 y una profundidad de 1, una unidad 630 de codificación que tiene un tamaño de 16 x 16 y una profundidad de 2, una unidad 640 de codificación que tiene un tamaño de 8 x 8 y una profundidad de 3, y una unidad 650 de codificación que tiene un tamaño de 4 x 4 y una profundidad de 4. La unidad 650 de codificación que tiene el tamaño de 4 x 4 y la profundidad de 4 es una unidad de codificación mínima.
La unidad de predicción y las divisiones de una unidad de codificación están dispuestas a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad 610 de codificación que tiene el tamaño de 64 x 64 y la profundidad de 0 es una unidad de predicción, la unidad de predicción puede dividirse en divisiones que incluyan la unidad 610 de codificación, es decir, una división 610 que tenga un tamaño de 64 x 64, divisiones 612 que tengan el tamaño de 64 x 32, divisiones 614 que tengan el tamaño de 32 x 64, o divisiones 616 que tengan el tamaño de 32 x 32.
De manera similar, una unidad de predicción de la unidad 620 de codificación que tenga el tamaño de 32 x 32 y la profundidad de 1 puede dividirse en divisiones incluidas en la unidad de codificación 620, es decir, una división 620 que tenga un tamaño de 32 x 32, divisiones 622 que tengan un tamaño de 32 x 16, divisiones 624 que tengan un tamaño de 16 x 32, y divisiones 626 que tengan un tamaño de 16 x 16.
De manera similar, una unidad de predicción de la unidad 630 de codificación que tenga el tamaño de 16 x 16 y la profundidad de 2 puede dividirse en divisiones incluidas en la unidad 630 de codificación, es decir, una división que tenga un tamaño de 16 x 16 incluida en la unidad 630 de codificación, divisiones 632 que tengan un tamaño de 16 x 8, divisiones 634 que tengan un tamaño de 8 x 16, y divisiones 636 que tengan un tamaño de 8 x 8.
imagen7
10
15
20
25
30
35
40
45
50
55
intra 812, un modo inter 814, o un modo de salto 816.
La información 820 indica una unidad de transformación a la que se recurrirá cuando la transformación se realice en una unidad de codificación actual. Por ejemplo, la unidad de transformación puede ser una primera unidad 822 de intra transformación, una segunda unidad 824 de intra transformación, una primera unidad 826 de inter transformación o una segunda unidad 828 de intra transformación.
El extractor 220 de datos de imagen e información de codificación del aparato 200 de decodificación puede extraer y usar la información 800, 810 y 820 para decodificación, de acuerdo con cada unidad de codificación más profunda.
La figura 9 es un diagrama de unidades de codificación más profundas de acuerdo con profundidades.
La información de división puede ser usada para indicar un cambio de una profundidad. La información de división indica si una unidad de codificación de una profundidad actual es dividida en unidades de codificación de una profundidad más baja.
Una unidad 910 de predicción para codificación por predicción de una unidad 900 de codificación que tenga una profundidad de 0 y un tamaño de 2N_0 x 2N_0 puede incluir divisiones de un tipo de división 912 que tenga un tamaño 2N_0 x 2N_0, un tipo de división 914 que tenga un tamaño de 2N_0 x N_0, un tipo de división 916 que tenga un tamaño de N_0 x 2N_0, y un tipo de división 918 que tenga un tamaño de N_0 x N_0. La figura 9 solo ilustra dos tipos de división 918 que se obtienen al dividir simétricamente la unidad 910 de predicción, pero un tipo de división no está limitado a lo mismo, y las divisiones de la unidad de predicción pueden incluir divisiones asimétricas, divisiones que tengan una forma predeterminada, y divisiones que tengan una forma geométrica.
La codificación por predicción se realiza repetidamente en una división que tiene un tamaño de 2N_0 x 2N_0, dos divisiones que tienen un tamaño de 2N_0 x N_0, dos divisiones que tienen un tamaño de N_0 x 2N_0, y cuatro divisiones que tienen un tamaño de N_0 x N_0, de acuerdo con cada tipo de división. La codificación por predicción en un modo intra y un modo inter se puede realizar en las divisiones que tengan los tamaños de 2N_0 x 2N_0, 2N_0 x N_0, y N_0 x N_0. La codificación por predicción en un modo de salto se realiza solo en la división que tiene el tamaño de 2N_0 x 2N_0.
Los errores de codificación que incluyen la codificación por predicción en los tipos de división 912 a 918 son comparados, y el mínimo error de codificación se determina entre los tipos de división. Si un error de codificación es más pequeño en uno de los tipos de división 912 a 916, la unidad 910 de predicción puede no dividirse en una profundidad más baja.
Si el error de codificación es el más pequeño en el tipo de división 918, una profundidad se cambia de 0 a 1 para dividir el tipo de división 918 en la operación 920, y la codificación se realiza repetidamente en las unidades 930 de codificación que tienen una profundidad de 2 y un tamaño de N_0 x N_0 para buscar un error de codificación mínimo.
Una unidad 940 de predicción para codificar por predicción la unidad 930 de codificación que tiene una profundidad de 1 y un tamaño de 2N_1 x 2N_1 (= N_0 x N_0) puede incluir divisiones de un tipo de división 942 que tenga un tamaño de 2N_1 x 2N_1, un tipo de división 944 que tenga un tamaño de 2N_1 x N_1, un tipo de división 946 que tenga un tamaño de N_1 x 2N_1, y un tipo de división 948 que tenga un tamaño de N_1 x N_1.
Si un error de codificación es el más pequeño en el tipo de división 948, una profundidad se cambia de 1 a 2 para dividir el tipo de división 948 en la operación 950, y la codificación se realiza repetidamente en las unidades 960 de codificación, las cuales tienen una profundidad de 2 y un tamaño de N_2 x N_2 para buscar un error de codificación mínimo.
Cuando una profundidad máxima es d, la operación de división de acuerdo con cada profundidad puede realizarse hasta cuando una profundidad se vuelva d-1, y la información de división puede codificarse como hasta cuando una profundidad sea una de 0 a d-2. En otras palabras, cuando se realiza codificación hasta cuando la profundidad es d1 después de que una unidad de codificación que corresponde a una profundidad de d-2 es dividida en la operación 970, una unidad 990 de predicción para codificación por predicción de una unidad 980 de codificación que tenga una profundidad de d-1 y un tamaño de 2N_(d-1) x 2N_(d-1) puede incluir divisiones de un tipo de división 992 que tenga un tamaño de 2N_(d-1) x 2N_(d-1), un tipo de división 9941 que tenga un tamaño de 2N_(d-1) x N_(d-1), un tipo de división 996 que tenga un tamaño de N_(d-1) x 2N_(d-1), y un tipo de división 998 que tenga un tamaño de N_(d-1) x N_(d-1).
La codificación por predicción puede realizarse repetidamente en una división que tenga un tamaño de 2N_(d-1) x 2N_(d-1), dos divisiones que tengan un tamaño de 2N_(d-1) x N_(d-1), dos divisiones que tengan un tamaño de N_(d-1) x 2N_(d-1), cuatro divisiones que tengan un tamaño de N_(d-1) x N(d-1) de entre los tipos de división 992 a 998 para buscar un tipo de división que tenga un error de codificación mínimo.
Incluso cuando el tipo de división 998 tiene el error de codificación mínimo, ya que una profundidad máxima es d, una unidad de codificación CU_(d-1) que tenga una profundidad de d-1 ya no es dividida a una profundidad más
10
15
20
25
30
35
40
45
50
55
baja, y una profundidad codificada para las unidades de codificación que constituyan una unidad 900 de codificación máxima actual se determina como d-1 y un tipo de división de la unidad 900 de codificación máxima actual puede determinarse como N_(d-1) x N_(d-1). Asimismo, ya que la profundidad máxima es d y una unidad 980 de codificación mínima que tiene una profundidad más baja de d-1, ya no es dividida a una profundidad más baja, no se establece la información de división para la unidad 980 de codificación mínima.
Una unidad 999 de datos puede ser una unidad mínima para la unidad de codificación máxima actual. Una unidad mínima de acuerdo con un ejemplo puede ser una unidad de datos rectangular obtenida al dividir una unidad 980 de codificación mínima entre 4. Al realizar la codificación repetidamente, el aparato 100 de codificación de vídeo puede seleccionar una profundidad que tenga el mínimo error de codificación al comparar errores de codificación de acuerdo con profundidades de la unidad 900 de codificación para determinar una profundidad codificada, y establecer un tipo de división y un modo de predicción correspondientes como un modo de codificación de la profundidad codificada.
De esta manera, los errores de codificación mínimos de acuerdo con profundidades se comparan en todas las profundidades de 1 a d, y una profundidad que tenga el mínimo error de codificación puede determinarse como una profundidad codificada. La profundidad codificada, el tipo de división de la unidad de predicción y el modo de predicción pueden codificarse y transmitirse como información acerca de un modo de codificación. Asimismo, ya que una unidad de codificación se divide a partir de una profundidad de 0 hasta una profundidad codificada, solo la información de división de la profundidad codificada se establece en 0, y la información de división de profundidades que excluyan la profundidad codificada se establece en 1.
El extractor 220 de datos de imagen e información de codificación del aparato 200 de decodificación de vídeo puede extraer y usar la información acerca de la profundidad codificada y la unidad de predicción de la unidad 900 de codificación para decodificar la división 912. El aparato 200 de decodificación de vídeo puede determinar una profundidad, en la cual la información de división sea 0, como una profundidad codificada usando información de división de acuerdo con profundidades, y usar información acerca de un modo de codificación de la profundidad correspondiente para decodificación.
Las figuras 10 a 12 son diagramas para describir una relación entre unidades 1010 de codificación, unidades 1060 de predicción y unidades 1070 de transformación.
Las unidades 1010 de codificación son unidades de codificación que tienen una estructura de árbol, que corresponden a profundidades codificadas determinadas por el aparato 100 de codificación de vídeo, en una unidad de codificación máxima. Las unidades 1060 de predicción son divisiones de unidades de predicción de cada una de las unidades 1010 de codificación, y las unidades 1070 de transformación son unidades de transformación de cada una de las unidades 1010 de codificación.
Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades 1010 de codificación, las profundidades de las unidades 1012 y 1054 de codificación son 1, las profundidades de las unidades 1014, 1016, 1018, 1028, 1050 y 1052 de codificación son 2, las profundidades de las unidades 1020, 1022, 1024, 1026, 1030, 1032 y 1048 de codificación son 3, y las profundidades de las unidades 1040, 1042, 1044 y 1046 de codificación son
4.
En las unidades 1060 de predicción, algunas unidades 1014, 1016, 1022, 1032, 1048, 150, 1052 y 1054 de codificación se obtienen al dividir las unidades de codificación en las unidades 1010 de codificación. En otras palabras, tipos de división en las unidades 1014, 1022, 1050 y 1054 de codificación tienen un tamaño de 2N x N, tipos de división en las unidades 1016, 1048 y 1052 de codificación tienen un tamaño de N x 2N, y un tipo de división de la unidad 1032 de codificación tiene un tamaño de N x N. Las unidades de predicción y divisiones de las unidades 1010 de codificación son más pequeñas que o iguales a cada unidad de codificación.
La transformación o transformación inversa se realiza en datos de imagen de la unidad 1052 de codificación en las unidades 1070 de transformación en una unidad de datos que es más pequeña que la unidad 1052 de codificación. Asimismo, las unidades 1014, 1016, 1022, 1032, 1048, 1050 y 1052 de codificación en las unidades 1070 de transformación son diferentes de aquellas en las unidades 1060 de predicción en términos de tamaños y formas. En otras palabras, los aparatos 100 y 200 de codificación y decodificación de vídeo pueden realizar intra predicción, estimación de movimiento, compensación de movimiento, transformación y transformación inversa individualmente en una unidad de datos en la misma unidad de codificación.
En consecuencia, la codificación se realiza recursivamente en cada una de las unidades de codificación que tienen una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y de esta manera pueden obtenerse unidades de codificación que tengan una estructura de árbol recursiva. La información de codificación puede incluir información de división acerca de una unidad de codificación, información acerca de un tipo de división, información acerca de un modo de predicción e información acerca de un tamaño de una unidad de transformación. La tabla 1 muestra la información de codificación que puede establecerse por los aparatos 100 y 200 de codificación y decodificación de vídeo.
5
10
15
20
25
30
35
40
45
Tabla 1
Información de división 0 (Codificación en la unidad de codificación que tiene un tamaño de 2Nx2N y profundidad actual de d)
Información de división 1
Modo de predicción
Tipo de partición Tamaño de la unidad de transformación Codificar repetidamente las unidades de codificación que tienen una profundidad inferior de d+1
Salto Intra Inter (Solamente 2Nx2N)
Tipo de división simétrica Tipo de división asimétrica Información de división 0 de la unidad de transformación Información de división 1 de la unidad de transformación
2Nx2N2Nx NNx2NNxN
2NxnU2Nxn DnLx2NnRx 2N 2Nx2N NxN(Tipo simétrico)N/2xN/2 (Tipo asimétrico)
La unidad 130 de salida del aparato 100 de codificación de vídeo puede enviar la información de codificación acerca de las unidades de codificación que tengan una estructura de árbol, y los datos de imagen y el extractor 220 de datos de imagen e información de codificación del aparato 200 de decodificación de vídeo pueden extraer la información de codificación acerca de las unidades de codificación tengan una estructura de árbol a partir de una secuencia de bits recibida.
La información de división indica si una unidad de codificación actual es dividida en unidades de codificación de una profundidad más baja. Si información de división de una profundidad actual d es 0, una profundidad, en la cual una unidad de codificación actual ya no sea dividida en una profundidad más baja, es una profundidad codificada, y de esta manera información acerca de un tipo de división, modo de predicción y un tamaño de una unidad de transformación puede ser definida para la profundidad codificada. Si la unidad de codificación actual se divide más de acuerdo con la información de división, la codificación se realiza independientemente en cuatro unidades de codificación divididas de una profundidad más baja.
Un modo de predicción puede ser uno de un modo intra, un modo inter y un modo de salto. El modo intra y el modo inter pueden definirse en todos los tipos de división, y el modo de salto se define solo en un tipo de división que tiene un tamaño de 2N x 2N.
La información acerca del tipo de división puede incluir tipos de división simétricos que tengan tamaños de 2N x 2N, 2N x N, N x 2N y N x N, los cuales se obtienen al dividir simétricamente una altura o un ancho de una unidad de predicción, y tipos de división asimétricos que tienen tamaños de 2N x nU, 2N x nD, nL x 2N y nR x 2N, los cuales se obtienen al dividir asimétricamente la altura o la anchura de la unidad de predicción. Los tipos de división asimétricos que tienen los tamaños de 2N x nU y 2N x nD pueden obtenerse respectivamente al dividir la altura de la unidad de predicción en 1:3 y 3:1, y los tipos de división asimétricos que tienen los tamaños de nL x 2N y nR x 2N pueden obtenerse respectivamente al dividir la anchura de la unidad de predicción en 1:3 y 3:1.
El tamaño de la unidad de transformación puede establecerse para que sea dos tipos en el modo intra y dos tipos en el modo inter. En otras palabras, si la información de división de la unidad de transformación es 0, el tamaño de la unidad de transformación puede ser 2N x 2N, que es el tamaño de la unidad de codificación actual. Si la información de división de la unidad de transformación es 1, las unidades de transformación pueden obtenerse al dividir la unidad de codificación actual. Asimismo, si un tipo de división de la unidad de codificación actual que tiene el tamaño de 2N x 2N es un tipo de división simétrico, un tamaño de una unidad de transformación puede ser N x N, y si el tipo de división de la unidad de codificación actual es un tipo de división asimétrico, el tamaño de la unidad de transformación puede ser N/2 x N/2.
La información de codificación acerca de unidades de codificación que tienen una estructura de árbol puede incluir al menos una de una unidad de codificación que corresponda a una profundidad codificada, una unidad de predicción y una unidad mínima. La unidad de codificación que corresponde a la profundidad codificada puede incluir al menos una de una unidad de predicción y una unidad mínima que tenga la misma información de codificación.
En consecuencia, se determina si unidades de datos adyacentes están incluidas en la misma unidad de codificación que corresponde a la profundidad codificada al comparar información de codificación de las unidades de datos adyacentes. Asimismo, una unidad de codificación correspondiente que corresponda a una unidad codificada se determina usando información de codificación de una unidad de datos, y de esta manera puede determinarse una distribución de profundidades codificadas en una unidad de codificación máxima.
En consecuencia, si una unidad de codificación actual se predice en base a información de codificación de unidades de datos adyacentes, la información de codificación de unidades de datos en unidades de datos en unidades de codificación más profundas adyacentes a la unidad de codificación actual puede ser referida y usada directamente.
Como alternativa, si una unidad de codificación actual se predice con base en información de codificación de unidades de datos adyacentes, unidades de datos adyacentes a la unidad de codificación actual se buscan usando información de codificación de las unidades de datos, y las unidades de codificación adyacentes buscadas pueden
5
10
15
20
25
30
35
40
45
50
55
ser referidas para predecir la unidad de codificación actual.
La figura 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una división, y una unidad de transformación, de acuerdo con información de modo de codificación de la Tabla 1.
Una unidad 1300 de codificación máxima incluye unidades 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de codificación de profundidades codificadas. Aquí, ya que la unidad 1318 de codificación es una unidad de codificación de una profundidad codificada, la información de división puede establecerse en 0. La información acerca de un tipo de división de la unidad 1318 de codificación que tenga un tamaño de 2N x 2N puede establecerse para que sea uno de un tipo de división 1322 que tenga un tamaño de 2N x 2N, un tipo de división 1324 que tenga un tamaño de 2N x N, un tipo de división 1326 que tenga un tamaño de N x 2N, un tipo de división 1328 que tenga un tamaño de N x N, un tipo de división 1332 que tenga un tamaño de 2N x nU, un tipo de división 1334 que tenga un tamaño de 2N x nD, un tipo de división 1336 que tenga un tamaño de nL x 2N, y un tipo de división 1338 que tenga un tamaño de nR x 2N.
Cuando el tipo de división se establece para ser simétrico, es decir, el tipo de división 1322, 1324, 1326 o 1328, una unidad 1342 de transformación que tiene un tamaño de 2N x 2N se establece si la información de división (indicador de tamaño de TU) de una unidad de transformación es 0, y una unidad 1344 de transformación que tiene un tamaño de N x N se establece si un indicador de tamaño de TU es 1.
Cuando el tipo de división se establece para ser asimétrico, es decir, el tipo de división 1332, 1334, 1336 o 1338, una unidad 1352 de transformación que tiene un tamaño de 2N x 2N se establece si un indicador de tamaño de TU es 0, y una unidad 1354 de transformación que tiene un tamaño de N/2 x N/2 se establece si un indicador de tamaño de TU es 1.
Con referencia a la figura 13, el indicador de tamaño de TU es un indicador que tiene un valor de 0 o 1, pero el indicador de tamaño de TU no está limitado a 1 bit, y una unidad de transformación puede dividirse jerárquicamente para que tenga una estructura de árbol mientras el indicador de tamaño de TU se incremente desde 0.
En este caso, el tamaño de una unidad de transformación que se ha usado realmente puede ser expresado usando un indicador de tamaño de TU de una unidad de transformación, junto con un tamaño máximo y tamaño mínimo de la unidad de transformación. El aparato 100 de codificación de vídeo es capaz de codificar información de tamaño de unidad de transformación máxima, información de tamaño de unidad de transformación mínima, y un indicador de tamaño de TU máximo. El resultado de codificar la información del tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima y el indicador de tamaño de TU máximo puede insertarse en un SPS. De acuerdo con una realización ejemplar, el aparato 200 de decodificación de vídeo puede decodificar vídeo usando la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima y el indicador de tamaño de TU máximo.
Por ejemplo, si el tamaño de una unidad de codificación actual es 64 x 64 y un tamaño de unidad de transformación máxima es 32 x 32, entonces el tamaño de una unidad de transformación puede ser 32 x 32 cuando un indicador de tamaño de TU sea 0, puede ser 16 x 16 cuando el indicador de tamaño de TU sea 1, y puede ser 8 x 8 cuando el indicador de tamaño de TU sea 2.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 32 x 32 y un tamaño de unidad de transformación mínima es 32 x 32, entonces el tamaño de la unidad de transformación puede ser 32 x 32 cuando el indicador de tamaño de TU sea 0. Aquí, el indicador de tamaño de TU no puede establecerse en un valor que no sea 0, toda vez que el tamaño de la unidad de transformación no puede ser inferior a 32 x 32.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 64 x 64 y un indicador de tamaño de TU máximo es 1, entonces el indicador de tamaño de TU puede ser 0 o 1. Aquí, el indicador de tamaño de TU no puede establecerse en un valor que no sea 0 o 1.
De esta manera, si se define que el indicador de tamaño de TU máximo es “MaxTransformSizelndex”, un tamaño de unidad de transformación mínima es “MinTransformSize”, y un tamaño de unidad de transformación es “RootTuSize” cuando el indicador de TU es 0, entonces un tamaño de unidad de transformación mínima actual “CurrMinTuSize” puede determinarse en una unidad de codificación actual, puede definirse por la ecuación (1):
CurrMinTuSize = max(MinTransformSize, RootTuSize/(2^MaxTransformSizeIndex)) (1)
En comparación con el tamaño de unidad de transformación mínima actual “CurrMinTuSize” puede determinarse en la unidad de codificación actual, un tamaño de unidad de transformación “RootTuSize” cuando el indicador del tamaño TU sea 0 puede indicar un tamaño de unidad de transformación máxima que se puede seleccionar en el sistema. En la ecuación (1), “RootTuSize/(2^MaxTransformSizeIndex)” indica un tamaño de unidad de transformación cuando el tamaño de unidad de transformación “RootTuSize”, cuando el indicador de tamaño de TU es 0, se divide un número de veces que corresponde al indicador de tamaño de TU máximo; y “MinTransformSize” indica un tamaño de transformación mínimo. Así, un valor más pequeño de entre “RootTuSize/(2^MaxTransformSizeIndex)” y “MinTransformSize” puede ser el tamaño de unidad de transformación
5
10
15
20
25
30
35
40
45
50
mínima actual “CurrMinTuSize” que se puede determinar en la unidad de codificación actual.
El tamaño de unidad de transformación máxima RootTuSize puede variar de acuerdo con el tipo de un modo de predicción.
Por ejemplo, si un modo de predicción actual es un modo inter, entonces RootTuSize puede determinarse usando la ecuación (2) abajo. En la ecuación (2), “MaxTransformSize” indica un tamaño de unidad de transformación máximo, y “PUSize” indica un tamaño de unidad de predicción actual.
RootTuSize = min(MaxTransformSize, PUSize) (2)
Es decir, si el modo de predicción actual es el modo inter, el tamaño de unidad de transformación “RootTuSize” cuando el indicador de tamaño de TU es 0, puede ser un valor más pequeño de entre el tamaño de unidad de transformación máxima y el tamaño de unidad de predicción actual.
Si un modo de predicción de una unidad de división actual es un modo intra, “RootTuSize” puede determinarse usando la ecuación (3) abajo. En la ecuación (3), “PartitionSize” indica el tamaño de la unidad de división actual.
RootTuSize = min(MaxTransformSize, PartitionSize) (3)
Es decir, si el modo de predicción actual es el modo intra, el tamaño de unidad de transformación “RootTuSize” cuando el indicador de tamaño de TU es 0 puede ser un valor más pequeño de entre el tamaño de unidad de transformación máxima y el tamaño de la unidad de división actual.
Sin embargo, el tamaño de unidad de transformación máxima actual “RootTuSize” que varía de acuerdo con el tipo de un modo de predicción en una unidad de división es solo un ejemplo y no está limitado a esto.
La intra predicción realiza por la unidad 410 de intra predicción del aparto 100de codificación de vídeo ilustrado en la figura 4 y la unidad 550 de intra predicción del aparato 200 de decodificación de vídeo ilustrado en la figura 5 se describirán ahora en detalle. En la siguiente descripción, una unidad de codificación indica un bloque codificado actual en un proceso de codificación de una imagen, y una unidad de decodificación indica un bloque decodificado actual en un proceso de decodificación de una imagen. La unidad de codificación y la unidad de decodificación son diferentes solo en que la unidad de codificación se usa en el proceso de codificación y la unidad de decodificación se usa en la decodificación. Para la consistencia de términos, excepto para un caso particular, la unidad de codificación y la unidad de decodificación son llamadas una unidad de codificación en ambos procesos de codificación y decodificación. Asimismo, la unidad de codificación puede ser la unidad de predicción, división de predicción y bloque. Asimismo, alguien de capacidad ordinaria en la técnica entendería por la presente memoria descriptiva que un procedimiento y un aparato de intra predicción de acuerdo con un ejemplo también se puede aplicar para realizar intra predicción en un códec de vídeo general.
La figura 14 es un diagrama de bloques de un aparato 1200 de intra predicción.
Con referencia a la figura 14, el aparato 1200 de intra predicción incluye una unidad 1210 de filtración de píxeles vecinos, una unidad 1220 de determinación de píxeles de referencia y una unidad 1230 de realización de intra predicción.
La unidad 1210 de filtración de píxeles vecinos filtra píxeles vecinos usados para realizar intra predicción en una unidad de codificación actual que será codificada para generar así píxeles vecinos filtrados. La filtración de los píxeles vecinos se describirá ahora con referencia a las figuras 19 y 20.
La figura 19 es un diagrama que ilustra una unidad 1700 de codificación actual y píxeles 1710 y 1720 adyacentes que serán filtrados.
Con referencia a la figura 19, la unidad de filtración de píxeles 1210 adyacentes filtra X píxeles 1710 adyacentes en un lado superior de la unidad 1700 de codificación actual e Y píxeles 1720 adyacentes en un lado izquierdo de la unidad 1700 de codificación actual al menos una vez, para de esta manera generar píxeles vecinos filtrados. Aquí, si la unidad 1700 de codificación actual tiene un tamaño de N x N, la unidad 1210 de filtración de píxeles vecinos puede filtrar 4N píxeles vecinos, tal como 2N píxeles 1710 adyacentes en el lado superior de la unidad 1700 de codificación actual y 2N píxeles 1720 adyacentes en el lado izquierdo de la unidad 1700 de codificación actual. Es decir, X = 2N e Y = 2N. El número de los píxeles 1710 y 1720 adyacentes filtrados por la unidad 1210 de filtración de píxeles vecinos no se limita a esto y puede cambiarse teniendo en cuenta la directividad de un modo de intra predicción aplicado a la unidad 1700 de codificación actual.
Asimismo, en la figura 19, si X+Y píxeles 1710 y 1720 adyacentes originales en los lados superior e izquierdo de la unidad 1700 de codificación actual son representados por ContextOrg[n] (donde n es un número entero de 0 a X+Y1), y un píxel vecino más inferior de los Y píxeles 1720 adyacentes tiene un valor de n = 0, es decir, ContexOrg[0], un píxel vecino más a la derecha de los X píxeles 1710 adyacentes tiene un valor de n = X+Y-1, es decir, ContextOrg[X+Y-1].
10
15
20
25
30
35
40
La figura 20 es un diagrama para describir un proceso de filtración de píxeles vecinos.
Con referencia a la figura 20, si 4N píxeles vecinos originales en lados superior e izquierdo de una unidad de codificación actual que tienen un tamaño de N x N son representados por ContextOrg[n] (donde n es un número entero de 0 a 4N-1), la unidad 1210 de filtración de píxeles vecinos filtra los píxeles vecinos originales al calcular valores promedio ponderados entre los píxeles vecinos originales para generar así primeros píxeles vecinos filtrados ContextFilteredl[n]. Por ejemplo, la unidad 1210 de filtración de píxeles vecinos genera los primeros píxeles vecinos filtrados al aplicar un filtro de 3 tomas a los píxeles vecinos originales ContextOrg[n] como se representa por la ecuación (4).
ContextFiltered1[n] = (ContextOrg[n-1] + 2*ContextOrg[n] + ContextOrg[n+1])/4 (4)
Con referencia a la ecuación (4), la unidad 1210 de filtración de píxeles vecinos calcula un valor promedio ponderado de un píxel vecino ContextOrg[n] que será actualmente filtrado de entre los píxeles vecinos originales y píxeles vecinos ContextOrg[n-1] y ContextOrg[n+1] ubicados en lados izquierdo y derecho del píxel vecino ContextOrg[n] para generar así un primer píxel vecino filtrado. Los píxeles vecinos filtrados más exteriores de entre los primeros píxeles vecinos filtrados tienen valores de los píxeles vecinos originales. Es decir, ContextFiltered1[0] = ContextOrg[0] y ContextFiltered1[4N-1] = ContextOrg[4N-1].
De manera similar, la unidad 1210 de filtración de píxeles vecinos puede calcular valores promedio ponderados entre los primeros píxeles vecinos filtrados ContextFiltered1[n] para de esta manera generar segundos píxeles vecinos filtrados ContextFiltered2[n]. Por ejemplo, la unidad 1210 de filtración de píxeles vecinos genera los segundos píxeles vecinos filtrados al aplicar un filtro de 3 tomas a los primeros píxeles vecinos filtrados ContextFiltered1[n] como se representa por la ecuación (5).
ContextFiltered2[n] = (ContextFiltered1[n-1] + 2*ContextFiltered1[n] + ContextFiltered1[n+1])/4 (5)
Con referencia a la ecuación (5), la unidad 1210 de filtración de píxeles vecinos calcula un valor promedio ponderado de un píxel vecino ContextFiltered1[n] que será actualmente filtrado de entre los primeros píxeles vecinos filtrados y píxeles vecinos ContextFiltered1[n-1] y ContextFiltered1[n+1] ubicados en lados izquierdo y derecho del píxel vecino ContextFiltered1[n] para generar así un segundo píxel vecino filtrado. Los píxeles vecinos filtrados más exteriores de entre los segundos píxeles vecinos filtrados tienen valores de los primeros píxeles vecinos. Es decir, ContextFiltered2[0]=ContextFiltered1[0] y ContextFiltered2[4N-1] = ContextFiltered1[4N-1]. El proceso de filtración de píxeles vecinos descrito anteriormente puede repetirse más de dos veces. Asimismo, el número de tomas de un filtro para filtrar píxeles vecinos no está limitado a tres como se describió anteriormente y puede cambiarse de manera variable. Asimismo, el número de tomas de un filtro y coeficiente del filtro para filtrar píxeles vecinos puede aplicarse de manera adaptiva.
La unidad 1220 de determinación de píxeles de referencia determina los píxeles vecinos filtrados o los píxeles vecinos originales como píxeles de referencia que se usarán para realizar intra predicción en la unidad de codificación actual. En más detalle, la unidad 1220 de determinación de píxeles de referencia selecciona los píxeles vecinos originales, los primeros píxeles vecinos filtrados o los segundos píxeles vecinos filtrados como los píxeles de referencia de acuerdo con el tamaño de la unidad de codificación actual y el tipo de un modo de intra predicción que se realizará actualmente. Por ejemplo, si un índice de referencia de un modo de predicción que usa los píxeles vecinos originales es 0, un índice de referencia de un modo de predicción que usa los primeros píxeles vecinos filtrados es 1, y un índice de referencia de un modo de predicción que usa los segundos píxeles vecinos filtrados es 2, la unidad 1220 de determinación de píxeles de referencia puede determinar el tipo de píxeles vecinos que se usará para realizar intra predicción de acuerdo con el tamaño de la unidad de codificación actual y el tipo de un modo de intra predicción que se realizará actualmente, como se muestra en la Tabla 2.
imagen8
15
25
35
45
55
Con referencia a la tabla 2, por ejemplo, si la unidad de codificación actual tiene un tamaño de 32 x 32 y se realiza intra predicción usando el modo de intra predicción 4, un índice de referencia es 0 y de esta manera la unidad 1220 de determinación de píxeles de referencia determina los píxeles vecinos originales ContextOrg[n] como el píxel de referencia que se usará para realizar intra predicción en la unidad de codificación actual. Los modos de intra predicción en la Tabla 2 representan modos de intra predicción mostrados en la tabla 3. Asimismo, "-" en la Tabla 2 representa que un modo de intra predicción para un tamaño correspondiente de una unidad de codificación no se define. La Tabla 2 se basa en los modos de intra predicción mostrados en la Tabla 3, y se muestra a manera de ejemplo. A diferencia de la Tabla 3, siempre y cuando diferentes modos de intra predicción se establezcan de acuerdo con los tamaños de unidades de codificación, los índices de referencia en la Tabla 2 pueden establecerse de manera diferente.
Con referencia de nuevo a la figura 14, si la unidad 1220 de determinación de píxeles de referencia determina píxeles de referencia que se usarán para realizar intra predicción en la unidad de codificación actual de entre los píxeles vecinos originales y los píxeles vecinos filtrados, la unidad 1230 de realización de intra predicción realiza intra predicción usando los píxeles de referencia determinados de acuerdo con un modo de intra predicción que esté disponible de acuerdo con el tamaño de la unidad de codificación actual, para generar así una unidad de codificación de predicción.
La figura 15 es una tabla que muestra los números de modos de intra predicción de acuerdo con los tamaños de unidades de codificación.
De acuerdo con un ejemplo, el número de modos de intra predicción que se aplicará a una unidad de codificación (una unidad de decodificación en un proceso de decodificación) puede establecerse de manera variable. Por ejemplo, con referencia a la figura 15, si el tamaño de una unidad de codificación en la cual se realiza intra predicción es N x N, los números de modos de intra predicción actualmente realizados en unidades de codificación con un tamaño de 2 x 2, 4 x 4, 8 x 8, 16 x 16, 32 x 32, 64 x 64 y 128 x128 pueden establecerse respectivamente como 5, 9, 9, 17, 33, 5 y 5 (en el ejemplo 2). Para otro ejemplo, cuando un tamaño de una unidad de codificación que será intra predicha es N x N, los números de modos de intra predicción que se realizarán actualmente en unidades de codificación que tengan tamaños de 2 x 2, 4 x 4, 8 x 8, 16 x 16, 32 x 32, 64 x 64 y 128 x 128 pueden establecerse para ser 3, 17, 34, 34, 34, 5 y 5. Los números de modos de intra predicción que se realizarán realmente se establecen de manera diferente de acuerdo con los tamaños de las unidades de codificación debido a que las sobrecargas para codificar información de modos de predicción difieren de acuerdo con los tamaños de las unidades de codificación. En otras palabras, una unidad de codificación pequeña ocupa una pequeña porción de datos de imagen completos, pero puede tener una gran sobrecarga para poder transmitir información adicional tal como información del modo de predicción de la unidad de codificación. En consecuencia, si una unidad de codificación pequeña se codifica usando un número excesivamente grande de modos de predicción, el número de bits puede incrementarse y de esta manera se puede predecir la eficiencia de compresión. Asimismo, una gran unidad de codificación, por ejemplo, una unidad de codificación igual a o mayor que 64 x 64, generalmente corresponde a una región simple de datos de imagen, y de esta manera la codificación de la unidad de codificación grande usando un número excesivamente grande de modos de predicción también puede reducir la eficiencia de compresión.
Así, de acuerdo con un ejemplo, unidades de codificación se clasifican ampliamente en al menos tres tamaños tales como N1 xN1 (donde 2 = N1 = 4, y N1 es un número entero), N2 xN2 (donde 8 = N2 = 32 y N2 es un número entero), y N3 x N3 (donde 64 = N3, y N3 es un número entero). Si el número de modos de intra predicción realizados en las unidades de codificación de N1 x N1 es A1 (donde A1 es un número entero positivo), el número de modos de intra predicción realizados en las unidades de codificación de N2 x N2 es A2 (donde A2 es un número entero positivo), y el número de modos de intra predicción realizados en las unidades de codificación de N3 x N3 es A3 (donde A3 es un número entero positivo), los números de modos de intra predicción realizados de acuerdo con los tamaños de las unidades de codificación pueden establecerse para satisfacer A3 = A1 = A2. Es decir, si una imagen actual se divide en unidades de codificación pequeñas, unidades de codificación medias y unidades de codificación grandes, las unidades de codificación medias pueden establecerse para tener el número más grande de modos de predicción y las unidades de codificación pequeñas y las unidades de codificación grandes pueden establecerse para tener un número relativamente pequeño de modos de predicción. Sin embargo, el ejemplo no está limitado a esto y las unidades de codificación pequeñas y grandes también pueden establecerse para tener un gran número de modo de predicción. Los números de modos de predicción de acuerdo con los tamaños de unidades de codificación en la figura 15 se muestran de manera ejemplar y pueden cambiarse.
La figura 16A es una tabla que muestra modos de intra predicción aplicados a una unidad de codificación que tiene un tamaño predeterminado.
Con referencia a las figuras 15 y 16A, por ejemplo, cuando se realiza intra predicción en una unidad de codificación que tiene un tamaño de 4 x 4, un modo vertical (modo 0), la unidad de codificación puede tener un modo horizontal (modo 1), un modo de corriente continua (CC) (modo 2), un modo diagonal abajo-izquierda (modo 3), un modo diagonal abajo-derecha (modo 4), un modo vertical-derecha (modo 5), un modo horizontal-abajo (modo 6), un modo vertical-izquierda (modo 7) y un modo horizontal-arriba (modo 8).
10
15
20
25
30
35
40
La figura 16B ilustra direcciones de los modos de intra predicción mostrados en la figura 16A. En la figura 16B, los números en los extremos de las flechas representan los modos de predicción que corresponden a las direcciones de predicción indicadas por las flechas. Aquí, el modo 2 es un modo de CC que no tiene directividad y de esta manera no se muestra en la figura 16B.
La figura 16C es un diagrama para describir un procedimiento para realizar intra predicción en una unidad de codificación usando los modos de intra predicción mostrados en la figura 16A.
Con referencia a la figura 16C, una unidad de codificación por predicción se genera al realizar un modo de intra predicción disponible determinado de acuerdo con el tamaño de una unidad de codificación actual usando píxeles vecinos A a M de la unidad de codificación actual. Por ejemplo, una operación de realizar codificación por predicción en una unidad de codificación actual que tiene un tamaño de 4 x 4 de acuerdo con el modo 0, es decir, se describirá un modo vertical, mostrado en la figura 16A. Inicialmente, valores de los píxeles vecinos A a D en un lado superior de la unidad de codificación actual se predicen como valores de píxel de la unidad de codificación actual. Es decir, el valor del píxel vecino A se predice como un valor de cuatro píxeles en una primera columna de la unidad de codificación actual, el valor del píxel vecino B se predice como un valor de cuatro píxeles en una segunda columna de la unidad de codificación actual, el valor del píxel vecino C se predice como un valor de cuatro píxeles en una tercera columna de la unidad de codificación actual, y el valor del píxel vecino D se predice como un valor de cuatro píxeles en una cuarta columna de la unidad de codificación actual. Después de eso, los valores de píxel de la unidad de codificación actual predicha usando los píxeles vecinos A a D son restados de los valores de píxel de la unidad de codificación actual original, para de esta manera calcular un valor de error y luego se codifica el valor de error. Mientras tanto, cuando se aplican varios modos de intra predicción, píxeles vecinos usados como píxeles de referencia pueden ser píxeles vecinos originales o píxeles vecinos filtrados como se describe anteriormente.
La figura 17 ilustra modos de intra predicción aplicados a una unidad de codificación que tiene un tamaño predeterminado, de acuerdo con otra realización ejemplar.
Con referencia a las figuras 15 y 17, por ejemplo, cuando se realiza intra predicción en una unidad de codificación que tiene un tamaño de 2 x 2, la unidad de codificación puede tener en total cinco modos tales como un modo vertical, un modo horizontal, un modo de CC, un modo de plano y un modo abajo-derecha diagonal.
Mientras tanto, si una unidad de codificación, que tiene un tamaño de 32 x 32 tiene 33 modos de intra predicción como se muestra en la figura 15, tienen que establecerse direcciones de los 33 modos de intra predicción. De acuerdo con un ejemplo, para establecer un modo de intra predicción que tenga varias direcciones además de los modos de intra predicción ilustrados en las figuras 16A a 16C, y 17, las direcciones de predicción para seleccionar píxeles vecinos usados como píxeles de referencia de píxeles de la unidad de codificación se establecen usando parámetros (dx, dy). Por ejemplo, si cada uno de los 33 modos de predicción se define como modo N (donde N es un número entero de 0 a 32), el modo 0 puede establecerse como un modo vertical, el modo 1 puede establecerse como un modo horizontal, el modo 2 puede establecerse como un modo de CC, el modo 3 puede establecerse como un modo de plano, y cada uno del modo 4 al modo 31 pueden definirse como un modo de predicción que tenga una directividad de tan-1 (dy/dx) usando (dx, dy) representados como uno de (1, -1), (1, 1), (1, 2), (2, 1), (1, -2), (2, 1), (1, -2), (2, -1), (2, -11), (5, -7), (10, -7), (11, 3), (4, 3), (1, 11), (1, -1), (12, -3), (1, -11), (1, -7), (3, -10), (5, -6), (7, -6), (7, 4), (11, 1), (6, 1), (8, 3), (5, 3), (5, 7), (2, 7), (5, -7) y (4,-3) mostrados en la tabla 3.
Tabla 3 5
modo #
dx dy modo # dx dy
modo 4
1 -1 modo 18 1 -11
modo 5
1 1 modo 19 1 -7
modo 6
1 2 modo 20 3 -10
modo 7
2 1 modo 21 5 -6
modo 8
1 -2 modo 22 7 -6
modo 9
2 -1 modo 23 7 -4
modo 10
2 -11 modo 24 11 1
modo 11
5 -7 modo 25 6 1
modo 12
10 -7 modo 26 8 3
modo 13
11 3 modo 27 5 3
modo 14
4 3 modo 28 5 7
modo 15
1 11 modo 29 2 7
modo 16
1 -1 modo 30 5 -7
modo 17
12 -3 modo 31 4 -3
El modo 0 es un modo vertical, el modo 1 es un modo horizontal, el modo 2 es un modo de CC, el modo 3 es un modo plano, y el modo 32 es un modo bilineal.
10
15
20
25
30
35
40
45
50
55
Las figuras 18A a 18C son diagramas para describir modos de intra predicción que tienen varias directividades.
Como se describió anteriormente en relación con la Tabla 3, modos de intra predicción de acuerdo con un ejemplo pueden tener varias directividades de tan-1 (dy/dx) usando una pluralidad de parámetros (dx, dy).
Con referencia a la figura 18A, píxeles vecinos A y B en una línea de extensión 160 que tiene un ángulo de tan-1 (dy/dx) de acuerdo con valores (dx, dy) en la Tabla 3 con respecto a un píxel actual P en una unidad de codificación actual que será predicha, se pueden usar como un predictor del píxel actual P. En este caso, los píxeles vecinos usados como un predictor pueden codificarse previamente y los píxeles restablecidos de una unidad de codificación previa y lados superior e izquierdo de una unidad de codificación actual. Asimismo, si la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, uno de los píxeles vecinos más cercano a la línea 160 de extensión que el otro puede usarse como el predictor del píxel actual P.
Asimismo, si la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, uno de los píxeles vecinos más cercano al píxel actual P que el otro puede usarse como el predictor del píxel actual P, o un valor promedio ponderado calculado teniendo en cuenta las distancias desde los píxeles vecinos hasta un cruce de la línea 160 de extensión y una línea entre los píxeles vecinos se puede usar como el predictor del píxel actual P.
Las figuras 18B y 18C son diagramas para describir un proceso de generar un predictor cuando la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, de acuerdo con un ejemplo.
Con referencia a la figura 18B, si la línea 160 de extensión que tiene un ángulo de tan-1 (dy/dx) que se determinará de acuerdo con un valor (dx, dy) de cada modo pasa entre píxeles vecinos A 151 y B 152 colocados en ubicaciones enteras, como se describió anteriormente, uno de los píxeles vecinos A 151 y B 152 más cercano a la línea 160 de extensión o un valor promedio ponderado calculado teniendo en cuenta las distancias desde los píxeles vecinos A 151 y B 152 hasta un cruce de la línea 160 de extensión y una línea entre los píxeles vecinos A 151 y B 152 se puede usar como un predictor del píxel actual P. Por ejemplo, si la distancia entre el cruce y el píxel vecino A 151 es f y la distancia entre el cruce y el píxel vecino B 152 es g, el predictor del píxel actual P puede obtenerse como (A*g+B*f)/(f+g). Aquí, f y g pueden ser distancias reguladas como números enteros. En una implementación de software y hardware real, el predictor del píxel actual P puede obtenerse al realizar una operación de desplazamiento tal como (g*A+f*B+2) >> 2. Como se ilustra en la figura 18B, si la línea 160 de extensión pasa una ubicación de 1/4 entre los píxeles vecinos A 151 y B 152, que está más cerca del píxel vecino A 151, el predictor del píxel actual P puede obtenerse como (3*A+B)/4. Este valor puede obtenerse al realizar una operación de desplazamiento tal como (3*A+B+2) >> 2 teniendo en cuenta el redondeo.
Mientras tanto, si la línea 160 de extensión pasa entre los píxeles vecinos A 151 y B 152, la sección entre los píxeles vecinos A 151 y B 152 puede dividirse en un número predeterminado de secciones, y un valor promedio ponderado puede calcularse teniendo en cuenta las distancias entre el cruce y los píxeles vecinos A 151 y B 152 en cada sección pueden usarse como el predictor. Por ejemplo, con referencia a la figura 18C, la sección entre los píxeles vecinos A 151 y B 152 se divide en cinco secciones P1 a P5, un valor promedio ponderado representativo calculado teniendo en cuenta las distancias entre el cruce y los píxeles vecinos A 151 y B 152 en cada sección puede determinarse y se puede usar como el predictor del píxel actual P. En más detalle, si la línea 160 de extensión pasa la sección P11, un valor del píxel vecino A 151 puede determinarse como el predictor del píxel actual P. Si la línea de extensión pasa a la sección P2, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P2 y los píxeles vecinos A 151 y B 152, es decir, (3*A+1*B+2) >> 2, se puede determinar como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P3, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P3 y los píxeles vecinos A 151 y B 152, es decir, (2*A+2*B+2) >> 2, puede determinarse como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P4, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P4 y los píxeles vecinos A 151 y B 152, es decir, (1*A+3*B+2) >> 2, puede determinarse como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P5, un valor del píxel vecino B 152 puede determinarse como el predictor del píxel actual P.
Asimismo, como se ilustra en la figura 18A, si la línea 160 de extensión encuentra dos píxeles vecinos tales como el píxel vecino A en el lado superior y el píxel vecino B en el lado izquierdo, un valor promedio de los píxeles vecinos A y B se puede usar como el predictor del píxel actual P. Como alternativa, el píxel vecino A puede usarse si un valor de dx*dy es un número positivo, y el píxel vecino B puede usarse si el valor de dx*dy es un número negativo. También, píxeles vecinos usados como píxeles de referencia pueden ser píxeles vecinos originales o píxeles vecinos filtrados como se describió anteriormente.
Los modos de intra predicción que tienen varias directividades en la Tabla 3 pueden establecerse previamente en un lado de codificador y un lado de decodificador, y de esta manera cada unidad de codificación puede transmitir índices que correspondan solo a los modos de intra predicción establecidos.
Como una codificación por predicción se realiza de acuerdo con los modos de intra predicción establecidos de manera variable de acuerdo con el tamaño de una unidad de codificación, la eficiencia de compresión de una imagen puede mejorarse de acuerdo con características de imagen. Asimismo, de acuerdo con un ejemplo, ya que
imagen9
En la operación 2040, se realiza intra predicción en la unidad de decodificación actual usando la información extraída acerca del modo de intra predicción y los píxeles de referencia seleccionados.
La presente invención también se puede realizar como código legible por ordenador en un medio de grabación legible por ordenador. El medio de grabación legible por ordenador es cualquier dispositivo de almacenamiento de
5 datos que pueda almacenar datos que puedan ser posteriormente leídos por un sistema de ordenador. Ejemplos del medio de grabación legible por ordenador incluyen memoria de solo lectura (ROM), memoria de acceso aleatorio (RAM), CD-ROM, cintas magnéticas, discos flexibles y dispositivos de almacenamiento de datos ópticos. El medio de grabación legible por ordenador también puede distribuirse en sistemas de ordenador conectados a redes, de tal forma que el código legible por ordenador se almacene y se ejecute de una forma distribuida.
10 Aunque la presente invención ha sido mostrada y descrita particularmente con referencia a ejemplos y a una realización de la misma, se entenderá por alguien de capacidad ordinaria en la técnica que se pueden hacer en la misma varios cambios en forma y detalles sin apartarse del alcance de la invención como se define mediante las siguientes reivindicaciones. Los ejemplos y la realización deben considerarse en un sentido descriptivo únicamente y no para efectos de limitación. Por lo tanto, el alcance de la invención se define no por la descripción detallada de la
15 invención, sino por las siguientes reivindicaciones, y todas las diferencias dentro del alcance se considerarán como estando incluidas en la presente invención.

Claims (1)

  1. imagen1
ES15163275.9T 2009-08-17 2010-08-17 Procedimiento de decodificación de vídeo Active ES2649978T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090075855 2009-08-17
KR20090075855A KR101510108B1 (ko) 2009-08-17 2009-08-17 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2649978T3 true ES2649978T3 (es) 2018-01-16

Family

ID=43588578

Family Applications (3)

Application Number Title Priority Date Filing Date
ES15163276.7T Active ES2649981T3 (es) 2009-08-17 2010-08-17 Aparato de decodificación de vídeo
ES15163275.9T Active ES2649978T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de vídeo
ES18199130T Active ES2780126T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES15163276.7T Active ES2649981T3 (es) 2009-08-17 2010-08-17 Aparato de decodificación de vídeo

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES18199130T Active ES2780126T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo

Country Status (23)

Country Link
US (8) US8605784B2 (es)
EP (7) EP3448030B1 (es)
JP (5) JP5650742B2 (es)
KR (1) KR101510108B1 (es)
CN (6) CN103220522B (es)
AU (1) AU2010285492B2 (es)
BR (5) BR122015021745B1 (es)
CA (6) CA2888490C (es)
CY (2) CY1119795T1 (es)
DK (3) DK2911396T3 (es)
ES (3) ES2649981T3 (es)
HR (2) HRP20171828T1 (es)
HU (3) HUE036631T2 (es)
LT (2) LT2911396T (es)
MX (2) MX337921B (es)
MY (5) MY172871A (es)
NO (2) NO2911402T3 (es)
PL (3) PL2911402T3 (es)
PT (2) PT2911402T (es)
RU (7) RU2517293C1 (es)
SI (2) SI2911396T1 (es)
WO (1) WO2011021839A2 (es)
ZA (6) ZA201201153B (es)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE47243E1 (en) * 2009-12-09 2019-02-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
KR101700358B1 (ko) * 2009-12-09 2017-01-26 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9467705B2 (en) * 2009-12-30 2016-10-11 Ariscale Inc. Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
MY191783A (en) 2010-04-13 2022-07-15 Samsung Electronics Co Ltd Video encoding method and video encoding apparatus and video decoding method and video decoding apparatus, which perform deblocking filtering based on tree-structure encoding units
KR20110123651A (ko) * 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
HUE053802T2 (hu) 2010-07-14 2021-07-28 Ntt Docomo Inc Kis komplexitású intra predikció videó kódoláshoz
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
ES2696931T3 (es) * 2010-08-17 2019-01-18 M&K Holdings Inc Procedimiento para codificar un modo de intrapredicción
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
KR101663764B1 (ko) * 2010-08-26 2016-10-07 에스케이 텔레콤주식회사 인트라 예측을 이용한 부호화 및 복호화 장치와 방법
BR112013006501B1 (pt) * 2010-09-30 2022-10-18 Mitsubishi Electronic Corporation Dispositivo de decodificação de imagem, e, dispositivo de codificação de imagem
US20130177078A1 (en) * 2010-09-30 2013-07-11 Electronics And Telecommunications Research Institute Apparatus and method for encoding/decoding video using adaptive prediction block filtering
US9008175B2 (en) * 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
KR101772046B1 (ko) * 2010-11-04 2017-08-29 에스케이텔레콤 주식회사 예측모드에 따라 필터링된 화소값으로 인트라예측을 수행하는 영상 부호화/복호화 방법 및 장치
US9258573B2 (en) * 2010-12-07 2016-02-09 Panasonic Intellectual Property Corporation Of America Pixel adaptive intra smoothing
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
KR102086145B1 (ko) * 2010-12-13 2020-03-09 한국전자통신연구원 인트라 예측 방법 및 그 장치
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
US9955155B2 (en) 2010-12-31 2018-04-24 Electronics And Telecommunications Research Institute Method for encoding video information and method for decoding video information, and apparatus using same
KR101824241B1 (ko) * 2011-01-11 2018-03-14 에스케이 텔레콤주식회사 인트라 부가정보 부호화/복호화 장치 및 방법
US8948271B2 (en) * 2011-01-13 2015-02-03 Texas Instruments Incorporated Method and apparatus for a low complexity transform unit partitioning structure for HEVC
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
KR20120090740A (ko) * 2011-02-07 2012-08-17 (주)휴맥스 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법
US9420294B2 (en) * 2011-02-23 2016-08-16 Lg Electronics Inc. Intra-prediction method using filtering, and apparatus using the method
US20130336398A1 (en) * 2011-03-10 2013-12-19 Electronics And Telecommunications Research Institute Method and device for intra-prediction
WO2012121575A2 (ko) 2011-03-10 2012-09-13 한국전자통신연구원 인트라 예측 방법 및 그 장치
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
WO2012161445A2 (ko) * 2011-05-20 2012-11-29 주식회사 케이티 단거리 인트라 예측 단위 복호화 방법 및 복호화 장치
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
US9602839B2 (en) 2011-06-15 2017-03-21 Futurewei Technologies, Inc. Mode dependent intra smoothing filter table mapping methods for non-square prediction units
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
CN108282659B (zh) 2011-06-28 2022-02-25 三星电子株式会社 用于使用帧内预测进行图像编码和解码的方法和设备
JP2013012895A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
US9179148B2 (en) * 2011-06-30 2015-11-03 Futurewei Technologies, Inc. Simplified bilateral intra smoothing filter
KR20130004173A (ko) 2011-07-01 2013-01-09 한국항공대학교산학협력단 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
TWI517679B (zh) * 2011-07-01 2016-01-11 三星電子股份有限公司 利用統一的可獲性檢查以畫面內預測做視訊編碼的方法與裝置以及利用統一的可獲性檢查以畫面內預測做視訊解碼的方法與裝置
WO2013005966A2 (ko) 2011-07-01 2013-01-10 한국전자통신연구원 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
DK3139596T3 (da) 2011-09-13 2020-01-06 Hfi Innovation Inc Fremgangsmåde og apparat til intra-modus-kodning i hevc
PL231161B1 (pl) 2011-10-17 2019-01-31 Kt Corp Sposób dekodowania sygnału wideo
HUE050655T2 (hu) 2011-10-24 2020-12-28 Innotive Ltd Képdekódolási eljárás
KR102005468B1 (ko) 2011-10-24 2019-10-01 (주)대가람 복원 블록을 생성하는 방법 및 장치
US9025662B2 (en) * 2011-10-24 2015-05-05 Infobridge Pte. Ltd. Image decoding apparatus
HUE050673T2 (hu) * 2011-10-24 2020-12-28 Innotive Ltd Eljárás és készülék intrapredikciós mód dekódolására
IN2014MN00940A (es) * 2011-10-28 2015-04-24 Samsung Electronics Co Ltd
WO2013067942A1 (zh) 2011-11-08 2013-05-16 华为技术有限公司 一种帧内预测方法和装置
EP3598754B1 (en) * 2011-12-15 2021-03-17 Tagivan Ii Llc Signaling of luminance-chrominance coded block flags (cbf) in video coding
US20150003524A1 (en) * 2012-01-13 2015-01-01 Sharp Kabushiki Kaisha Image decoding device, image encoding device, and data structure of encoded data
CN103220506B (zh) * 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
WO2013139212A1 (en) * 2012-03-21 2013-09-26 Mediatek Singapore Pte. Ltd. Method and apparatus for intra mode derivation and coding in scalable video coding
US9912944B2 (en) * 2012-04-16 2018-03-06 Qualcomm Incorporated Simplified non-square quadtree transforms for video coding
KR20140089488A (ko) * 2013-01-04 2014-07-15 삼성전자주식회사 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9544597B1 (en) 2013-02-11 2017-01-10 Google Inc. Hybrid transform in video encoding and decoding
US9967559B1 (en) 2013-02-11 2018-05-08 Google Llc Motion vector dependent spatial transformation in video coding
KR20160132891A (ko) * 2014-03-13 2016-11-21 퀄컴 인코포레이티드 3d 비디오 코딩에 대한 제약된 깊이 인트라 모드 코딩
WO2016072611A1 (ko) * 2014-11-04 2016-05-12 삼성전자 주식회사 인트라 예측을 이용하는 비디오 부호화/복호화 방법 및 장치
CN104333759B (zh) * 2014-11-26 2019-05-10 广东中星微电子有限公司 一种用于svac标准的图像预测方法
US11477484B2 (en) * 2015-06-22 2022-10-18 Qualcomm Incorporated Video intra prediction using hybrid recursive filters
JP6115968B2 (ja) * 2015-08-04 2017-04-19 日本電信電話株式会社 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
US9769499B2 (en) 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
KR102160667B1 (ko) * 2015-09-10 2020-09-28 엘지전자 주식회사 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
US10277905B2 (en) 2015-09-14 2019-04-30 Google Llc Transform selection for non-baseband signal coding
US10659812B2 (en) 2015-11-24 2020-05-19 Samsung Electronics Co., Ltd. Method and device for video decoding and method and device for video encoding
WO2017091016A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
US10362314B2 (en) * 2015-11-27 2019-07-23 Mediatek Inc. Apparatus and method for video coding by intra-prediction
US10742974B2 (en) 2015-12-17 2020-08-11 Samsung Electronics Co., Ltd. Method for encoding/decoding image and device thereof
KR101910873B1 (ko) * 2015-12-28 2018-10-23 연세대학교 산학협력단 예측 모드 맵을 이용한 비디오 코딩의 부호화 방법 및 복호화 방법
KR102434479B1 (ko) 2016-02-16 2022-08-19 삼성전자주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
US9942548B2 (en) 2016-02-16 2018-04-10 Google Llc Entropy coding transform partitioning information
US10390021B2 (en) 2016-03-18 2019-08-20 Mediatek Inc. Method and apparatus of video coding
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
MX2018014487A (es) 2016-05-25 2019-08-12 Arris Entpr Llc Prediccion angular ponderada para intra codificacion.
CN114401407A (zh) * 2016-06-24 2022-04-26 韩国电子通信研究院 用于基于变换的图像编码/解码的方法和设备
KR20220129685A (ko) * 2016-09-05 2022-09-23 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
EP3518535A4 (en) 2016-09-20 2020-04-22 KT Corporation VIDEO SIGNAL PROCESSING METHOD AND APPARATUS
JP6669622B2 (ja) * 2016-09-21 2020-03-18 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
KR20180080115A (ko) * 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
JP6858277B2 (ja) * 2017-05-09 2021-04-14 グーグル エルエルシーGoogle LLC 方向性イントラ予測コーディング
GB2564150A (en) * 2017-07-05 2019-01-09 Sony Corp Image data encoding and decoding
JP2019041165A (ja) 2017-08-23 2019-03-14 富士通株式会社 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム
WO2019124205A1 (ja) 2017-12-18 2019-06-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
JP6964780B2 (ja) * 2017-12-29 2021-11-10 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 参照値と関係するデバイスとを使用するビデオの符号化および/または復号を行う方法
CN108429904A (zh) * 2018-06-11 2018-08-21 山东超越数控电子股份有限公司 一种视频光端机时钟电路系统
AU2018217336A1 (en) * 2018-08-17 2020-03-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a transformed block of video samples
EP3713235B1 (en) * 2019-03-19 2023-08-02 Axis AB Methods and devices for encoding a video stream using a first and a second encoder
US11122297B2 (en) 2019-05-03 2021-09-14 Google Llc Using border-aligned block functions for image compression
CN110166773B (zh) * 2019-06-25 2021-08-31 浙江大华技术股份有限公司 帧内预测方法、视频编码方法、视频处理装置、存储介质
CN110213595B (zh) * 2019-06-25 2021-07-30 浙江大华技术股份有限公司 基于帧内预测的编码方法、图像处理设备和存储装置
US11375243B2 (en) * 2019-07-17 2022-06-28 Tencent America LLC Method and apparatus for video coding

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3263939D1 (en) 1981-12-09 1985-07-04 Teijin Ltd 5-fluoro-2'-deoxyuridine derivatives and a process for the preparation thereof
US6215910B1 (en) * 1996-03-28 2001-04-10 Microsoft Corporation Table-based compression with embedded coding
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US7302006B2 (en) * 2002-04-30 2007-11-27 Hewlett-Packard Development Company, L.P. Compression of images and image sequences through adaptive partitioning
US20040136485A1 (en) * 2002-12-19 2004-07-15 Bennett Forrest H. Method and apparatus for quantum mechanical analysis of molecular systems
HUP0301368A3 (en) 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
US8107535B2 (en) 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
JP5052891B2 (ja) 2003-08-26 2012-10-17 トムソン ライセンシング ハイブリッド・イントラ・インター符号化ブロックを符号化する方法及び装置
MXPA06006107A (es) 2003-12-01 2006-08-11 Samsung Electronics Co Ltd Metodo y aparato de codificacion y decodificacion escalables de video.
US7680351B2 (en) 2004-05-21 2010-03-16 Broadcom Corporation Video deblocking method and apparatus
KR100677118B1 (ko) * 2004-06-11 2007-02-02 삼성전자주식회사 움직임 추정 방법 및 그 장치
JP2006005438A (ja) 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
DE602004022789D1 (de) * 2004-07-02 2009-10-08 Mitsubishi Electric Inf Tech Intra-Bildprädiktion für zeitlich Hochpass gefilterte Bilder in Wavelet-Videokodierung
KR20070033343A (ko) * 2004-07-13 2007-03-26 돌비 레버러토리즈 라이쎈싱 코오포레이션 비디오 압축을 위한 비편향 라운딩
CN1306824C (zh) * 2004-07-29 2007-03-21 联合信源数字音视频技术(北京)有限公司 图像边界像素扩展系统及其实现方法
KR20060043051A (ko) 2004-09-23 2006-05-15 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100657919B1 (ko) * 2004-12-13 2006-12-14 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
US7751478B2 (en) 2005-01-21 2010-07-06 Seiko Epson Corporation Prediction intra-mode selection in an encoder
DE602006020556D1 (de) 2005-04-01 2011-04-21 Panasonic Corp Bilddecodierungsvorrichtung und bilddecodierungsverfahren
US7894522B2 (en) * 2005-09-16 2011-02-22 Sony Corporation Classified filtering for temporal prediction
KR101336475B1 (ko) 2005-09-26 2013-12-04 미쓰비시덴키 가부시키가이샤 동화상 부호화 장치 및 동화상 복호 장치
KR100750145B1 (ko) 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
CN101001383A (zh) * 2006-01-12 2007-07-18 三星电子株式会社 基于多层的视频编码/解码方法和编码器/解码器
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
EP1983758A4 (en) * 2006-02-06 2009-04-01 Panasonic Corp IMAGE DECODING DEVICE AND IMAGE DECODING METHOD
KR100745765B1 (ko) 2006-04-13 2007-08-02 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
CN101083769B (zh) * 2006-06-02 2011-05-25 三星电子株式会社 处理n比特视频数据的编/解码器和编/解码方法
BRPI0715507A2 (pt) 2006-08-02 2013-06-18 Thomson Licensinc S A mÉtodos e aparelhos para particionamento geomÉtrico adaptativo para decodificaÇço de vÍdeo
US8942505B2 (en) * 2007-01-09 2015-01-27 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filter representation
US8576906B2 (en) * 2008-01-08 2013-11-05 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filtering
WO2009089032A2 (en) 2008-01-10 2009-07-16 Thomson Licensing Methods and apparatus for illumination compensation of intra-predicted video
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US8879632B2 (en) * 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치

Also Published As

Publication number Publication date
US9071839B2 (en) 2015-06-30
BR122013019723B1 (pt) 2022-06-21
HUE036414T2 (hu) 2018-07-30
US20150117530A1 (en) 2015-04-30
ES2649981T3 (es) 2018-01-16
EP3174292B1 (en) 2018-11-28
MY158769A (en) 2016-11-15
JP2015156708A (ja) 2015-08-27
BR122015021744B1 (pt) 2021-10-19
US9049458B2 (en) 2015-06-02
HRP20171827T1 (hr) 2018-01-12
EP2454883A2 (en) 2012-05-23
CA2888490C (en) 2018-11-20
BR112012001687B1 (pt) 2022-06-14
US8665950B2 (en) 2014-03-04
JP5650742B2 (ja) 2015-01-07
CA3019998A1 (en) 2011-02-24
CA2888489C (en) 2017-12-05
DK3448030T3 (da) 2020-03-23
CA2823885C (en) 2014-11-04
EP2677746A3 (en) 2014-10-01
EP2911395A1 (en) 2015-08-26
ZA201405219B (en) 2015-09-30
JP5856190B2 (ja) 2016-02-09
AU2010285492A1 (en) 2012-01-12
JP5937253B2 (ja) 2016-06-22
CA2768694C (en) 2017-06-13
EP3448030A1 (en) 2019-02-27
CN104811710B (zh) 2018-05-01
CN102484719A (zh) 2012-05-30
CA2888490A1 (en) 2011-02-24
KR101510108B1 (ko) 2015-04-10
CN104811700B (zh) 2016-11-02
AU2010285492B2 (en) 2014-06-05
SI2911402T1 (en) 2018-01-31
EP3448030B1 (en) 2020-03-11
US8605784B2 (en) 2013-12-10
JP5620554B2 (ja) 2014-11-05
CA3019998C (en) 2021-01-05
CY1119802T1 (el) 2018-06-27
BR122015021745B1 (pt) 2021-10-19
ZA201503353B (en) 2017-09-27
CA2888495C (en) 2018-01-16
US9036703B2 (en) 2015-05-19
DK2911402T3 (en) 2017-12-04
NO2911402T3 (es) 2018-04-21
BR122015021747A2 (pt) 2016-04-26
CA2823885A1 (en) 2011-02-24
DK2911396T3 (en) 2017-12-04
RU2615323C2 (ru) 2017-04-04
RU2595602C1 (ru) 2016-08-27
MX2011013035A (es) 2012-02-21
RU2602383C2 (ru) 2016-11-20
US20130315303A1 (en) 2013-11-28
PL3448030T3 (pl) 2020-07-13
EP2677746A2 (en) 2013-12-25
CN103220522B (zh) 2016-12-28
HUE036631T2 (hu) 2018-07-30
ZA201304970B (en) 2013-09-25
JP2015156707A (ja) 2015-08-27
EP2911396A1 (en) 2015-08-26
EP2454883A4 (en) 2014-10-01
SI2911396T1 (en) 2018-01-31
LT2911402T (lt) 2017-12-11
RU2517293C1 (ru) 2014-05-27
HUE051705T2 (hu) 2021-03-29
PT2911396T (pt) 2017-11-30
ZA201201153B (en) 2015-08-26
US9374591B2 (en) 2016-06-21
RU2517193C2 (ru) 2014-05-27
WO2011021839A3 (en) 2011-04-21
CN104967845B (zh) 2018-05-01
US20150055699A1 (en) 2015-02-26
RU2595604C1 (ru) 2016-08-27
RU2014122343A (ru) 2015-12-10
RU2015129684A (ru) 2017-01-24
MX337921B (es) 2016-03-28
ZA201405220B (en) 2015-06-24
RU2012105532A (ru) 2013-08-27
US20130329791A1 (en) 2013-12-12
CN104811709B (zh) 2016-08-31
PT2911402T (pt) 2017-11-30
CN104811709A (zh) 2015-07-29
US20110038415A1 (en) 2011-02-17
CA2888495A1 (en) 2011-02-24
LT2911396T (lt) 2017-12-11
BR122015021744A2 (pt) 2016-04-26
CN103220522A (zh) 2013-07-24
CN104811710A (zh) 2015-07-29
JP2013502808A (ja) 2013-01-24
US20140254673A1 (en) 2014-09-11
ES2780126T3 (es) 2020-08-24
CY1119795T1 (el) 2018-06-27
US20150249834A1 (en) 2015-09-03
JP2014079012A (ja) 2014-05-01
US8787458B2 (en) 2014-07-22
EP2911402A1 (en) 2015-08-26
PL2911402T3 (pl) 2018-04-30
BR112012001687A2 (pt) 2016-04-12
HRP20171828T1 (hr) 2018-01-12
CN104811700A (zh) 2015-07-29
EP2911396B1 (en) 2017-11-22
CN104967845A (zh) 2015-10-07
MY178504A (en) 2020-10-14
JP2013255273A (ja) 2013-12-19
CN102484719B (zh) 2015-07-01
MY172727A (en) 2019-12-11
EP3174292A1 (en) 2017-05-31
RU2013114272A (ru) 2014-05-20
BR122015021747B1 (pt) 2021-10-19
ZA201503354B (en) 2016-01-27
CA2768694A1 (en) 2011-02-24
PL2911396T3 (pl) 2018-04-30
US8989266B2 (en) 2015-03-24
CA2888489A1 (en) 2011-02-24
WO2011021839A2 (en) 2011-02-24
MY171306A (en) 2019-10-08
US20120140824A1 (en) 2012-06-07
JP5937252B2 (ja) 2016-06-22
KR20110018189A (ko) 2011-02-23
RU2546619C1 (ru) 2015-04-10
BR122013019723A2 (pt) 2016-04-26
MY172871A (en) 2019-12-13
BR122015021745A2 (pt) 2016-04-26
EP2911402B1 (en) 2017-11-22
NO2911396T3 (es) 2018-04-21

Similar Documents

Publication Publication Date Title
ES2649978T3 (es) Procedimiento de decodificación de vídeo
ES2728112T3 (es) Procedimiento y aparato de codificación de video con intra predicción
ES2524555T3 (es) Método de decodificación de imagen
ES2592557T3 (es) Procedimiento y aparato de codificación de vídeo, y procedimiento y aparato de descodificación de vídeo
ES2610410T3 (es) Método de descodificación vídeo por partición arbitraria utilizando predicción de movimiento
ES2657170T3 (es) Procedimiento y aparato de codificación y decodificación de imagen usando unidad de transformada grande
ES2706511T3 (es) Procedimiento de decodificación de vídeo teniendo en cuenta el orden de exploración de unidades de codificación que tienen estructura jerárquica
ES2711671T3 (es) Procedimiento de decodificación de vídeo usando decodificación
ES2688033T3 (es) Aparato para codificar vídeo usando fusión de bloques
ES2612715T3 (es) Procedimiento y aparato de codificación de vídeo y procedimiento y aparato de decodificación de vídeo, basándose en estructura jerárquica de unidad de codificación
ES2782101T3 (es) Aparato de decodificación de una imagen, procedimiento de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES2687479T3 (es) Procedimiento de codificación de bloque residual
ES2644039T3 (es) Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES2668472T3 (es) Aparato de decodificación de una imagen usando unidades de transformación grandes
BR122019014179B1 (pt) método de decodificação de vídeo
BR112013016095B1 (pt) Método de decodificar uma imagem, e método de codificar uma imagem
BR112012003245B1 (pt) Método para decodificar um vídeo codificado
ES2728529T3 (es) Mapas de significancia multinivel para codificación y decodificación