ES2649981T3 - Aparato de decodificación de vídeo - Google Patents

Aparato de decodificación de vídeo Download PDF

Info

Publication number
ES2649981T3
ES2649981T3 ES15163276.7T ES15163276T ES2649981T3 ES 2649981 T3 ES2649981 T3 ES 2649981T3 ES 15163276 T ES15163276 T ES 15163276T ES 2649981 T3 ES2649981 T3 ES 2649981T3
Authority
ES
Spain
Prior art keywords
units
coding unit
size
current
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15163276.7T
Other languages
English (en)
Inventor
Jung-Hye Min
Woo-Jin Han
Il-Koo Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2649981T3 publication Critical patent/ES2649981T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un aparato de decodificación de una imagen, comprendiendo el aparato: un receptor (210) que está configurado para recibir una secuencia de bits; un extractor (220) de datos de imagen y de información de codificación que está configurado para extraer información que indica un modo de predicción intra aplicado a un bloque actual a decodificar, desde una secuencia de bits; un decodificador (230) de datos de imagen que está configurado para decodificar el bloque actual y que comprende: una unidad (1220) de determinación de píxeles de referencia que determina uno de los píxeles vecinos adyacentes al bloque actual y píxeles vecinos filtrados que se filtran desde los píxeles vecinos como píxeles de referencia, en base a al menos uno de un tamaño del bloque actual y un modo de predicción intra del bloque actual; una unidad (1210) de filtrado de píxeles vecinos que está configurada para filtrar los píxeles vecinos del bloque actual; y una unidad (1230) de realización de predicción intra que realiza predicción intra en el bloque actual usando la información extraída y los píxeles de referencia determinados, en el que, cuando el bloque actual tiene un tamaño de N x N, donde N es un número entero, los píxeles vecinos incluyen 2N píxeles vecinos adyacentes a un lado superior y un lado superior derecho del bloque actual y 2N píxeles vecinos adyacentes a un lado izquierdo y un lado inferior izquierdo del bloque actual, en el que la imagen se divide en una pluralidad de unidades de codificación máximas de forma cuadrada, de acuerdo con la información sobre un tamaño máximo de una unidad de codificación, una unidad de codificación máxima entre la pluralidad de unidades de codificación máxima de forma cuadrada se divide jerárquicamente en una o más unidades de profundidades codificadas de acuerdo con la información de división obtenida a partir de la secuencia de bits, una unidad de codificación de una profundidad codificada actual es una de unidades de datos de forma cuadrada dividida de una unidad de codificación de una profundidad codificada superior, cuando la información de división indica una división para la unidad de codificación de profundidad codificada actual, la unidad de codificación de la profundidad codificada actual se divide en unidades de codificación de profundidad codificada más profunda dividiendo una altura y una anchura de la unidad de codificación de la profundidad codificada actual por 2 de acuerdo con la información de división, independientemente de las unidades de codificación vecinas, cuando la información de división indica una no división para la unidad de codificación de la profundidad codificada actual, la unidad de codificación de la profundidad codificada actual se divide en una o más unidades de predicción para decodificación de predicción y la unidad de codificación de la profundidad codificada actual se divide en una o más unidades de transformación para transformación inversa, en el que la una o más unidades de predicción se obtienen de acuerdo con un tipo de partición extraído de la secuencia de bits, dividiendo de manera igual una altura o una anchura de la unidad de codificación de la profundidad codificada actual por 2, o dividiendo de manera igual tanto la altura como la anchura de la unidad de codificación de la profundidad codificada actual por 2, o determinando la unidad de codificación de la profundidad codificada actual como la una de la una o más unidades de predicción, en el que la una o más unidades de transformación son cuadradas, las unidades de transformación divididas de la unidad de codificación de la profundidad codificada actual son del mismo tamaño y la una o más unidades de transformación se obtienen de acuerdo con información sobre el tamaño de la unidad de transformación que se extrae de la secuencia de bits, en el que el aparato de decodificación admite que un tamaño y una forma de la una o más unidades de predicción sean los mismos que un tamaño y una forma de la una o más unidades de transformación o que el tamaño y la forma de la una o más unidades de predicción sean diferentes del tamaño y de la forma de la una o más unidades de transformación; y el bloque actual es uno de la una o más unidades de predicción obtenidas a partir de la unidad de codificación de la profundidad codificada actual.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
imagen7
imagen8
imagen9
imagen10
imagen11
5
10
15
20
25
30
35
40
45
50
55
baja, y una profundidad codificada para las unidades de codificación que constituyan una unidad 900 de codificación máxima actual se determina como d-1 y un tipo de división de la unidad 900 de codificación máxima actual puede determinarse como N_(d-1) x N_(d-1). Asimismo, ya que la profundidad máxima es d y una unidad 980 de codificación mínima que tiene una profundidad más baja de d-1, ya no es dividida a una profundidad más baja, no se establece la información de división para la unidad 980 de codificación mínima.
Una unidad 999 de datos puede ser una unidad mínima para la unidad de codificación máxima actual. Una unidad mínima de acuerdo con un ejemplo puede ser una unidad de datos rectangular obtenida al dividir una unidad 980 de codificación mínima entre 4. Al realizar la codificación repetidamente, el aparato 100 de codificación de vídeo puede seleccionar una profundidad que tenga el mínimo error de codificación al comparar errores de codificación de acuerdo con profundidades de la unidad 900 de codificación para determinar una profundidad codificada, y establecer un tipo de división y un modo de predicción correspondientes como un modo de codificación de la profundidad codificada.
De esta manera, los errores de codificación mínimos de acuerdo con profundidades se comparan en todas las profundidades de 1 a d, y una profundidad que tenga el mínimo error de codificación puede determinarse como una profundidad codificada. La profundidad codificada, el tipo de división de la unidad de predicción y el modo de predicción pueden codificarse y transmitirse como información acerca de un modo de codificación. Asimismo, ya que una unidad de codificación se divide a partir de una profundidad de 0 hasta una profundidad codificada, solo la información de división de la profundidad codificada se establece en 0, y la información de división de profundidades que excluyan la profundidad codificada se establece en 1.
El extractor 220 de datos de imagen e información de codificación del aparato 200 de decodificación de vídeo puede extraer y usar la información acerca de la profundidad codificada y la unidad de predicción de la unidad 900 de codificación para decodificar la división 912. El aparato 200 de decodificación de vídeo puede determinar una profundidad, en la cual la información de división sea 0, como una profundidad codificada usando información de división de acuerdo con profundidades, y usar información acerca de un modo de codificación de la profundidad correspondiente para decodificación.
Las figuras 10 a 12 son diagramas para describir una relación entre unidades 1010 de codificación, unidades 1060 de predicción y unidades 1070 de transformación.
Las unidades 1010 de codificación son unidades de codificación que tienen una estructura de árbol, que corresponden a profundidades codificadas determinadas por el aparato 100 de codificación de vídeo, en una unidad de codificación máxima. Las unidades 1060 de predicción son divisiones de unidades de predicción de cada una de las unidades 1010 de codificación, y las unidades 1070 de transformación son unidades de transformación de cada una de las unidades 1010 de codificación.
Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades 1010 de codificación, las profundidades de las unidades 1012 y 1054 de codificación son 1, las profundidades de las unidades 1014, 1016, 1018, 1028, 1050 y 1052 de codificación son 2, las profundidades de las unidades 1020, 1022, 1024, 1026, 1030, 1032 y 1048 de codificación son 3, y las profundidades de las unidades 1040, 1042, 1044 y 1046 de codificación son
4.
En las unidades 1060 de predicción, algunas unidades 1014, 1016, 1022, 1032, 1048, 150, 1052 y 1054 de codificación se obtienen al dividir las unidades de codificación en las unidades 1010 de codificación. En otras palabras, tipos de división en las unidades 1014, 1022, 1050 y 1054 de codificación tienen un tamaño de 2N x N, tipos de división en las unidades 1016, 1048 y 1052 de codificación tienen un tamaño de N x 2N, y un tipo de división de la unidad 1032 de codificación tiene un tamaño de N x N. Las unidades de predicción y divisiones de las unidades 1010 de codificación son más pequeñas que o iguales a cada unidad de codificación.
La transformación o transformación inversa se realiza en datos de imagen de la unidad 1052 de codificación en las unidades 1070 de transformación en una unidad de datos que es más pequeña que la unidad 1052 de codificación. Asimismo, las unidades 1014, 1016, 1022, 1032, 1048, 1050 y 1052 de codificación en las unidades 1070 de transformación son diferentes de aquellas en las unidades 1060 de predicción en términos de tamaños y formas. En otras palabras, los aparatos 100 y 200 de codificación y decodificación de vídeo pueden realizar intra predicción, estimación de movimiento, compensación de movimiento, transformación y transformación inversa individualmente en una unidad de datos en la misma unidad de codificación.
En consecuencia, la codificación se realiza recursivamente en cada una de las unidades de codificación que tienen una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y de esta manera pueden obtenerse unidades de codificación que tengan una estructura de árbol recursiva. La información de codificación puede incluir información de división acerca de una unidad de codificación, información acerca de un tipo de división, información acerca de un modo de predicción e información acerca de un tamaño de una unidad de transformación. La tabla 1 muestra la información de codificación que puede establecerse por los aparatos 100 y 200 de codificación y decodificación de vídeo.
13
imagen12
5
10
15
20
25
30
35
40
45
50
55
ser referidas para predecir la unidad de codificación actual.
La figura 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una división, y una unidad de transformación, de acuerdo con información de modo de codificación de la Tabla 1.
Una unidad 1300 de codificación máxima incluye unidades 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de codificación de profundidades codificadas. Aquí, ya que la unidad 1318 de codificación es una unidad de codificación de una profundidad codificada, la información de división puede establecerse en 0. La información acerca de un tipo de división de la unidad 1318 de codificación que tenga un tamaño de 2N x 2N puede establecerse para que sea uno de un tipo de división 1322 que tenga un tamaño de 2N x 2N, un tipo de división 1324 que tenga un tamaño de 2N x N, un tipo de división 1326 que tenga un tamaño de N x 2N, un tipo de división 1328 que tenga un tamaño de N x N, un tipo de división 1332 que tenga un tamaño de 2N x nU, un tipo de división 1334 que tenga un tamaño de 2N x nD, un tipo de división 1336 que tenga un tamaño de nL x 2N, y un tipo de división 1338 que tenga un tamaño de nR x 2N.
Cuando el tipo de división se establece para ser simétrico, es decir, el tipo de división 1322, 1324, 1326 o 1328, una unidad 1342 de transformación que tiene un tamaño de 2N x 2N se establece si la información de división (indicador de tamaño de TU) de una unidad de transformación es 0, y una unidad 1344 de transformación que tiene un tamaño de N x N se establece si un indicador de tamaño de TU es 1.
Cuando el tipo de división se establece para ser asimétrico, es decir, el tipo de división 1332, 1334, 1336 o 1338, una unidad 1352 de transformación que tiene un tamaño de 2N x 2N se establece si un indicador de tamaño de TU es 0, y una unidad 1354 de transformación que tiene un tamaño de N/2 x N/2 se establece si un indicador de tamaño de TU es 1.
Con referencia a la figura 13, el indicador de tamaño de TU es un indicador que tiene un valor de 0 o 1, pero el indicador de tamaño de TU no está limitado a 1 bit, y una unidad de transformación puede dividirse jerárquicamente para que tenga una estructura de árbol mientras el indicador de tamaño de TU se incremente desde 0.
En este caso, el tamaño de una unidad de transformación que se ha usado realmente puede ser expresado usando un indicador de tamaño de TU de una unidad de transformación, junto con un tamaño máximo y tamaño mínimo de la unidad de transformación. El aparato 100 de codificación de vídeo es capaz de codificar información de tamaño de unidad de transformación máxima, información de tamaño de unidad de transformación mínima, y un indicador de tamaño de TU máximo. El resultado de codificar la información del tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima y el indicador de tamaño de TU máximo puede insertarse en un SPS. De acuerdo con una realización ejemplar, el aparato 200 de decodificación de vídeo puede decodificar vídeo usando la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima y el indicador de tamaño de TU máximo.
Por ejemplo, si el tamaño de una unidad de codificación actual es 64 x 64 y un tamaño de unidad de transformación máxima es 32 x 32, entonces el tamaño de una unidad de transformación puede ser 32 x 32 cuando un indicador de tamaño de TU sea 0, puede ser 16 x 16 cuando el indicador de tamaño de TU sea 1, y puede ser 8 x 8 cuando el indicador de tamaño de TU sea 2.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 32 x 32 y un tamaño de unidad de transformación mínima es 32 x 32, entonces el tamaño de la unidad de transformación puede ser 32 x 32 cuando el indicador de tamaño de TU sea 0. Aquí, el indicador de tamaño de TU no puede establecerse en un valor que no sea 0, toda vez que el tamaño de la unidad de transformación no puede ser inferior a 32 x 32.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 64 x 64 y un indicador de tamaño de TU máximo es 1, entonces el indicador de tamaño de TU puede ser 0 o 1. Aquí, el indicador de tamaño de TU no puede establecerse en un valor que no sea 0 o 1.
De esta manera, si se define que el indicador de tamaño de TU máximo es “MaxTransformSizelndex”, un tamaño de unidad de transformación mínima es “MinTransformSize”, y un tamaño de unidad de transformación es “RootTuSize” cuando el indicador de TU es 0, entonces un tamaño de unidad de transformación mínima actual “CurrMinTuSize” puede determinarse en una unidad de codificación actual, puede definirse por la ecuación (1):
CurrMinTuSize = max(MinTransformSize, RootTuSize/(2^MaxTransformSizeIndex)) (1)
En comparación con el tamaño de unidad de transformación mínima actual “CurrMinTuSize” puede determinarse en la unidad de codificación actual, un tamaño de unidad de transformación “RootTuSize” cuando el indicador del tamaño TU sea 0 puede indicar un tamaño de unidad de transformación máxima que se puede seleccionar en el sistema. En la ecuación (1), “RootTuSize/(2^MaxTransformSizeIndex)” indica un tamaño de unidad de transformación cuando el tamaño de unidad de transformación “RootTuSize”, cuando el indicador de tamaño de TU es 0, se divide un número de veces que corresponde al indicador de tamaño de TU máximo; y “MinTransformSize” indica un tamaño de transformación mínimo. Así, un valor más pequeño de entre “RootTuSize/(2^MaxTransformSizeIndex)” y “MinTransformSize” puede ser el tamaño de unidad de transformación
15
imagen13
imagen14
imagen15
imagen16
5
10
15
20
25
30
35
40
La figura 16B ilustra direcciones de los modos de intra predicción mostrados en la figura 16A. En la figura 16B, los números en los extremos de las flechas representan los modos de predicción que corresponden a las direcciones de predicción indicadas por las flechas. Aquí, el modo 2 es un modo de CC que no tiene directividad y de esta manera no se muestra en la figura 16B.
La figura 16C es un diagrama para describir un procedimiento para realizar intra predicción en una unidad de codificación usando los modos de intra predicción mostrados en la figura 16A.
Con referencia a la figura 16C, una unidad de codificación por predicción se genera al realizar un modo de intra predicción disponible determinado de acuerdo con el tamaño de una unidad de codificación actual usando píxeles vecinos A a M de la unidad de codificación actual. Por ejemplo, una operación de realizar codificación por predicción en una unidad de codificación actual que tiene un tamaño de 4 x 4 de acuerdo con el modo 0, es decir, se describirá un modo vertical, mostrado en la figura 16A. Inicialmente, valores de los píxeles vecinos A a D en un lado superior de la unidad de codificación actual se predicen como valores de píxel de la unidad de codificación actual. Es decir, el valor del píxel vecino A se predice como un valor de cuatro píxeles en una primera columna de la unidad de codificación actual, el valor del píxel vecino B se predice como un valor de cuatro píxeles en una segunda columna de la unidad de codificación actual, el valor del píxel vecino C se predice como un valor de cuatro píxeles en una tercera columna de la unidad de codificación actual, y el valor del píxel vecino D se predice como un valor de cuatro píxeles en una cuarta columna de la unidad de codificación actual. Después de eso, los valores de píxel de la unidad de codificación actual predicha usando los píxeles vecinos A a D son restados de los valores de píxel de la unidad de codificación actual original, para de esta manera calcular un valor de error y luego se codifica el valor de error. Mientras tanto, cuando se aplican varios modos de intra predicción, píxeles vecinos usados como píxeles de referencia pueden ser píxeles vecinos originales o píxeles vecinos filtrados como se describe anteriormente.
La figura 17 ilustra modos de intra predicción aplicados a una unidad de codificación que tiene un tamaño predeterminado, de acuerdo con otra realización ejemplar.
Con referencia a las figuras 15 y 17, por ejemplo, cuando se realiza intra predicción en una unidad de codificación que tiene un tamaño de 2 x 2, la unidad de codificación puede tener en total cinco modos tales como un modo vertical, un modo horizontal, un modo de CC, un modo de plano y un modo abajo-derecha diagonal.
Mientras tanto, si una unidad de codificación, que tiene un tamaño de 32 x 32 tiene 33 modos de intra predicción como se muestra en la figura 15, tienen que establecerse direcciones de los 33 modos de intra predicción. De acuerdo con un ejemplo, para establecer un modo de intra predicción que tenga varias direcciones además de los modos de intra predicción ilustrados en las figuras 16A a 16C, y 17, las direcciones de predicción para seleccionar píxeles vecinos usados como píxeles de referencia de píxeles de la unidad de codificación se establecen usando parámetros (dx, dy). Por ejemplo, si cada uno de los 33 modos de predicción se define como modo N (donde N es un número entero de 0 a 32), el modo 0 puede establecerse como un modo vertical, el modo 1 puede establecerse como un modo horizontal, el modo 2 puede establecerse como un modo de CC, el modo 3 puede establecerse como un modo de plano, y cada uno del modo 4 al modo 31 pueden definirse como un modo de predicción que tenga una directividad de tan-1 (dy/dx) usando (dx, dy) representados como uno de (1, -1), (1, 1), (1, 2), (2, 1), (1, -2), (2, 1), (1, -2), (2, -1), (2, -11), (5, -7), (10, -7), (11, 3), (4, 3), (1, 11), (1, -1), (12, -3), (1, -11), (1, -7), (3, -10), (5, -6), (7, -6), (7, 4), (11, 1), (6, 1), (8, 3), (5, 3), (5, 7), (2, 7), (5, -7) y (4,-3) mostrados en la tabla 3.
Tabla 3
modo #
dx dy modo # dx dy
modo 4
1 -1 modo 18 1 -11
modo 5
1 1 modo 19 1 -7
modo 6
1 2 modo 20 3 -10
modo 7
2 1 modo 21 5 -6
modo 8
1 -2 modo 22 7 -6
modo 9
2 -1 modo 23 7 -4
modo 10
2 -11 modo 24 11 1
modo 11
5 -7 modo 25 6 1
modo 12
10 -7 modo 26 8 3
modo 13
11 3 modo 27 5 3
modo 14
4 3 modo 28 5 7
modo 15
1 11 modo 29 2 7
modo 16
1 -1 modo 30 5 -7
modo 17
12 -3 modo 31 4 -3
El modo 0 es un modo vertical, el modo 1 es un modo horizontal, el modo 2 es un modo de CC, el modo 3 es un modo plano, y el modo 32 es un modo bilineal.
Las figuras 18A a 18C son diagramas para describir modos de intra predicción que tienen varias directividades. Como se describió anteriormente en relación con la Tabla 3, modos de intra predicción de acuerdo con un ejemplo
20
5
10
15
20
25
30
35
40
45
50
55
pueden tener varias directividades de tan-1 (dy/dx) usando una pluralidad de parámetros (dx, dy).
Con referencia a la figura 18A, píxeles vecinos A y B en una línea de extensión 160 que tiene un ángulo de tan-1 (dy/dx) de acuerdo con valores (dx, dy) en la Tabla 3 con respecto a un píxel actual P en una unidad de codificación actual que será predicha, se pueden usar como un predictor del píxel actual P. En este caso, los píxeles vecinos usados como un predictor pueden codificarse previamente y los píxeles restablecidos de una unidad de codificación previa y lados superior e izquierdo de una unidad de codificación actual. Asimismo, si la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, uno de los píxeles vecinos más cercano a la línea 160 de extensión que el otro puede usarse como el predictor del píxel actual P.
Asimismo, si la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, uno de los píxeles vecinos más cercano al píxel actual P que el otro puede usarse como el predictor del píxel actual P, o un valor promedio ponderado calculado teniendo en cuenta las distancias desde los píxeles vecinos hasta un cruce de la línea 160 de extensión y una línea entre los píxeles vecinos se puede usar como el predictor del píxel actual P.
Las figuras 18B y 18C son diagramas para describir un proceso de generar un predictor cuando la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, de acuerdo con un ejemplo.
Con referencia a la figura 18B, si la línea 160 de extensión que tiene un ángulo de tan-1 (dy/dx) que se determinará de acuerdo con un valor (dx, dy) de cada modo pasa entre píxeles vecinos A 151 y B 152 colocados en ubicaciones enteras, como se describió anteriormente, uno de los píxeles vecinos A 151 y B 152 más cercano a la línea 160 de extensión o un valor promedio ponderado calculado teniendo en cuenta las distancias desde los píxeles vecinos A 151 y B 152 hasta un cruce de la línea 160 de extensión y una línea entre los píxeles vecinos A 151 y B 152 se puede usar como un predictor del píxel actual P. Por ejemplo, si la distancia entre el cruce y el píxel vecino A 151 es f y la distancia entre el cruce y el píxel vecino B 152 es g, el predictor del píxel actual P puede obtenerse como (A*g+B*f)/(f+g). Aquí, f y g pueden ser distancias reguladas como enteros. En una implementación de software y hardware real, el predictor del píxel actual P puede obtenerse al realizar una operación de desplazamiento tal como (g*A+f*B+2) >> 2. Como se ilustra en la figura 18B, si la línea 160 de extensión pasa una ubicación de 1/4 entre los píxeles vecinos A 151 y B 152, que está más cerca del píxel vecino A 151, el predictor del píxel actual P puede obtenerse como (3*A+B)/4. Este valor puede obtenerse al realizar una operación de desplazamiento tal como (3*A+B+2) >> 2 teniendo en cuenta el redondeo.
Mientras tanto, si la línea 160 de extensión pasa entre los píxeles vecinos A 151 y B 152, la sección entre los píxeles vecinos A 151 y B 152 puede dividirse en un número predeterminado de secciones, y un valor promedio ponderado puede calcularse teniendo en cuenta las distancias entre el cruce y los píxeles vecinos A 151 y B 152 en cada sección pueden usarse como el predictor. Por ejemplo, con referencia a la figura 18C, la sección entre los píxeles vecinos A 151 y B 152 se divide en cinco secciones P1 a P5, un valor promedio ponderado representativo calculado teniendo en cuenta las distancias entre el cruce y los píxeles vecinos A 151 y B 152 en cada sección puede determinarse y se puede usar como el predictor del píxel actual P. En más detalle, si la línea 160 de extensión pasa la sección P11, un valor del píxel vecino A 151 puede determinarse como el predictor del píxel actual P. Si la línea de extensión pasa a la sección P2, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P2 y los píxeles vecinos A 151 y B 152, es decir, (3*A+1*B+2) >> 2, se puede determinar como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P3, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P3 y los píxeles vecinos A 151 y B 152, es decir, (2*A+2*B+2) >> 2, puede determinarse como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P4, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P4 y los píxeles vecinos A 151 y B 152, es decir, (1*A+3*B+2) >> 2, puede determinarse como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P5, un valor del píxel vecino B 152 puede determinarse como el predictor del píxel actual P.
Asimismo, como se ilustra en la figura 18A, si la línea 160 de extensión encuentra dos píxeles vecinos tales como el píxel vecino A en el lado superior y el píxel vecino B en el lado izquierdo, un valor promedio de los píxeles vecinos A y B se puede usar como el predictor del píxel actual P. Como alternativa, el píxel vecino A puede usarse si un valor de dx*dy es un número positivo, y el píxel vecino B puede usarse si el valor de dx*dy es un número negativo. También, píxeles vecinos usados como píxeles de referencia pueden ser píxeles vecinos originales o píxeles vecinos filtrados como se describió anteriormente.
Los modos de intra predicción que tienen varias directividades en la Tabla 3 pueden establecerse previamente en un lado de codificador y un lado de decodificador, y de esta manera cada unidad de codificación puede transmitir índices que correspondan solo a los modos de intra predicción establecidos.
Como una codificación por predicción se realiza de acuerdo con los modos de intra predicción establecidos de manera variable de acuerdo con el tamaño de una unidad de codificación, la eficiencia de compresión de una imagen puede mejorarse de acuerdo con características de imagen. Asimismo, de acuerdo con un ejemplo, ya que píxeles vecinos y píxeles vecinos filtrados se usan selectivamente para realizar intra predicción, la predicción puede realizarse de manera más variable y de esta manera puede mejorarse la eficiencia de compresión de una imagen.
21
imagen17
imagen18

Claims (1)

  1. imagen1
ES15163276.7T 2009-08-17 2010-08-17 Aparato de decodificación de vídeo Active ES2649981T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090075855 2009-08-17
KR20090075855A KR101510108B1 (ko) 2009-08-17 2009-08-17 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2649981T3 true ES2649981T3 (es) 2018-01-16

Family

ID=43588578

Family Applications (3)

Application Number Title Priority Date Filing Date
ES15163276.7T Active ES2649981T3 (es) 2009-08-17 2010-08-17 Aparato de decodificación de vídeo
ES18199130T Active ES2780126T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES15163275.9T Active ES2649978T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de vídeo

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES18199130T Active ES2780126T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES15163275.9T Active ES2649978T3 (es) 2009-08-17 2010-08-17 Procedimiento de decodificación de vídeo

Country Status (23)

Country Link
US (8) US8605784B2 (es)
EP (7) EP2677746A3 (es)
JP (5) JP5650742B2 (es)
KR (1) KR101510108B1 (es)
CN (6) CN103220522B (es)
AU (1) AU2010285492B2 (es)
BR (5) BR122015021745B1 (es)
CA (6) CA3019998C (es)
CY (2) CY1119795T1 (es)
DK (3) DK2911396T3 (es)
ES (3) ES2649981T3 (es)
HR (2) HRP20171827T1 (es)
HU (3) HUE036414T2 (es)
LT (2) LT2911402T (es)
MX (2) MX2011013035A (es)
MY (5) MY172871A (es)
NO (2) NO2911396T3 (es)
PL (3) PL3448030T3 (es)
PT (2) PT2911396T (es)
RU (7) RU2517193C2 (es)
SI (2) SI2911396T1 (es)
WO (1) WO2011021839A2 (es)
ZA (6) ZA201201153B (es)

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE47243E1 (en) * 2009-12-09 2019-02-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
KR101700358B1 (ko) * 2009-12-09 2017-01-26 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9467705B2 (en) 2009-12-30 2016-10-11 Ariscale Inc. Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
WO2011129619A2 (ko) 2010-04-13 2011-10-20 삼성전자 주식회사 트리 구조 부호화 단위에 기반한 디블록킹 필터링을 수행하는 비디오 부호화 방법과 그 장치 및 복호화 방법과 그 장치
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
ES2729031T3 (es) * 2010-07-14 2019-10-29 Ntt Docomo Inc Intra-predicción de baja complejidad para codificación de vídeo
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
LT3125553T (lt) * 2010-08-17 2018-07-25 M&K Holdings Inc. Vidinės prognozės režimo kodavimo būdas
KR101663764B1 (ko) * 2010-08-26 2016-10-07 에스케이 텔레콤주식회사 인트라 예측을 이용한 부호화 및 복호화 장치와 방법
US20130177078A1 (en) * 2010-09-30 2013-07-11 Electronics And Telecommunications Research Institute Apparatus and method for encoding/decoding video using adaptive prediction block filtering
MX338462B (es) * 2010-09-30 2016-04-15 Mitsubishi Electric Corp Dispositivo de codificacion de imagen en movimiento, dispositivo de decodificacion de imagen en movimiento, metodo de codificacion de imagen en movimiento y metodo de decodificacion de imagen en movimiento.
US9008175B2 (en) * 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
KR101772046B1 (ko) * 2010-11-04 2017-08-29 에스케이텔레콤 주식회사 예측모드에 따라 필터링된 화소값으로 인트라예측을 수행하는 영상 부호화/복호화 방법 및 장치
US9258573B2 (en) * 2010-12-07 2016-02-09 Panasonic Intellectual Property Corporation Of America Pixel adaptive intra smoothing
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
KR102086145B1 (ko) 2010-12-13 2020-03-09 한국전자통신연구원 인트라 예측 방법 및 그 장치
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
EP4033760A1 (en) 2010-12-31 2022-07-27 Electronics And Telecommunications Research Institute Method for encoding video information and method for decoding video information, and apparatus using same
KR101824241B1 (ko) * 2011-01-11 2018-03-14 에스케이 텔레콤주식회사 인트라 부가정보 부호화/복호화 장치 및 방법
US8948271B2 (en) * 2011-01-13 2015-02-03 Texas Instruments Incorporated Method and apparatus for a low complexity transform unit partitioning structure for HEVC
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
KR20120090740A (ko) * 2011-02-07 2012-08-17 (주)휴맥스 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법
WO2012115420A2 (ko) * 2011-02-23 2012-08-30 엘지전자 주식회사 필터링을 이용한 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
WO2012121575A2 (ko) 2011-03-10 2012-09-13 한국전자통신연구원 인트라 예측 방법 및 그 장치
US20130336398A1 (en) * 2011-03-10 2013-12-19 Electronics And Telecommunications Research Institute Method and device for intra-prediction
WO2012134046A2 (ko) 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
WO2012161445A2 (ko) * 2011-05-20 2012-11-29 주식회사 케이티 단거리 인트라 예측 단위 복호화 방법 및 복호화 장치
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
US9602839B2 (en) 2011-06-15 2017-03-21 Futurewei Technologies, Inc. Mode dependent intra smoothing filter table mapping methods for non-square prediction units
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
EP2919468A3 (en) 2011-06-28 2016-02-17 Samsung Electronics Co., Ltd Method and apparatus for image encoding and decoding using intra prediction
JP2013012895A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
US9179148B2 (en) * 2011-06-30 2015-11-03 Futurewei Technologies, Inc. Simplified bilateral intra smoothing filter
WO2013005966A2 (ko) 2011-07-01 2013-01-10 한국전자통신연구원 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
EP2728872A4 (en) * 2011-07-01 2016-05-11 Samsung Electronics Co Ltd VIDEO CODING METHOD WITH INTRAPRADICATION ON THE BASIS OF A TEST PROCESS FOR UNIFORM REFERENCE POSSIBILITY, VIDEO DECODING METHOD AND DEVICE THEREFOR
KR20130004173A (ko) 2011-07-01 2013-01-09 한국항공대학교산학협력단 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
US9363511B2 (en) 2011-09-13 2016-06-07 Mediatek Singapore Pte. Ltd. Method and apparatus for Intra mode coding in HEVC
CN108174212B (zh) 2011-10-17 2021-11-02 株式会社Kt 用解码装置对待解码的具有当前块的视频信号解码的方法
HUE056506T2 (hu) * 2011-10-24 2022-02-28 Innotive Ltd Eljárás és készülék intra predikciósmód dekódolására
PL3402199T3 (pl) 2011-10-24 2020-08-24 Innotive Ltd Sposób dekodowania obrazu
KR101947657B1 (ko) 2011-10-24 2019-02-14 (주)대가람 인트라 예측 정보 부호화 방법 및 장치
KR102005468B1 (ko) 2011-10-24 2019-10-01 (주)대가람 복원 블록을 생성하는 방법 및 장치
EP3780601B1 (en) * 2011-10-28 2023-08-16 Samsung Electronics Co., Ltd. Method and apparatus for intra prediction of video
WO2013067942A1 (zh) 2011-11-08 2013-05-16 华为技术有限公司 一种帧内预测方法和装置
HUE054084T2 (hu) * 2011-12-15 2021-08-30 Tagivan Ii Llc Luminancia-krominancia kódolt blokk jelölõk (CBF) jelzése videokódolásban
US20150003524A1 (en) * 2012-01-13 2015-01-01 Sharp Kabushiki Kaisha Image decoding device, image encoding device, and data structure of encoded data
CN103220506B (zh) 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
EP2829065B1 (en) * 2012-03-21 2020-05-13 MediaTek Singapore Pte Ltd. Method and apparatus for intra mode derivation and coding in scalable video coding
US9912944B2 (en) * 2012-04-16 2018-03-06 Qualcomm Incorporated Simplified non-square quadtree transforms for video coding
WO2014107073A1 (ko) * 2013-01-04 2014-07-10 삼성전자 주식회사 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9544597B1 (en) 2013-02-11 2017-01-10 Google Inc. Hybrid transform in video encoding and decoding
US9967559B1 (en) 2013-02-11 2018-05-08 Google Llc Motion vector dependent spatial transformation in video coding
US10687079B2 (en) * 2014-03-13 2020-06-16 Qualcomm Incorporated Constrained depth intra mode coding for 3D video coding
CN107113444A (zh) * 2014-11-04 2017-08-29 三星电子株式会社 使用帧内预测对视频进行编码/解码的方法和装置
CN104333759B (zh) * 2014-11-26 2019-05-10 广东中星微电子有限公司 一种用于svac标准的图像预测方法
US11477484B2 (en) * 2015-06-22 2022-10-18 Qualcomm Incorporated Video intra prediction using hybrid recursive filters
JP6115968B2 (ja) * 2015-08-04 2017-04-19 日本電信電話株式会社 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
US9769499B2 (en) 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
US10574984B2 (en) * 2015-09-10 2020-02-25 Lg Electronics Inc. Intra prediction method and device in video coding system
US10277905B2 (en) 2015-09-14 2019-04-30 Google Llc Transform selection for non-baseband signal coding
US10659812B2 (en) 2015-11-24 2020-05-19 Samsung Electronics Co., Ltd. Method and device for video decoding and method and device for video encoding
WO2017091016A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
US10362314B2 (en) * 2015-11-27 2019-07-23 Mediatek Inc. Apparatus and method for video coding by intra-prediction
KR20180086203A (ko) 2015-12-17 2018-07-30 삼성전자주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
KR101910873B1 (ko) * 2015-12-28 2018-10-23 연세대학교 산학협력단 예측 모드 맵을 이용한 비디오 코딩의 부호화 방법 및 복호화 방법
WO2017142301A1 (ko) 2016-02-16 2017-08-24 삼성전자 주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
US9942548B2 (en) 2016-02-16 2018-04-10 Google Llc Entropy coding transform partitioning information
US10390021B2 (en) 2016-03-18 2019-08-20 Mediatek Inc. Method and apparatus of video coding
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
CA3025488A1 (en) 2016-05-25 2017-11-30 Arris Enterprises Llc Weighted angular prediction for intra coding
CN114422796A (zh) * 2016-06-24 2022-04-29 韩国电子通信研究院 用于基于变换的图像编码/解码的方法和设备
CN116437079A (zh) * 2016-09-20 2023-07-14 株式会社Kt 对视频进行解码和编码的方法以及传输方法
JP6669622B2 (ja) * 2016-09-21 2020-03-18 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
KR20180080115A (ko) * 2017-01-02 2018-07-11 한양대학교 산학협력단 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치
CN110622515A (zh) * 2017-05-09 2019-12-27 谷歌有限责任公司 定向帧内预测代码化
GB2564150A (en) * 2017-07-05 2019-01-09 Sony Corp Image data encoding and decoding
JP2019041165A (ja) * 2017-08-23 2019-03-14 富士通株式会社 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム
WO2019124205A1 (ja) 2017-12-18 2019-06-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
EP3732886A1 (en) * 2017-12-29 2020-11-04 Telefonaktiebolaget Lm Ericsson (Publ) Methods providing encoding and/or decoding of video using reference values and related devices
CN108429904A (zh) * 2018-06-11 2018-08-21 山东超越数控电子股份有限公司 一种视频光端机时钟电路系统
AU2018217336A1 (en) * 2018-08-17 2020-03-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a transformed block of video samples
EP3713235B1 (en) * 2019-03-19 2023-08-02 Axis AB Methods and devices for encoding a video stream using a first and a second encoder
US11122297B2 (en) 2019-05-03 2021-09-14 Google Llc Using border-aligned block functions for image compression
CN110213595B (zh) * 2019-06-25 2021-07-30 浙江大华技术股份有限公司 基于帧内预测的编码方法、图像处理设备和存储装置
CN110166773B (zh) * 2019-06-25 2021-08-31 浙江大华技术股份有限公司 帧内预测方法、视频编码方法、视频处理装置、存储介质
US11375243B2 (en) * 2019-07-17 2022-06-28 Tencent America LLC Method and apparatus for video coding

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0081386B1 (en) 1981-12-09 1985-05-29 Teijin Limited 5-fluoro-2'-deoxyuridine derivatives and a process for the preparation thereof
US6215910B1 (en) * 1996-03-28 2001-04-10 Microsoft Corporation Table-based compression with embedded coding
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US7302006B2 (en) * 2002-04-30 2007-11-27 Hewlett-Packard Development Company, L.P. Compression of images and image sequences through adaptive partitioning
US20040136485A1 (en) * 2002-12-19 2004-07-15 Bennett Forrest H. Method and apparatus for quantum mechanical analysis of molecular systems
HUP0301368A3 (en) 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
US8107535B2 (en) 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
JP2007503775A (ja) 2003-08-26 2007-02-22 トムソン ライセンシング ハイブリッド・イントラ・インター符号化ブロックを符号化する方法及び装置
RU2329615C2 (ru) * 2003-12-01 2008-07-20 Самсунг Электроникс Ко., Лтд. Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления
US7680351B2 (en) 2004-05-21 2010-03-16 Broadcom Corporation Video deblocking method and apparatus
KR100677118B1 (ko) * 2004-06-11 2007-02-02 삼성전자주식회사 움직임 추정 방법 및 그 장치
JP2006005438A (ja) 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
EP1613091B1 (en) * 2004-07-02 2009-08-26 Mitsubishi Electric Information Technology Centre Europe B.V. Intra-frame prediction for high-pass temporal-filtered frames in wavelet video coding
CN100542289C (zh) * 2004-07-13 2009-09-16 杜比实验室特许公司 视频压缩的无偏舍入
CN1306824C (zh) * 2004-07-29 2007-03-21 联合信源数字音视频技术(北京)有限公司 图像边界像素扩展系统及其实现方法
KR20060043051A (ko) 2004-09-23 2006-05-15 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100657919B1 (ko) * 2004-12-13 2006-12-14 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
US7751478B2 (en) 2005-01-21 2010-07-06 Seiko Epson Corporation Prediction intra-mode selection in an encoder
EP1871117B1 (en) 2005-04-01 2011-03-09 Panasonic Corporation Image decoding apparatus and image decoding method
US7894522B2 (en) * 2005-09-16 2011-02-22 Sony Corporation Classified filtering for temporal prediction
EP3229472B1 (en) * 2005-09-26 2020-07-01 Mitsubishi Electric Corporation Moving image coding apparatus
KR100750145B1 (ko) 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
CN101001383A (zh) * 2006-01-12 2007-07-18 三星电子株式会社 基于多层的视频编码/解码方法和编码器/解码器
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
EP1983758A4 (en) * 2006-02-06 2009-04-01 Panasonic Corp IMAGE DECODING DEVICE AND IMAGE DECODING METHOD
KR100745765B1 (ko) 2006-04-13 2007-08-02 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
CN101083769B (zh) * 2006-06-02 2011-05-25 三星电子株式会社 处理n比特视频数据的编/解码器和编/解码方法
BRPI0714859A2 (pt) 2006-08-02 2013-05-21 Thomson Licensing mÉtodo e aparelho para particionamento geomÉtrico adaptativo para codificaÇço de vÍdeo e estrutura de sinal de vÍdeo para codificaÇço de vÍdeo
US8942505B2 (en) * 2007-01-09 2015-01-27 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filter representation
US8576906B2 (en) * 2008-01-08 2013-11-05 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filtering
EP2232877B1 (en) 2008-01-10 2018-08-08 Thomson Licensing DTV Methods and apparatus for illumination compensation of intra-predicted video
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US8879632B2 (en) * 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치

Also Published As

Publication number Publication date
JP5620554B2 (ja) 2014-11-05
AU2010285492B2 (en) 2014-06-05
KR20110018189A (ko) 2011-02-23
EP2677746A3 (en) 2014-10-01
EP2677746A2 (en) 2013-12-25
CA2823885C (en) 2014-11-04
CN102484719B (zh) 2015-07-01
RU2615323C2 (ru) 2017-04-04
RU2012105532A (ru) 2013-08-27
NO2911402T3 (es) 2018-04-21
CN103220522B (zh) 2016-12-28
AU2010285492A1 (en) 2012-01-12
CA2888489C (en) 2017-12-05
CN104811700A (zh) 2015-07-29
MY158769A (en) 2016-11-15
CN104811709A (zh) 2015-07-29
RU2517293C1 (ru) 2014-05-27
CN104811700B (zh) 2016-11-02
WO2011021839A3 (en) 2011-04-21
BR112012001687B1 (pt) 2022-06-14
ES2649978T3 (es) 2018-01-16
HRP20171827T1 (hr) 2018-01-12
BR122015021747B1 (pt) 2021-10-19
CY1119795T1 (el) 2018-06-27
CA2768694C (en) 2017-06-13
EP2454883A4 (en) 2014-10-01
JP2013255273A (ja) 2013-12-19
MX2011013035A (es) 2012-02-21
SI2911396T1 (en) 2018-01-31
RU2602383C2 (ru) 2016-11-20
US20130315303A1 (en) 2013-11-28
NO2911396T3 (es) 2018-04-21
EP2911402B1 (en) 2017-11-22
ZA201405219B (en) 2015-09-30
DK3448030T3 (da) 2020-03-23
US20130329791A1 (en) 2013-12-12
BR122015021745A2 (pt) 2016-04-26
PL3448030T3 (pl) 2020-07-13
CN104811710A (zh) 2015-07-29
JP2015156707A (ja) 2015-08-27
JP5937252B2 (ja) 2016-06-22
ZA201405220B (en) 2015-06-24
EP3448030B1 (en) 2020-03-11
US8605784B2 (en) 2013-12-10
US9036703B2 (en) 2015-05-19
CN104811710B (zh) 2018-05-01
US20150117530A1 (en) 2015-04-30
HRP20171828T1 (hr) 2018-01-12
PL2911396T3 (pl) 2018-04-30
RU2013114272A (ru) 2014-05-20
US20120140824A1 (en) 2012-06-07
CA3019998A1 (en) 2011-02-24
PT2911402T (pt) 2017-11-30
CN104811709B (zh) 2016-08-31
HUE036631T2 (hu) 2018-07-30
EP2911396A1 (en) 2015-08-26
CA2888495C (en) 2018-01-16
EP3174292B1 (en) 2018-11-28
CA2888490A1 (en) 2011-02-24
ZA201201153B (en) 2015-08-26
PT2911396T (pt) 2017-11-30
US20150055699A1 (en) 2015-02-26
PL2911402T3 (pl) 2018-04-30
JP2015156708A (ja) 2015-08-27
BR122015021747A2 (pt) 2016-04-26
CA2823885A1 (en) 2011-02-24
JP5856190B2 (ja) 2016-02-09
RU2015129684A (ru) 2017-01-24
EP2454883A2 (en) 2012-05-23
HUE051705T2 (hu) 2021-03-29
MX337921B (es) 2016-03-28
US20150249834A1 (en) 2015-09-03
LT2911396T (lt) 2017-12-11
CA2768694A1 (en) 2011-02-24
BR122015021744B1 (pt) 2021-10-19
CN103220522A (zh) 2013-07-24
RU2595604C1 (ru) 2016-08-27
RU2014122343A (ru) 2015-12-10
JP5650742B2 (ja) 2015-01-07
EP2911402A1 (en) 2015-08-26
CA2888489A1 (en) 2011-02-24
EP2911395A1 (en) 2015-08-26
JP2013502808A (ja) 2013-01-24
LT2911402T (lt) 2017-12-11
MY178504A (en) 2020-10-14
KR101510108B1 (ko) 2015-04-10
RU2595602C1 (ru) 2016-08-27
BR122015021745B1 (pt) 2021-10-19
CN104967845B (zh) 2018-05-01
CA2888495A1 (en) 2011-02-24
CY1119802T1 (el) 2018-06-27
US20140254673A1 (en) 2014-09-11
CN102484719A (zh) 2012-05-30
BR122015021744A2 (pt) 2016-04-26
US9071839B2 (en) 2015-06-30
MY171306A (en) 2019-10-08
EP3174292A1 (en) 2017-05-31
US9049458B2 (en) 2015-06-02
BR122013019723A2 (pt) 2016-04-26
JP5937253B2 (ja) 2016-06-22
US8787458B2 (en) 2014-07-22
RU2546619C1 (ru) 2015-04-10
ZA201503354B (en) 2016-01-27
RU2517193C2 (ru) 2014-05-27
MY172727A (en) 2019-12-11
CA2888490C (en) 2018-11-20
EP2911396B1 (en) 2017-11-22
HUE036414T2 (hu) 2018-07-30
BR122013019723B1 (pt) 2022-06-21
JP2014079012A (ja) 2014-05-01
EP3448030A1 (en) 2019-02-27
US20110038415A1 (en) 2011-02-17
WO2011021839A2 (en) 2011-02-24
CA3019998C (en) 2021-01-05
CN104967845A (zh) 2015-10-07
US8989266B2 (en) 2015-03-24
ES2780126T3 (es) 2020-08-24
ZA201304970B (en) 2013-09-25
DK2911402T3 (en) 2017-12-04
MY172871A (en) 2019-12-13
US9374591B2 (en) 2016-06-21
DK2911396T3 (en) 2017-12-04
US8665950B2 (en) 2014-03-04
SI2911402T1 (en) 2018-01-31
BR112012001687A2 (pt) 2016-04-12
ZA201503353B (en) 2017-09-27

Similar Documents

Publication Publication Date Title
ES2649981T3 (es) Aparato de decodificación de vídeo
ES2687479T3 (es) Procedimiento de codificación de bloque residual
ES2592557T3 (es) Procedimiento y aparato de codificación de vídeo, y procedimiento y aparato de descodificación de vídeo
ES2533333T3 (es) Aparato de decodificación de imagen
ES2811038T3 (es) Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división
ES2691979T3 (es) Aparato para decodificar imágenes
ES2644039T3 (es) Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES2728112T3 (es) Procedimiento y aparato de codificación de video con intra predicción
ES2644043T3 (es) Procedimiento y aparato de codificación y decodificación de imágenes usando unidades de transformada grandes
ES2653160T3 (es) Procedimiento para decodificar por entropía coeficientes de transformación
ES2782101T3 (es) Aparato de decodificación de una imagen, procedimiento de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES2765807T3 (es) Codificación modificada para un bloque omitido de transformación para CABAC en HEVC
ES2668472T3 (es) Aparato de decodificación de una imagen usando unidades de transformación grandes
ES2598106T3 (es) Procedimiento y aparato para codificar vídeo mediante predicción de movimiento usando partición arbitraria, y procedimiento y aparato para decodificar vídeo mediante predicción de movimiento usando partición arbitraria
ES2711671T3 (es) Procedimiento de decodificación de vídeo usando decodificación
RU2014108441A (ru) Способ и устройство для кодирования видео с учетом порядка сканирования блоков кодирования, имеющих иерархическую структуру, и способ и устройство для декодирования видео с учетом порядка сканирования блоков кодирования, имеющих иерархическую структуру
ES2737843A2 (es) Metodo y aparato para procesar una senal de video
RU2013119397A (ru) Способ и устройство для кодирования и декодирования блока кодирования границы картинки
ES2728529T3 (es) Mapas de significancia multinivel para codificación y decodificación
ES2919660T3 (es) Aparato de codificación/decodificación por entropía CABAC de baja complejidad