ES2649981T3 - Aparato de decodificación de vídeo - Google Patents
Aparato de decodificación de vídeo Download PDFInfo
- Publication number
- ES2649981T3 ES2649981T3 ES15163276.7T ES15163276T ES2649981T3 ES 2649981 T3 ES2649981 T3 ES 2649981T3 ES 15163276 T ES15163276 T ES 15163276T ES 2649981 T3 ES2649981 T3 ES 2649981T3
- Authority
- ES
- Spain
- Prior art keywords
- units
- coding unit
- size
- current
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Un aparato de decodificación de una imagen, comprendiendo el aparato: un receptor (210) que está configurado para recibir una secuencia de bits; un extractor (220) de datos de imagen y de información de codificación que está configurado para extraer información que indica un modo de predicción intra aplicado a un bloque actual a decodificar, desde una secuencia de bits; un decodificador (230) de datos de imagen que está configurado para decodificar el bloque actual y que comprende: una unidad (1220) de determinación de píxeles de referencia que determina uno de los píxeles vecinos adyacentes al bloque actual y píxeles vecinos filtrados que se filtran desde los píxeles vecinos como píxeles de referencia, en base a al menos uno de un tamaño del bloque actual y un modo de predicción intra del bloque actual; una unidad (1210) de filtrado de píxeles vecinos que está configurada para filtrar los píxeles vecinos del bloque actual; y una unidad (1230) de realización de predicción intra que realiza predicción intra en el bloque actual usando la información extraída y los píxeles de referencia determinados, en el que, cuando el bloque actual tiene un tamaño de N x N, donde N es un número entero, los píxeles vecinos incluyen 2N píxeles vecinos adyacentes a un lado superior y un lado superior derecho del bloque actual y 2N píxeles vecinos adyacentes a un lado izquierdo y un lado inferior izquierdo del bloque actual, en el que la imagen se divide en una pluralidad de unidades de codificación máximas de forma cuadrada, de acuerdo con la información sobre un tamaño máximo de una unidad de codificación, una unidad de codificación máxima entre la pluralidad de unidades de codificación máxima de forma cuadrada se divide jerárquicamente en una o más unidades de profundidades codificadas de acuerdo con la información de división obtenida a partir de la secuencia de bits, una unidad de codificación de una profundidad codificada actual es una de unidades de datos de forma cuadrada dividida de una unidad de codificación de una profundidad codificada superior, cuando la información de división indica una división para la unidad de codificación de profundidad codificada actual, la unidad de codificación de la profundidad codificada actual se divide en unidades de codificación de profundidad codificada más profunda dividiendo una altura y una anchura de la unidad de codificación de la profundidad codificada actual por 2 de acuerdo con la información de división, independientemente de las unidades de codificación vecinas, cuando la información de división indica una no división para la unidad de codificación de la profundidad codificada actual, la unidad de codificación de la profundidad codificada actual se divide en una o más unidades de predicción para decodificación de predicción y la unidad de codificación de la profundidad codificada actual se divide en una o más unidades de transformación para transformación inversa, en el que la una o más unidades de predicción se obtienen de acuerdo con un tipo de partición extraído de la secuencia de bits, dividiendo de manera igual una altura o una anchura de la unidad de codificación de la profundidad codificada actual por 2, o dividiendo de manera igual tanto la altura como la anchura de la unidad de codificación de la profundidad codificada actual por 2, o determinando la unidad de codificación de la profundidad codificada actual como la una de la una o más unidades de predicción, en el que la una o más unidades de transformación son cuadradas, las unidades de transformación divididas de la unidad de codificación de la profundidad codificada actual son del mismo tamaño y la una o más unidades de transformación se obtienen de acuerdo con información sobre el tamaño de la unidad de transformación que se extrae de la secuencia de bits, en el que el aparato de decodificación admite que un tamaño y una forma de la una o más unidades de predicción sean los mismos que un tamaño y una forma de la una o más unidades de transformación o que el tamaño y la forma de la una o más unidades de predicción sean diferentes del tamaño y de la forma de la una o más unidades de transformación; y el bloque actual es uno de la una o más unidades de predicción obtenidas a partir de la unidad de codificación de la profundidad codificada actual.
Description
5
10
15
20
25
30
35
40
45
50
55
baja, y una profundidad codificada para las unidades de codificación que constituyan una unidad 900 de codificación máxima actual se determina como d-1 y un tipo de división de la unidad 900 de codificación máxima actual puede determinarse como N_(d-1) x N_(d-1). Asimismo, ya que la profundidad máxima es d y una unidad 980 de codificación mínima que tiene una profundidad más baja de d-1, ya no es dividida a una profundidad más baja, no se establece la información de división para la unidad 980 de codificación mínima.
Una unidad 999 de datos puede ser una unidad mínima para la unidad de codificación máxima actual. Una unidad mínima de acuerdo con un ejemplo puede ser una unidad de datos rectangular obtenida al dividir una unidad 980 de codificación mínima entre 4. Al realizar la codificación repetidamente, el aparato 100 de codificación de vídeo puede seleccionar una profundidad que tenga el mínimo error de codificación al comparar errores de codificación de acuerdo con profundidades de la unidad 900 de codificación para determinar una profundidad codificada, y establecer un tipo de división y un modo de predicción correspondientes como un modo de codificación de la profundidad codificada.
De esta manera, los errores de codificación mínimos de acuerdo con profundidades se comparan en todas las profundidades de 1 a d, y una profundidad que tenga el mínimo error de codificación puede determinarse como una profundidad codificada. La profundidad codificada, el tipo de división de la unidad de predicción y el modo de predicción pueden codificarse y transmitirse como información acerca de un modo de codificación. Asimismo, ya que una unidad de codificación se divide a partir de una profundidad de 0 hasta una profundidad codificada, solo la información de división de la profundidad codificada se establece en 0, y la información de división de profundidades que excluyan la profundidad codificada se establece en 1.
El extractor 220 de datos de imagen e información de codificación del aparato 200 de decodificación de vídeo puede extraer y usar la información acerca de la profundidad codificada y la unidad de predicción de la unidad 900 de codificación para decodificar la división 912. El aparato 200 de decodificación de vídeo puede determinar una profundidad, en la cual la información de división sea 0, como una profundidad codificada usando información de división de acuerdo con profundidades, y usar información acerca de un modo de codificación de la profundidad correspondiente para decodificación.
Las figuras 10 a 12 son diagramas para describir una relación entre unidades 1010 de codificación, unidades 1060 de predicción y unidades 1070 de transformación.
Las unidades 1010 de codificación son unidades de codificación que tienen una estructura de árbol, que corresponden a profundidades codificadas determinadas por el aparato 100 de codificación de vídeo, en una unidad de codificación máxima. Las unidades 1060 de predicción son divisiones de unidades de predicción de cada una de las unidades 1010 de codificación, y las unidades 1070 de transformación son unidades de transformación de cada una de las unidades 1010 de codificación.
Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades 1010 de codificación, las profundidades de las unidades 1012 y 1054 de codificación son 1, las profundidades de las unidades 1014, 1016, 1018, 1028, 1050 y 1052 de codificación son 2, las profundidades de las unidades 1020, 1022, 1024, 1026, 1030, 1032 y 1048 de codificación son 3, y las profundidades de las unidades 1040, 1042, 1044 y 1046 de codificación son
4.
En las unidades 1060 de predicción, algunas unidades 1014, 1016, 1022, 1032, 1048, 150, 1052 y 1054 de codificación se obtienen al dividir las unidades de codificación en las unidades 1010 de codificación. En otras palabras, tipos de división en las unidades 1014, 1022, 1050 y 1054 de codificación tienen un tamaño de 2N x N, tipos de división en las unidades 1016, 1048 y 1052 de codificación tienen un tamaño de N x 2N, y un tipo de división de la unidad 1032 de codificación tiene un tamaño de N x N. Las unidades de predicción y divisiones de las unidades 1010 de codificación son más pequeñas que o iguales a cada unidad de codificación.
La transformación o transformación inversa se realiza en datos de imagen de la unidad 1052 de codificación en las unidades 1070 de transformación en una unidad de datos que es más pequeña que la unidad 1052 de codificación. Asimismo, las unidades 1014, 1016, 1022, 1032, 1048, 1050 y 1052 de codificación en las unidades 1070 de transformación son diferentes de aquellas en las unidades 1060 de predicción en términos de tamaños y formas. En otras palabras, los aparatos 100 y 200 de codificación y decodificación de vídeo pueden realizar intra predicción, estimación de movimiento, compensación de movimiento, transformación y transformación inversa individualmente en una unidad de datos en la misma unidad de codificación.
En consecuencia, la codificación se realiza recursivamente en cada una de las unidades de codificación que tienen una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y de esta manera pueden obtenerse unidades de codificación que tengan una estructura de árbol recursiva. La información de codificación puede incluir información de división acerca de una unidad de codificación, información acerca de un tipo de división, información acerca de un modo de predicción e información acerca de un tamaño de una unidad de transformación. La tabla 1 muestra la información de codificación que puede establecerse por los aparatos 100 y 200 de codificación y decodificación de vídeo.
13
5
10
15
20
25
30
35
40
45
50
55
ser referidas para predecir la unidad de codificación actual.
La figura 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una división, y una unidad de transformación, de acuerdo con información de modo de codificación de la Tabla 1.
Una unidad 1300 de codificación máxima incluye unidades 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de codificación de profundidades codificadas. Aquí, ya que la unidad 1318 de codificación es una unidad de codificación de una profundidad codificada, la información de división puede establecerse en 0. La información acerca de un tipo de división de la unidad 1318 de codificación que tenga un tamaño de 2N x 2N puede establecerse para que sea uno de un tipo de división 1322 que tenga un tamaño de 2N x 2N, un tipo de división 1324 que tenga un tamaño de 2N x N, un tipo de división 1326 que tenga un tamaño de N x 2N, un tipo de división 1328 que tenga un tamaño de N x N, un tipo de división 1332 que tenga un tamaño de 2N x nU, un tipo de división 1334 que tenga un tamaño de 2N x nD, un tipo de división 1336 que tenga un tamaño de nL x 2N, y un tipo de división 1338 que tenga un tamaño de nR x 2N.
Cuando el tipo de división se establece para ser simétrico, es decir, el tipo de división 1322, 1324, 1326 o 1328, una unidad 1342 de transformación que tiene un tamaño de 2N x 2N se establece si la información de división (indicador de tamaño de TU) de una unidad de transformación es 0, y una unidad 1344 de transformación que tiene un tamaño de N x N se establece si un indicador de tamaño de TU es 1.
Cuando el tipo de división se establece para ser asimétrico, es decir, el tipo de división 1332, 1334, 1336 o 1338, una unidad 1352 de transformación que tiene un tamaño de 2N x 2N se establece si un indicador de tamaño de TU es 0, y una unidad 1354 de transformación que tiene un tamaño de N/2 x N/2 se establece si un indicador de tamaño de TU es 1.
Con referencia a la figura 13, el indicador de tamaño de TU es un indicador que tiene un valor de 0 o 1, pero el indicador de tamaño de TU no está limitado a 1 bit, y una unidad de transformación puede dividirse jerárquicamente para que tenga una estructura de árbol mientras el indicador de tamaño de TU se incremente desde 0.
En este caso, el tamaño de una unidad de transformación que se ha usado realmente puede ser expresado usando un indicador de tamaño de TU de una unidad de transformación, junto con un tamaño máximo y tamaño mínimo de la unidad de transformación. El aparato 100 de codificación de vídeo es capaz de codificar información de tamaño de unidad de transformación máxima, información de tamaño de unidad de transformación mínima, y un indicador de tamaño de TU máximo. El resultado de codificar la información del tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima y el indicador de tamaño de TU máximo puede insertarse en un SPS. De acuerdo con una realización ejemplar, el aparato 200 de decodificación de vídeo puede decodificar vídeo usando la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima y el indicador de tamaño de TU máximo.
Por ejemplo, si el tamaño de una unidad de codificación actual es 64 x 64 y un tamaño de unidad de transformación máxima es 32 x 32, entonces el tamaño de una unidad de transformación puede ser 32 x 32 cuando un indicador de tamaño de TU sea 0, puede ser 16 x 16 cuando el indicador de tamaño de TU sea 1, y puede ser 8 x 8 cuando el indicador de tamaño de TU sea 2.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 32 x 32 y un tamaño de unidad de transformación mínima es 32 x 32, entonces el tamaño de la unidad de transformación puede ser 32 x 32 cuando el indicador de tamaño de TU sea 0. Aquí, el indicador de tamaño de TU no puede establecerse en un valor que no sea 0, toda vez que el tamaño de la unidad de transformación no puede ser inferior a 32 x 32.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 64 x 64 y un indicador de tamaño de TU máximo es 1, entonces el indicador de tamaño de TU puede ser 0 o 1. Aquí, el indicador de tamaño de TU no puede establecerse en un valor que no sea 0 o 1.
De esta manera, si se define que el indicador de tamaño de TU máximo es “MaxTransformSizelndex”, un tamaño de unidad de transformación mínima es “MinTransformSize”, y un tamaño de unidad de transformación es “RootTuSize” cuando el indicador de TU es 0, entonces un tamaño de unidad de transformación mínima actual “CurrMinTuSize” puede determinarse en una unidad de codificación actual, puede definirse por la ecuación (1):
CurrMinTuSize = max(MinTransformSize, RootTuSize/(2^MaxTransformSizeIndex)) (1)
En comparación con el tamaño de unidad de transformación mínima actual “CurrMinTuSize” puede determinarse en la unidad de codificación actual, un tamaño de unidad de transformación “RootTuSize” cuando el indicador del tamaño TU sea 0 puede indicar un tamaño de unidad de transformación máxima que se puede seleccionar en el sistema. En la ecuación (1), “RootTuSize/(2^MaxTransformSizeIndex)” indica un tamaño de unidad de transformación cuando el tamaño de unidad de transformación “RootTuSize”, cuando el indicador de tamaño de TU es 0, se divide un número de veces que corresponde al indicador de tamaño de TU máximo; y “MinTransformSize” indica un tamaño de transformación mínimo. Así, un valor más pequeño de entre “RootTuSize/(2^MaxTransformSizeIndex)” y “MinTransformSize” puede ser el tamaño de unidad de transformación
15
5
10
15
20
25
30
35
40
La figura 16B ilustra direcciones de los modos de intra predicción mostrados en la figura 16A. En la figura 16B, los números en los extremos de las flechas representan los modos de predicción que corresponden a las direcciones de predicción indicadas por las flechas. Aquí, el modo 2 es un modo de CC que no tiene directividad y de esta manera no se muestra en la figura 16B.
La figura 16C es un diagrama para describir un procedimiento para realizar intra predicción en una unidad de codificación usando los modos de intra predicción mostrados en la figura 16A.
Con referencia a la figura 16C, una unidad de codificación por predicción se genera al realizar un modo de intra predicción disponible determinado de acuerdo con el tamaño de una unidad de codificación actual usando píxeles vecinos A a M de la unidad de codificación actual. Por ejemplo, una operación de realizar codificación por predicción en una unidad de codificación actual que tiene un tamaño de 4 x 4 de acuerdo con el modo 0, es decir, se describirá un modo vertical, mostrado en la figura 16A. Inicialmente, valores de los píxeles vecinos A a D en un lado superior de la unidad de codificación actual se predicen como valores de píxel de la unidad de codificación actual. Es decir, el valor del píxel vecino A se predice como un valor de cuatro píxeles en una primera columna de la unidad de codificación actual, el valor del píxel vecino B se predice como un valor de cuatro píxeles en una segunda columna de la unidad de codificación actual, el valor del píxel vecino C se predice como un valor de cuatro píxeles en una tercera columna de la unidad de codificación actual, y el valor del píxel vecino D se predice como un valor de cuatro píxeles en una cuarta columna de la unidad de codificación actual. Después de eso, los valores de píxel de la unidad de codificación actual predicha usando los píxeles vecinos A a D son restados de los valores de píxel de la unidad de codificación actual original, para de esta manera calcular un valor de error y luego se codifica el valor de error. Mientras tanto, cuando se aplican varios modos de intra predicción, píxeles vecinos usados como píxeles de referencia pueden ser píxeles vecinos originales o píxeles vecinos filtrados como se describe anteriormente.
La figura 17 ilustra modos de intra predicción aplicados a una unidad de codificación que tiene un tamaño predeterminado, de acuerdo con otra realización ejemplar.
Con referencia a las figuras 15 y 17, por ejemplo, cuando se realiza intra predicción en una unidad de codificación que tiene un tamaño de 2 x 2, la unidad de codificación puede tener en total cinco modos tales como un modo vertical, un modo horizontal, un modo de CC, un modo de plano y un modo abajo-derecha diagonal.
Mientras tanto, si una unidad de codificación, que tiene un tamaño de 32 x 32 tiene 33 modos de intra predicción como se muestra en la figura 15, tienen que establecerse direcciones de los 33 modos de intra predicción. De acuerdo con un ejemplo, para establecer un modo de intra predicción que tenga varias direcciones además de los modos de intra predicción ilustrados en las figuras 16A a 16C, y 17, las direcciones de predicción para seleccionar píxeles vecinos usados como píxeles de referencia de píxeles de la unidad de codificación se establecen usando parámetros (dx, dy). Por ejemplo, si cada uno de los 33 modos de predicción se define como modo N (donde N es un número entero de 0 a 32), el modo 0 puede establecerse como un modo vertical, el modo 1 puede establecerse como un modo horizontal, el modo 2 puede establecerse como un modo de CC, el modo 3 puede establecerse como un modo de plano, y cada uno del modo 4 al modo 31 pueden definirse como un modo de predicción que tenga una directividad de tan-1 (dy/dx) usando (dx, dy) representados como uno de (1, -1), (1, 1), (1, 2), (2, 1), (1, -2), (2, 1), (1, -2), (2, -1), (2, -11), (5, -7), (10, -7), (11, 3), (4, 3), (1, 11), (1, -1), (12, -3), (1, -11), (1, -7), (3, -10), (5, -6), (7, -6), (7, 4), (11, 1), (6, 1), (8, 3), (5, 3), (5, 7), (2, 7), (5, -7) y (4,-3) mostrados en la tabla 3.
Tabla 3
- modo #
- dx dy modo # dx dy
- modo 4
- 1 -1 modo 18 1 -11
- modo 5
- 1 1 modo 19 1 -7
- modo 6
- 1 2 modo 20 3 -10
- modo 7
- 2 1 modo 21 5 -6
- modo 8
- 1 -2 modo 22 7 -6
- modo 9
- 2 -1 modo 23 7 -4
- modo 10
- 2 -11 modo 24 11 1
- modo 11
- 5 -7 modo 25 6 1
- modo 12
- 10 -7 modo 26 8 3
- modo 13
- 11 3 modo 27 5 3
- modo 14
- 4 3 modo 28 5 7
- modo 15
- 1 11 modo 29 2 7
- modo 16
- 1 -1 modo 30 5 -7
- modo 17
- 12 -3 modo 31 4 -3
- El modo 0 es un modo vertical, el modo 1 es un modo horizontal, el modo 2 es un modo de CC, el modo 3 es un modo plano, y el modo 32 es un modo bilineal.
Las figuras 18A a 18C son diagramas para describir modos de intra predicción que tienen varias directividades. Como se describió anteriormente en relación con la Tabla 3, modos de intra predicción de acuerdo con un ejemplo
20
5
10
15
20
25
30
35
40
45
50
55
pueden tener varias directividades de tan-1 (dy/dx) usando una pluralidad de parámetros (dx, dy).
Con referencia a la figura 18A, píxeles vecinos A y B en una línea de extensión 160 que tiene un ángulo de tan-1 (dy/dx) de acuerdo con valores (dx, dy) en la Tabla 3 con respecto a un píxel actual P en una unidad de codificación actual que será predicha, se pueden usar como un predictor del píxel actual P. En este caso, los píxeles vecinos usados como un predictor pueden codificarse previamente y los píxeles restablecidos de una unidad de codificación previa y lados superior e izquierdo de una unidad de codificación actual. Asimismo, si la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, uno de los píxeles vecinos más cercano a la línea 160 de extensión que el otro puede usarse como el predictor del píxel actual P.
Asimismo, si la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, uno de los píxeles vecinos más cercano al píxel actual P que el otro puede usarse como el predictor del píxel actual P, o un valor promedio ponderado calculado teniendo en cuenta las distancias desde los píxeles vecinos hasta un cruce de la línea 160 de extensión y una línea entre los píxeles vecinos se puede usar como el predictor del píxel actual P.
Las figuras 18B y 18C son diagramas para describir un proceso de generar un predictor cuando la línea 160 de extensión pasa entre dos píxeles vecinos colocados en ubicaciones enteras, de acuerdo con un ejemplo.
Con referencia a la figura 18B, si la línea 160 de extensión que tiene un ángulo de tan-1 (dy/dx) que se determinará de acuerdo con un valor (dx, dy) de cada modo pasa entre píxeles vecinos A 151 y B 152 colocados en ubicaciones enteras, como se describió anteriormente, uno de los píxeles vecinos A 151 y B 152 más cercano a la línea 160 de extensión o un valor promedio ponderado calculado teniendo en cuenta las distancias desde los píxeles vecinos A 151 y B 152 hasta un cruce de la línea 160 de extensión y una línea entre los píxeles vecinos A 151 y B 152 se puede usar como un predictor del píxel actual P. Por ejemplo, si la distancia entre el cruce y el píxel vecino A 151 es f y la distancia entre el cruce y el píxel vecino B 152 es g, el predictor del píxel actual P puede obtenerse como (A*g+B*f)/(f+g). Aquí, f y g pueden ser distancias reguladas como enteros. En una implementación de software y hardware real, el predictor del píxel actual P puede obtenerse al realizar una operación de desplazamiento tal como (g*A+f*B+2) >> 2. Como se ilustra en la figura 18B, si la línea 160 de extensión pasa una ubicación de 1/4 entre los píxeles vecinos A 151 y B 152, que está más cerca del píxel vecino A 151, el predictor del píxel actual P puede obtenerse como (3*A+B)/4. Este valor puede obtenerse al realizar una operación de desplazamiento tal como (3*A+B+2) >> 2 teniendo en cuenta el redondeo.
Mientras tanto, si la línea 160 de extensión pasa entre los píxeles vecinos A 151 y B 152, la sección entre los píxeles vecinos A 151 y B 152 puede dividirse en un número predeterminado de secciones, y un valor promedio ponderado puede calcularse teniendo en cuenta las distancias entre el cruce y los píxeles vecinos A 151 y B 152 en cada sección pueden usarse como el predictor. Por ejemplo, con referencia a la figura 18C, la sección entre los píxeles vecinos A 151 y B 152 se divide en cinco secciones P1 a P5, un valor promedio ponderado representativo calculado teniendo en cuenta las distancias entre el cruce y los píxeles vecinos A 151 y B 152 en cada sección puede determinarse y se puede usar como el predictor del píxel actual P. En más detalle, si la línea 160 de extensión pasa la sección P11, un valor del píxel vecino A 151 puede determinarse como el predictor del píxel actual P. Si la línea de extensión pasa a la sección P2, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P2 y los píxeles vecinos A 151 y B 152, es decir, (3*A+1*B+2) >> 2, se puede determinar como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P3, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P3 y los píxeles vecinos A 151 y B 152, es decir, (2*A+2*B+2) >> 2, puede determinarse como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P4, un valor promedio ponderado calculado teniendo en cuenta las distancias entre el centro de la sección P4 y los píxeles vecinos A 151 y B 152, es decir, (1*A+3*B+2) >> 2, puede determinarse como el predictor del píxel actual P. Si la línea 160 de extensión pasa a la sección P5, un valor del píxel vecino B 152 puede determinarse como el predictor del píxel actual P.
Asimismo, como se ilustra en la figura 18A, si la línea 160 de extensión encuentra dos píxeles vecinos tales como el píxel vecino A en el lado superior y el píxel vecino B en el lado izquierdo, un valor promedio de los píxeles vecinos A y B se puede usar como el predictor del píxel actual P. Como alternativa, el píxel vecino A puede usarse si un valor de dx*dy es un número positivo, y el píxel vecino B puede usarse si el valor de dx*dy es un número negativo. También, píxeles vecinos usados como píxeles de referencia pueden ser píxeles vecinos originales o píxeles vecinos filtrados como se describió anteriormente.
Los modos de intra predicción que tienen varias directividades en la Tabla 3 pueden establecerse previamente en un lado de codificador y un lado de decodificador, y de esta manera cada unidad de codificación puede transmitir índices que correspondan solo a los modos de intra predicción establecidos.
Como una codificación por predicción se realiza de acuerdo con los modos de intra predicción establecidos de manera variable de acuerdo con el tamaño de una unidad de codificación, la eficiencia de compresión de una imagen puede mejorarse de acuerdo con características de imagen. Asimismo, de acuerdo con un ejemplo, ya que píxeles vecinos y píxeles vecinos filtrados se usan selectivamente para realizar intra predicción, la predicción puede realizarse de manera más variable y de esta manera puede mejorarse la eficiencia de compresión de una imagen.
21
Claims (1)
-
imagen1
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20090075855 | 2009-08-17 | ||
KR20090075855A KR101510108B1 (ko) | 2009-08-17 | 2009-08-17 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2649981T3 true ES2649981T3 (es) | 2018-01-16 |
Family
ID=43588578
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES15163276.7T Active ES2649981T3 (es) | 2009-08-17 | 2010-08-17 | Aparato de decodificación de vídeo |
ES18199130T Active ES2780126T3 (es) | 2009-08-17 | 2010-08-17 | Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo |
ES15163275.9T Active ES2649978T3 (es) | 2009-08-17 | 2010-08-17 | Procedimiento de decodificación de vídeo |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18199130T Active ES2780126T3 (es) | 2009-08-17 | 2010-08-17 | Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo |
ES15163275.9T Active ES2649978T3 (es) | 2009-08-17 | 2010-08-17 | Procedimiento de decodificación de vídeo |
Country Status (23)
Country | Link |
---|---|
US (8) | US8605784B2 (es) |
EP (7) | EP2677746A3 (es) |
JP (5) | JP5650742B2 (es) |
KR (1) | KR101510108B1 (es) |
CN (6) | CN103220522B (es) |
AU (1) | AU2010285492B2 (es) |
BR (5) | BR122015021745B1 (es) |
CA (6) | CA3019998C (es) |
CY (2) | CY1119795T1 (es) |
DK (3) | DK2911396T3 (es) |
ES (3) | ES2649981T3 (es) |
HR (2) | HRP20171827T1 (es) |
HU (3) | HUE036414T2 (es) |
LT (2) | LT2911402T (es) |
MX (2) | MX2011013035A (es) |
MY (5) | MY172871A (es) |
NO (2) | NO2911396T3 (es) |
PL (3) | PL3448030T3 (es) |
PT (2) | PT2911396T (es) |
RU (7) | RU2517193C2 (es) |
SI (2) | SI2911396T1 (es) |
WO (1) | WO2011021839A2 (es) |
ZA (6) | ZA201201153B (es) |
Families Citing this family (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE47243E1 (en) * | 2009-12-09 | 2019-02-12 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video, and method and apparatus for decoding video |
KR101700358B1 (ko) * | 2009-12-09 | 2017-01-26 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US9467705B2 (en) | 2009-12-30 | 2016-10-11 | Ariscale Inc. | Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block |
KR20110113561A (ko) * | 2010-04-09 | 2011-10-17 | 한국전자통신연구원 | 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치 |
WO2011129619A2 (ko) | 2010-04-13 | 2011-10-20 | 삼성전자 주식회사 | 트리 구조 부호화 단위에 기반한 디블록킹 필터링을 수행하는 비디오 부호화 방법과 그 장치 및 복호화 방법과 그 장치 |
KR20110123651A (ko) | 2010-05-07 | 2011-11-15 | 한국전자통신연구원 | 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법 |
ES2729031T3 (es) * | 2010-07-14 | 2019-10-29 | Ntt Docomo Inc | Intra-predicción de baja complejidad para codificación de vídeo |
KR101530284B1 (ko) | 2010-07-16 | 2015-06-19 | 삼성전자주식회사 | 영상의 인트라 예측 부호화, 복호화 방법 및 장치 |
US11284072B2 (en) | 2010-08-17 | 2022-03-22 | M&K Holdings Inc. | Apparatus for decoding an image |
LT3125553T (lt) * | 2010-08-17 | 2018-07-25 | M&K Holdings Inc. | Vidinės prognozės režimo kodavimo būdas |
KR101663764B1 (ko) * | 2010-08-26 | 2016-10-07 | 에스케이 텔레콤주식회사 | 인트라 예측을 이용한 부호화 및 복호화 장치와 방법 |
US20130177078A1 (en) * | 2010-09-30 | 2013-07-11 | Electronics And Telecommunications Research Institute | Apparatus and method for encoding/decoding video using adaptive prediction block filtering |
MX338462B (es) * | 2010-09-30 | 2016-04-15 | Mitsubishi Electric Corp | Dispositivo de codificacion de imagen en movimiento, dispositivo de decodificacion de imagen en movimiento, metodo de codificacion de imagen en movimiento y metodo de decodificacion de imagen en movimiento. |
US9008175B2 (en) * | 2010-10-01 | 2015-04-14 | Qualcomm Incorporated | Intra smoothing filter for video coding |
KR101772046B1 (ko) * | 2010-11-04 | 2017-08-29 | 에스케이텔레콤 주식회사 | 예측모드에 따라 필터링된 화소값으로 인트라예측을 수행하는 영상 부호화/복호화 방법 및 장치 |
US9258573B2 (en) * | 2010-12-07 | 2016-02-09 | Panasonic Intellectual Property Corporation Of America | Pixel adaptive intra smoothing |
US10142630B2 (en) * | 2010-12-10 | 2018-11-27 | Texas Instruments Incorporated | Mode adaptive intra prediction smoothing in video coding |
KR102086145B1 (ko) | 2010-12-13 | 2020-03-09 | 한국전자통신연구원 | 인트라 예측 방법 및 그 장치 |
WO2012081895A1 (ko) | 2010-12-13 | 2012-06-21 | 한국전자통신연구원 | 인트라 예측 방법 및 그 장치 |
EP4033760A1 (en) | 2010-12-31 | 2022-07-27 | Electronics And Telecommunications Research Institute | Method for encoding video information and method for decoding video information, and apparatus using same |
KR101824241B1 (ko) * | 2011-01-11 | 2018-03-14 | 에스케이 텔레콤주식회사 | 인트라 부가정보 부호화/복호화 장치 및 방법 |
US8948271B2 (en) * | 2011-01-13 | 2015-02-03 | Texas Instruments Incorporated | Method and apparatus for a low complexity transform unit partitioning structure for HEVC |
US9930366B2 (en) * | 2011-01-28 | 2018-03-27 | Qualcomm Incorporated | Pixel level adaptive intra-smoothing |
KR20120090740A (ko) * | 2011-02-07 | 2012-08-17 | (주)휴맥스 | 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법 |
WO2012115420A2 (ko) * | 2011-02-23 | 2012-08-30 | 엘지전자 주식회사 | 필터링을 이용한 화면 내 예측 방법 및 이러한 방법을 사용하는 장치 |
WO2012121575A2 (ko) | 2011-03-10 | 2012-09-13 | 한국전자통신연구원 | 인트라 예측 방법 및 그 장치 |
US20130336398A1 (en) * | 2011-03-10 | 2013-12-19 | Electronics And Telecommunications Research Institute | Method and device for intra-prediction |
WO2012134046A2 (ko) | 2011-04-01 | 2012-10-04 | 주식회사 아이벡스피티홀딩스 | 동영상의 부호화 방법 |
WO2012161445A2 (ko) * | 2011-05-20 | 2012-11-29 | 주식회사 케이티 | 단거리 인트라 예측 단위 복호화 방법 및 복호화 장치 |
KR101383775B1 (ko) | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
US9602839B2 (en) | 2011-06-15 | 2017-03-21 | Futurewei Technologies, Inc. | Mode dependent intra smoothing filter table mapping methods for non-square prediction units |
KR20120140181A (ko) * | 2011-06-20 | 2012-12-28 | 한국전자통신연구원 | 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치 |
EP2919468A3 (en) | 2011-06-28 | 2016-02-17 | Samsung Electronics Co., Ltd | Method and apparatus for image encoding and decoding using intra prediction |
JP2013012895A (ja) * | 2011-06-29 | 2013-01-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム |
US9179148B2 (en) * | 2011-06-30 | 2015-11-03 | Futurewei Technologies, Inc. | Simplified bilateral intra smoothing filter |
WO2013005966A2 (ko) | 2011-07-01 | 2013-01-10 | 한국전자통신연구원 | 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치 |
EP2728872A4 (en) * | 2011-07-01 | 2016-05-11 | Samsung Electronics Co Ltd | VIDEO CODING METHOD WITH INTRAPRADICATION ON THE BASIS OF A TEST PROCESS FOR UNIFORM REFERENCE POSSIBILITY, VIDEO DECODING METHOD AND DEVICE THEREFOR |
KR20130004173A (ko) | 2011-07-01 | 2013-01-09 | 한국항공대학교산학협력단 | 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치 |
US9363511B2 (en) | 2011-09-13 | 2016-06-07 | Mediatek Singapore Pte. Ltd. | Method and apparatus for Intra mode coding in HEVC |
CN108174212B (zh) | 2011-10-17 | 2021-11-02 | 株式会社Kt | 用解码装置对待解码的具有当前块的视频信号解码的方法 |
HUE056506T2 (hu) * | 2011-10-24 | 2022-02-28 | Innotive Ltd | Eljárás és készülék intra predikciósmód dekódolására |
PL3402199T3 (pl) | 2011-10-24 | 2020-08-24 | Innotive Ltd | Sposób dekodowania obrazu |
KR101947657B1 (ko) | 2011-10-24 | 2019-02-14 | (주)대가람 | 인트라 예측 정보 부호화 방법 및 장치 |
KR102005468B1 (ko) | 2011-10-24 | 2019-10-01 | (주)대가람 | 복원 블록을 생성하는 방법 및 장치 |
EP3780601B1 (en) * | 2011-10-28 | 2023-08-16 | Samsung Electronics Co., Ltd. | Method and apparatus for intra prediction of video |
WO2013067942A1 (zh) | 2011-11-08 | 2013-05-16 | 华为技术有限公司 | 一种帧内预测方法和装置 |
HUE054084T2 (hu) * | 2011-12-15 | 2021-08-30 | Tagivan Ii Llc | Luminancia-krominancia kódolt blokk jelölõk (CBF) jelzése videokódolásban |
US20150003524A1 (en) * | 2012-01-13 | 2015-01-01 | Sharp Kabushiki Kaisha | Image decoding device, image encoding device, and data structure of encoded data |
CN103220506B (zh) | 2012-01-19 | 2015-11-25 | 华为技术有限公司 | 一种编解码方法和设备 |
EP2829065B1 (en) * | 2012-03-21 | 2020-05-13 | MediaTek Singapore Pte Ltd. | Method and apparatus for intra mode derivation and coding in scalable video coding |
US9912944B2 (en) * | 2012-04-16 | 2018-03-06 | Qualcomm Incorporated | Simplified non-square quadtree transforms for video coding |
WO2014107073A1 (ko) * | 2013-01-04 | 2014-07-10 | 삼성전자 주식회사 | 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US9544597B1 (en) | 2013-02-11 | 2017-01-10 | Google Inc. | Hybrid transform in video encoding and decoding |
US9967559B1 (en) | 2013-02-11 | 2018-05-08 | Google Llc | Motion vector dependent spatial transformation in video coding |
US10687079B2 (en) * | 2014-03-13 | 2020-06-16 | Qualcomm Incorporated | Constrained depth intra mode coding for 3D video coding |
CN107113444A (zh) * | 2014-11-04 | 2017-08-29 | 三星电子株式会社 | 使用帧内预测对视频进行编码/解码的方法和装置 |
CN104333759B (zh) * | 2014-11-26 | 2019-05-10 | 广东中星微电子有限公司 | 一种用于svac标准的图像预测方法 |
US11477484B2 (en) * | 2015-06-22 | 2022-10-18 | Qualcomm Incorporated | Video intra prediction using hybrid recursive filters |
JP6115968B2 (ja) * | 2015-08-04 | 2017-04-19 | 日本電信電話株式会社 | 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム |
US9769499B2 (en) | 2015-08-11 | 2017-09-19 | Google Inc. | Super-transform video coding |
US10574984B2 (en) * | 2015-09-10 | 2020-02-25 | Lg Electronics Inc. | Intra prediction method and device in video coding system |
US10277905B2 (en) | 2015-09-14 | 2019-04-30 | Google Llc | Transform selection for non-baseband signal coding |
US10659812B2 (en) | 2015-11-24 | 2020-05-19 | Samsung Electronics Co., Ltd. | Method and device for video decoding and method and device for video encoding |
WO2017091016A1 (ko) * | 2015-11-24 | 2017-06-01 | 삼성전자 주식회사 | 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치 |
US10362314B2 (en) * | 2015-11-27 | 2019-07-23 | Mediatek Inc. | Apparatus and method for video coding by intra-prediction |
KR20180086203A (ko) | 2015-12-17 | 2018-07-30 | 삼성전자주식회사 | 영상을 부호화/복호화 하는 방법 및 그 장치 |
KR101910873B1 (ko) * | 2015-12-28 | 2018-10-23 | 연세대학교 산학협력단 | 예측 모드 맵을 이용한 비디오 코딩의 부호화 방법 및 복호화 방법 |
WO2017142301A1 (ko) | 2016-02-16 | 2017-08-24 | 삼성전자 주식회사 | 영상을 부호화/복호화 하는 방법 및 그 장치 |
US9942548B2 (en) | 2016-02-16 | 2018-04-10 | Google Llc | Entropy coding transform partitioning information |
US10390021B2 (en) | 2016-03-18 | 2019-08-20 | Mediatek Inc. | Method and apparatus of video coding |
KR102346713B1 (ko) * | 2016-04-12 | 2022-01-03 | 세종대학교산학협력단 | 인트라 예측 기반의 비디오 신호 처리 방법 및 장치 |
CA3025488A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | Weighted angular prediction for intra coding |
CN114422796A (zh) * | 2016-06-24 | 2022-04-29 | 韩国电子通信研究院 | 用于基于变换的图像编码/解码的方法和设备 |
CN116437079A (zh) * | 2016-09-20 | 2023-07-14 | 株式会社Kt | 对视频进行解码和编码的方法以及传输方法 |
JP6669622B2 (ja) * | 2016-09-21 | 2020-03-18 | Kddi株式会社 | 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体 |
KR20180080115A (ko) * | 2017-01-02 | 2018-07-11 | 한양대학교 산학협력단 | 참조 화소에 대하여 적응적 필터링을 수행하기 위한 화면 내 예측 방법 및 장치 |
CN110622515A (zh) * | 2017-05-09 | 2019-12-27 | 谷歌有限责任公司 | 定向帧内预测代码化 |
GB2564150A (en) * | 2017-07-05 | 2019-01-09 | Sony Corp | Image data encoding and decoding |
JP2019041165A (ja) * | 2017-08-23 | 2019-03-14 | 富士通株式会社 | 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム |
WO2019124205A1 (ja) | 2017-12-18 | 2019-06-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
EP3732886A1 (en) * | 2017-12-29 | 2020-11-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods providing encoding and/or decoding of video using reference values and related devices |
CN108429904A (zh) * | 2018-06-11 | 2018-08-21 | 山东超越数控电子股份有限公司 | 一种视频光端机时钟电路系统 |
AU2018217336A1 (en) * | 2018-08-17 | 2020-03-05 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding a transformed block of video samples |
EP3713235B1 (en) * | 2019-03-19 | 2023-08-02 | Axis AB | Methods and devices for encoding a video stream using a first and a second encoder |
US11122297B2 (en) | 2019-05-03 | 2021-09-14 | Google Llc | Using border-aligned block functions for image compression |
CN110213595B (zh) * | 2019-06-25 | 2021-07-30 | 浙江大华技术股份有限公司 | 基于帧内预测的编码方法、图像处理设备和存储装置 |
CN110166773B (zh) * | 2019-06-25 | 2021-08-31 | 浙江大华技术股份有限公司 | 帧内预测方法、视频编码方法、视频处理装置、存储介质 |
US11375243B2 (en) * | 2019-07-17 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0081386B1 (en) | 1981-12-09 | 1985-05-29 | Teijin Limited | 5-fluoro-2'-deoxyuridine derivatives and a process for the preparation thereof |
US6215910B1 (en) * | 1996-03-28 | 2001-04-10 | Microsoft Corporation | Table-based compression with embedded coding |
DE10158658A1 (de) * | 2001-11-30 | 2003-06-12 | Bosch Gmbh Robert | Verfahren zur gerichteten Prädiktion eines Bildblockes |
US7302006B2 (en) * | 2002-04-30 | 2007-11-27 | Hewlett-Packard Development Company, L.P. | Compression of images and image sequences through adaptive partitioning |
US20040136485A1 (en) * | 2002-12-19 | 2004-07-15 | Bennett Forrest H. | Method and apparatus for quantum mechanical analysis of molecular systems |
HUP0301368A3 (en) | 2003-05-20 | 2005-09-28 | Amt Advanced Multimedia Techno | Method and equipment for compressing motion picture data |
US8107535B2 (en) | 2003-06-10 | 2012-01-31 | Rensselaer Polytechnic Institute (Rpi) | Method and apparatus for scalable motion vector coding |
US7653133B2 (en) * | 2003-06-10 | 2010-01-26 | Rensselaer Polytechnic Institute (Rpi) | Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders |
JP2007503775A (ja) | 2003-08-26 | 2007-02-22 | トムソン ライセンシング | ハイブリッド・イントラ・インター符号化ブロックを符号化する方法及び装置 |
RU2329615C2 (ru) * | 2003-12-01 | 2008-07-20 | Самсунг Электроникс Ко., Лтд. | Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления |
US7680351B2 (en) | 2004-05-21 | 2010-03-16 | Broadcom Corporation | Video deblocking method and apparatus |
KR100677118B1 (ko) * | 2004-06-11 | 2007-02-02 | 삼성전자주식회사 | 움직임 추정 방법 및 그 장치 |
JP2006005438A (ja) | 2004-06-15 | 2006-01-05 | Sony Corp | 画像処理装置およびその方法 |
EP1613091B1 (en) * | 2004-07-02 | 2009-08-26 | Mitsubishi Electric Information Technology Centre Europe B.V. | Intra-frame prediction for high-pass temporal-filtered frames in wavelet video coding |
CN100542289C (zh) * | 2004-07-13 | 2009-09-16 | 杜比实验室特许公司 | 视频压缩的无偏舍入 |
CN1306824C (zh) * | 2004-07-29 | 2007-03-21 | 联合信源数字音视频技术(北京)有限公司 | 图像边界像素扩展系统及其实现方法 |
KR20060043051A (ko) | 2004-09-23 | 2006-05-15 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
KR100657919B1 (ko) * | 2004-12-13 | 2006-12-14 | 삼성전자주식회사 | 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법 |
US7751478B2 (en) | 2005-01-21 | 2010-07-06 | Seiko Epson Corporation | Prediction intra-mode selection in an encoder |
EP1871117B1 (en) | 2005-04-01 | 2011-03-09 | Panasonic Corporation | Image decoding apparatus and image decoding method |
US7894522B2 (en) * | 2005-09-16 | 2011-02-22 | Sony Corporation | Classified filtering for temporal prediction |
EP3229472B1 (en) * | 2005-09-26 | 2020-07-01 | Mitsubishi Electric Corporation | Moving image coding apparatus |
KR100750145B1 (ko) | 2005-12-12 | 2007-08-21 | 삼성전자주식회사 | 영상의 인트라 예측 부호화, 복호화 방법 및 장치 |
CN101001383A (zh) * | 2006-01-12 | 2007-07-18 | 三星电子株式会社 | 基于多层的视频编码/解码方法和编码器/解码器 |
KR100772873B1 (ko) * | 2006-01-12 | 2007-11-02 | 삼성전자주식회사 | 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더 |
EP1983758A4 (en) * | 2006-02-06 | 2009-04-01 | Panasonic Corp | IMAGE DECODING DEVICE AND IMAGE DECODING METHOD |
KR100745765B1 (ko) | 2006-04-13 | 2007-08-02 | 삼성전자주식회사 | 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법 |
CN101083769B (zh) * | 2006-06-02 | 2011-05-25 | 三星电子株式会社 | 处理n比特视频数据的编/解码器和编/解码方法 |
BRPI0714859A2 (pt) | 2006-08-02 | 2013-05-21 | Thomson Licensing | mÉtodo e aparelho para particionamento geomÉtrico adaptativo para codificaÇço de vÍdeo e estrutura de sinal de vÍdeo para codificaÇço de vÍdeo |
US8942505B2 (en) * | 2007-01-09 | 2015-01-27 | Telefonaktiebolaget L M Ericsson (Publ) | Adaptive filter representation |
US8576906B2 (en) * | 2008-01-08 | 2013-11-05 | Telefonaktiebolaget L M Ericsson (Publ) | Adaptive filtering |
EP2232877B1 (en) | 2008-01-10 | 2018-08-08 | Thomson Licensing DTV | Methods and apparatus for illumination compensation of intra-predicted video |
EP2081386A1 (en) * | 2008-01-18 | 2009-07-22 | Panasonic Corporation | High precision edge prediction for intracoding |
JP5597968B2 (ja) * | 2009-07-01 | 2014-10-01 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US8879632B2 (en) * | 2010-02-18 | 2014-11-04 | Qualcomm Incorporated | Fixed point implementation for geometric motion partitioning |
KR20110113561A (ko) * | 2010-04-09 | 2011-10-17 | 한국전자통신연구원 | 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치 |
-
2009
- 2009-08-17 KR KR20090075855A patent/KR101510108B1/ko active IP Right Grant
-
2010
- 2010-08-17 CN CN201310088381.9A patent/CN103220522B/zh active Active
- 2010-08-17 CN CN201510193955.8A patent/CN104811700B/zh active Active
- 2010-08-17 CN CN201510192248.7A patent/CN104967845B/zh active Active
- 2010-08-17 CA CA3019998A patent/CA3019998C/en active Active
- 2010-08-17 PL PL18199130T patent/PL3448030T3/pl unknown
- 2010-08-17 MX MX2011013035A patent/MX2011013035A/es active IP Right Grant
- 2010-08-17 BR BR122015021745-8A patent/BR122015021745B1/pt active IP Right Grant
- 2010-08-17 BR BR122015021747-4A patent/BR122015021747B1/pt active IP Right Grant
- 2010-08-17 RU RU2012105532/08A patent/RU2517193C2/ru active
- 2010-08-17 MY MYPI2014001381A patent/MY172871A/en unknown
- 2010-08-17 HU HUE15163275A patent/HUE036414T2/hu unknown
- 2010-08-17 NO NO15163275A patent/NO2911396T3/no unknown
- 2010-08-17 CA CA2768694A patent/CA2768694C/en active Active
- 2010-08-17 EP EP20130185302 patent/EP2677746A3/en not_active Ceased
- 2010-08-17 WO PCT/KR2010/005437 patent/WO2011021839A2/en active Application Filing
- 2010-08-17 HU HUE15163276A patent/HUE036631T2/hu unknown
- 2010-08-17 MY MYPI2015000869A patent/MY178504A/en unknown
- 2010-08-17 EP EP18199130.8A patent/EP3448030B1/en active Active
- 2010-08-17 DK DK15163275.9T patent/DK2911396T3/en active
- 2010-08-17 CN CN201510193969.XA patent/CN104811710B/zh active Active
- 2010-08-17 PL PL15163276T patent/PL2911402T3/pl unknown
- 2010-08-17 LT LTEP15163276.7T patent/LT2911402T/lt unknown
- 2010-08-17 CA CA2888489A patent/CA2888489C/en active Active
- 2010-08-17 CA CA2888490A patent/CA2888490C/en active Active
- 2010-08-17 LT LTEP15163275.9T patent/LT2911396T/lt unknown
- 2010-08-17 EP EP15163276.7A patent/EP2911402B1/en active Active
- 2010-08-17 PT PT151632759T patent/PT2911396T/pt unknown
- 2010-08-17 ES ES15163276.7T patent/ES2649981T3/es active Active
- 2010-08-17 SI SI201031591T patent/SI2911396T1/en unknown
- 2010-08-17 EP EP10810147.8A patent/EP2454883A4/en not_active Ceased
- 2010-08-17 RU RU2013114272/08A patent/RU2517293C1/ru active
- 2010-08-17 JP JP2012525480A patent/JP5650742B2/ja active Active
- 2010-08-17 MY MYPI2014001541A patent/MY172727A/en unknown
- 2010-08-17 ES ES18199130T patent/ES2780126T3/es active Active
- 2010-08-17 ES ES15163275.9T patent/ES2649978T3/es active Active
- 2010-08-17 BR BR112012001687-3A patent/BR112012001687B1/pt active IP Right Grant
- 2010-08-17 PT PT151632767T patent/PT2911402T/pt unknown
- 2010-08-17 PL PL15163275T patent/PL2911396T3/pl unknown
- 2010-08-17 EP EP15163275.9A patent/EP2911396B1/en active Active
- 2010-08-17 NO NO15163276A patent/NO2911402T3/no unknown
- 2010-08-17 MX MX2014015671A patent/MX337921B/es unknown
- 2010-08-17 EP EP17150679.3A patent/EP3174292B1/en not_active Withdrawn - After Issue
- 2010-08-17 CN CN201510193915.3A patent/CN104811709B/zh active Active
- 2010-08-17 BR BR122013019723-0A patent/BR122013019723B1/pt active IP Right Grant
- 2010-08-17 DK DK15163276.7T patent/DK2911402T3/en active
- 2010-08-17 CA CA2888495A patent/CA2888495C/en active Active
- 2010-08-17 CN CN201080036788.1A patent/CN102484719B/zh active Active
- 2010-08-17 DK DK18199130.8T patent/DK3448030T3/da active
- 2010-08-17 US US12/857,798 patent/US8605784B2/en active Active
- 2010-08-17 EP EP15163267.6A patent/EP2911395A1/en not_active Ceased
- 2010-08-17 MY MYPI2014001539A patent/MY171306A/en unknown
- 2010-08-17 BR BR122015021744-0A patent/BR122015021744B1/pt active IP Right Grant
- 2010-08-17 HU HUE18199130A patent/HUE051705T2/hu unknown
- 2010-08-17 CA CA 2823885 patent/CA2823885C/en active Active
- 2010-08-17 AU AU2010285492A patent/AU2010285492B2/en active Active
- 2010-08-17 MY MYPI2012000404A patent/MY158769A/en unknown
- 2010-08-17 SI SI201031590T patent/SI2911402T1/en unknown
-
2012
- 2012-02-13 US US13/371,975 patent/US8665950B2/en active Active
- 2012-02-16 ZA ZA2012/01153A patent/ZA201201153B/en unknown
-
2013
- 2013-05-01 US US13/874,876 patent/US8989266B2/en active Active
- 2013-07-03 ZA ZA2013/04970A patent/ZA201304970B/en unknown
- 2013-08-12 US US13/964,881 patent/US8787458B2/en active Active
- 2013-08-14 JP JP2013168575A patent/JP5620554B2/ja active Active
-
2014
- 2014-01-06 JP JP2014000586A patent/JP5856190B2/ja active Active
- 2014-01-14 RU RU2014101050/08A patent/RU2546619C1/ru active
- 2014-05-27 US US14/287,279 patent/US9036703B2/en active Active
- 2014-06-02 RU RU2014122343/08A patent/RU2602383C2/ru active
- 2014-07-16 ZA ZA2014/05219A patent/ZA201405219B/en unknown
- 2014-07-16 ZA ZA2014/05220A patent/ZA201405220B/en unknown
- 2014-11-07 US US14/536,082 patent/US9071839B2/en active Active
-
2015
- 2015-01-05 US US14/589,511 patent/US9049458B2/en active Active
- 2015-01-21 RU RU2015101791/08A patent/RU2595602C1/ru active
- 2015-01-21 RU RU2015101795/08A patent/RU2595604C1/ru active
- 2015-04-20 JP JP2015086219A patent/JP5937252B2/ja active Active
- 2015-04-20 JP JP2015086220A patent/JP5937253B2/ja active Active
- 2015-05-14 ZA ZA2015/03354A patent/ZA201503354B/en unknown
- 2015-05-14 ZA ZA2015/03353A patent/ZA201503353B/en unknown
- 2015-05-18 US US14/714,880 patent/US9374591B2/en active Active
- 2015-07-20 RU RU2015129684A patent/RU2615323C2/ru active
-
2017
- 2017-11-23 HR HRP20171827TT patent/HRP20171827T1/hr unknown
- 2017-11-23 HR HRP20171828TT patent/HRP20171828T1/hr unknown
-
2018
- 2018-01-15 CY CY20181100044T patent/CY1119795T1/el unknown
- 2018-01-19 CY CY20181100070T patent/CY1119802T1/el unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2649981T3 (es) | Aparato de decodificación de vídeo | |
ES2687479T3 (es) | Procedimiento de codificación de bloque residual | |
ES2592557T3 (es) | Procedimiento y aparato de codificación de vídeo, y procedimiento y aparato de descodificación de vídeo | |
ES2533333T3 (es) | Aparato de decodificación de imagen | |
ES2811038T3 (es) | Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división | |
ES2691979T3 (es) | Aparato para decodificar imágenes | |
ES2644039T3 (es) | Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen | |
ES2728112T3 (es) | Procedimiento y aparato de codificación de video con intra predicción | |
ES2644043T3 (es) | Procedimiento y aparato de codificación y decodificación de imágenes usando unidades de transformada grandes | |
ES2653160T3 (es) | Procedimiento para decodificar por entropía coeficientes de transformación | |
ES2782101T3 (es) | Aparato de decodificación de una imagen, procedimiento de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo | |
ES2765807T3 (es) | Codificación modificada para un bloque omitido de transformación para CABAC en HEVC | |
ES2668472T3 (es) | Aparato de decodificación de una imagen usando unidades de transformación grandes | |
ES2598106T3 (es) | Procedimiento y aparato para codificar vídeo mediante predicción de movimiento usando partición arbitraria, y procedimiento y aparato para decodificar vídeo mediante predicción de movimiento usando partición arbitraria | |
ES2711671T3 (es) | Procedimiento de decodificación de vídeo usando decodificación | |
RU2014108441A (ru) | Способ и устройство для кодирования видео с учетом порядка сканирования блоков кодирования, имеющих иерархическую структуру, и способ и устройство для декодирования видео с учетом порядка сканирования блоков кодирования, имеющих иерархическую структуру | |
ES2737843A2 (es) | Metodo y aparato para procesar una senal de video | |
RU2013119397A (ru) | Способ и устройство для кодирования и декодирования блока кодирования границы картинки | |
ES2728529T3 (es) | Mapas de significancia multinivel para codificación y decodificación | |
ES2919660T3 (es) | Aparato de codificación/decodificación por entropía CABAC de baja complejidad |