ES2640629T3 - Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen - Google Patents

Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen Download PDF

Info

Publication number
ES2640629T3
ES2640629T3 ES15160769.4T ES15160769T ES2640629T3 ES 2640629 T3 ES2640629 T3 ES 2640629T3 ES 15160769 T ES15160769 T ES 15160769T ES 2640629 T3 ES2640629 T3 ES 2640629T3
Authority
ES
Spain
Prior art keywords
intra prediction
coding unit
unit
mode
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15160769.4T
Other languages
English (en)
Inventor
Jung-Hye Min
Elena Alshina
Woo-Jin Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2640629T3 publication Critical patent/ES2640629T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

Un procedimiento de decodificación de una imagen, comprendiendo el procedimiento: obtener una primera información que indica un modo de intra predicción de un bloque de luminancia a partir de un flujo de bits; obtener una segunda información que indica un modo de intra predicción de un bloque de crominancia correspondiente al bloque de luminancia a partir del flujo de bits; cuando la segunda información indica que el modo de intra predicción del bloque de crominancia es igual al modo de intra predicción del bloque de luminancia, determinar el modo de intra predicción del bloque de crominancia para ser igual al modo de intra predicción del bloque de luminancia; realizar una intra predicción en el bloque de luminancia en base al modo de intra predicción del bloque de luminancia; y realizar una intra predicción en el bloque de crominancia en base al modo de intra predicción del bloque de crominancia, en el que el modo de intra predicción del bloque de luminancia incluye una dirección particular entre una pluralidad de direcciones y la dirección particular se indica por uno de número dx en una dirección horizontal y un valor fijo en una dirección vertical y número dy en la dirección vertical y un valor fijo en la dirección horizontal, donde el número dx y el número dy son números enteros de acuerdo con el modo de intra predicción del bloque de luminancia, en el que la realización de una intra predicción en el bloque de luminancia comprende: determinar un número de píxeles vecinos que se obtendrán de acuerdo con una posición de un píxel actual y la dirección particular indicada por el modo de intra predicción del bloque de luminancia, estando situados los píxeles vecinos en un lado izquierdo del bloque de luminancia o un lado superior del bloque de luminancia; cuando el número de los píxeles vecinos es 1, el intérprete de intra predicción obtiene un valor de predicción del píxel actual basado en el píxel vecino determinando el valor de predicción del píxel actual como un valor de píxel del píxel vecino; y cuando el número de los píxeles vecinos es 2, se obtiene el valor de predicción del píxel actual en base a un promedio ponderado de los píxeles vecinos, obteniéndose el promedio ponderado multiplicando ponderaciones a cada uno de dos píxeles vecinos y promediando el valor multiplicado, determinándose las ponderaciones en base a la dirección particular, y a la ubicación de los dos píxeles vecinos, en el que, cuando la segunda información indica que el modo de intra predicción del bloque de crominancia es igual al modo de intra predicción del bloque de luminancia, se determina que el modo de intra predicción del bloque de crominancia es igual al modo de intra predicción del bloque de luminancia, en el que la imagen se divide en una pluralidad de unidades de codificación máxima de acuerdo con información sobre el tamaño máximo de una unidad de codificación, una unidad de codificación máxima se divide en una pluralidad de unidades de codificación usando una información de división y una información de profundidad que indica el número de veces que la unidad de codificación se divide espacialmente de la unidad de codificación máxima, una unidad de codificación máxima de componente de luminancia y una unidad de codificación máxima de componente de crominancia entre la pluralidad de unidades de codificación máximas se dividen jerárquicamente en una o más unidades de codificación de componentes de luminancia de profundidad y una o más unidades de codificación de componentes de crominancia de profundidad que incluyen al menos uno de profundidad actual y una profundidad inferior, respectivamente de acuerdo con la información de división, cuando la información dividida indica una división para la profundidad actual, una unidad de codificación de la profundidad actual se divide en cuatro unidades de codificación de la profundidad inferior, independientemente de las unidades de codificación vecinas, cuando la información de división indica una no división para la profundidad actual, se obtienen una o más unidades de predicción a partir de la unidad de codificación de la profundidad actual, y en el que el bloque de luminancia es una unidad de predicción obtenida a partir de la unidad de codificación de la profundidad actual, en el que el número dx y el número dy son uno del valor seleccionado entre {32, 26, 21, 17, 13, 9, 5, 2, 0, -2, -5, -9, - 13, -17, -21, -26} de acuerdo con el modo de intra predicción del bloque de luminancia, y el valor fijo es potencia de 2.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Modo de intra prediccion determinante de unidad de codificacion de imagen y unidad de decodificacion de imagen rCampo de la Invencion]
Las realizaciones ejemplares se refieren a metodos para la decodificacion de una imagen. rAntecedentes de la Invencionl
En un procedimiento de compresion de imagenes, tal como Grupo de Expertos en Imagenes Moviles (MPEG-1), MPEG-2, MPEG-4, o Codificacion Avanzada de Video (AVC) H.264/MPEG-4, un cuadro se divide en macrobloques para codificar una imagen. Cada uno de los macrobloques se codifica en todos los modos de codificacion que se pueden usar en inter prediccion o intra prediccion, y luego se codifica en un modo de codificacion que se selecciona de acuerdo con una tasa de bits usada para codificar el macrobloque y un grado de distorsion de un macrobloque decodificado con base en el macrobloque original.
Mientras un hardware para reproducir y almacenar contenido de video de alta resolucion o alta calidad esta siendo desarrollado y suministrado, existe una necesidad incrementada de un codec de video capaz de codificar o decodificar efectivamente el contenido de video de alta resolucion o alta calidad. En un codec de video convencional, un video se codifica en unidades de macrobloques cada uno teniendo un tamano predeterminado.
El documento W02006/112653 describe un procedimiento de codificacion de imagenes en movimiento que incluye seleccionar un espacio de color entre una pluralidad de espacios de color, seleccionar un modo de prediccion que se aplica comunmente a todos los componentes de color que constituyen el espacio de color seleccionado, generar primeros datos residuales correspondientes a diferencias entre una imagen actual y una imagen predicha para cada uno de los componentes de color de acuerdo con el modo de prediccion seleccionado, generar segundos datos residuales correspondientes a diferencias entre los primeros datos residuales, y codificar los segundos datos residuales.
SANG HEON LEE ET AL: “'Intra prediction method based on the linear relationship between the channels for YUV 4:2:0 intra coding”, IMAGE PROCESSING (ICIP), 2009 16™ IEEE INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, EE.UU., 7 de noviembre de 2009, paginas 1037-1040 describe la prediccion de una senal de crominancia de una senal de luminancia reconstruida utilizando correlacion lineal entre la senal de crominancia y la senal de luminancia.
KIM J ET AL: “Fast intra-mode decision in H.264 video coding using simple directional masks”, VISUAL COMMUNICATIONS AND IMAGE PROCESSING; 12-7-2005 - 15-7-2005; BEIJING describe modos de intra prediccion usados en H.264/AVC.
[Divulgacion]
[Problema tecnico]
En un codec de video convencional, un video se codifica en unidades de macrobloques cada uno tiene un tamano predeterminado. Ademas, en un codec de video convencional, se limita la directividad del modo intra.
rSolucion tecnica]
Las realizaciones ejemplares incluyen un procedimiento de decodificacion de una imagen de acuerdo con la reivindicacion 1 adjunta. Tambien se describen procedimiento relacionados de determinar un modo de intra prediccion de una unidad de codificacion de componentes de luminancia que tiene varias unidades de codificacion jerarquicas basadas en direccionalidad que tiene varios tamanos, aparatos para codificar y decodificar una imagen y procedimientos de codificacion, en el que la intra prediccion se realiza sobre una unidad de codificacion de componentes de crominancia de acuerdo con modos de intra prediccion candidatos que incluyen un modo de intra prediccion determinado para una unidad de codificacion de componentes de luminancia.
[Efectos ventaiososl
De acuerdo con las realizaciones ejemplares, agregando el modo de intra prediccion de la unidad de codificacion de componente de luminancia que tiene diversa direccionalidad como el modo de intra prediccion de la unidad de codificacion de componente de crominancia, la eficiencia de prediccion de una imagen de un componente de crominancia, y la eficiencia de prediccion de una imagen completa se pueden incrementar sin tener que incrementar un rendimiento.
[Descripcion de los dibuios]
La figura 1 es un diagrama de bloques de un aparato para codificar un video;
La figura 2 es un diagrama de bloques de un aparato para decodificar un video;
5
10
15
20
25
30
35
40
45
50
55
La figura 3 es un diagrama para describir un concepto de unidades de codificacion;
La figura 4 es un diagrama de bloques de un codificador de imagen basado en unidades de codificacion;
La figura 5 es un diagrama de bloques de un decodificador de imagen basado en unidades de codificacion;
La figura 6 es un diagrama que ilustra unidades de codificacion mas profundas de acuerdo con las profundidades y
unidades de prediccion;
La figura 7 es un diagrama para describir una relacion entre una unidad de codificacion y una unidad de transformada;
La figura 8 es un diagrama para describir informacion de codificacion de unidades de codificacion correspondientes a una profundidad codificada;
La figura 9 es un diagrama de unidades de codificacion mas profundas de acuerdo con las profundidades;
Las figuras 10a y 10b son diagramas para describir una relacion entre unidades de codificacion, unidades de prediccion, y unidades de transformada;
La figura 11 es una tabla que muestra la informacion de codificacion de acuerdo con unidades de codificacion;
Las figuras 12a a 12c son diagramas de formatos de una imagen de componente de luminancia y una imagen de componente de crominancia;
La figura 13 es una tabla que muestra un numero de modos de intra prediccion de acuerdo con los tamanos de unidades de codificacion de componente de luminancia;
Las figuras 14a a 14c son diagramas para explicar los modos de intra prediccion aplicados a una unidad de codificacion de componente de luminancia que tiene un tamano predeterminado;
La figura 15 es un diagrama para explicar los modos de intra prediccion aplicados a una unidad de codificacion de componente de luminancia que tiene un tamano predeterminado;
La figura 16 es un diagrama de referencia para explicar los modos de intra prediccion de una unidad de codificacion de componente de luminancia que tiene varias direccionalidades;
La figura 17 es un diagrama de referencia para explicar un modo bilineal;
La figura 18 es un diagrama para explicar un procedimiento para generar un valor de prediccion de un modo de intra prediccion de una unidad de codificacion de componente de luminancia actual;
La figura 19 es un diagrama de referencia para explicar un procedimiento de mapeo de los modos de intra prediccion entre unidades de codificacion de componente de luminancia que tienen diferentes tamanos;
La figura 20 es un diagrama de referencia para explicar un procedimiento para mapear un modo de intra prediccion de una unidad de codificacion de componente de luminancia colindante a uno de los modos de intra prediccion representativos;
La figura 21 es un diagrama para explicar los modos de intra prediccion candidatos aplicados a una unidad de codificacion de componente de crominancia;
La figura 22 es un diagrama de bloques de un aparato intra prediccion;
La figura 23 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra prediccion de una unidad de codificacion; y
La figura 24 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra prediccion de una unidad de decodificacion, de acuerdo con una realizacion ejemplar;
La figura 25 es un diagrama para explicar una relacion entre un pixel actual y pixeles colindantes ubicados en una lmea extendida que tiene una directividad de (dx, dy);
La figura 26 es un diagrama para explicar un cambio en un pixel colindante ubicado en una lmea extendida que tiene una directividad de (dx, dy) de acuerdo con una ubicacion de un pixel actual; y
Las figuras 27 y 28 son diagramas para explicar un procedimiento para determinar una direccion de modo de intra prediccion, de acuerdo con las realizaciones ejemplares.
[Mejor modo]
De acuerdo con un aspecto de una realizacion ejemplar, se proporciona un procedimiento de decodificacion de una imagen de acuerdo con la reivindicacion 1.
[Modo de la invencion]
A continuacion, las realizaciones ejemplares se describiran mas completamente con referencia a las figuras adjuntas.
A continuacion, una “unidad de codificacion” se refiere a una unidad de datos de codificacion en la cual los datos de imagen se codifican en un lado de codificador, y una unidad de datos codificados en la cual los datos de imagen codificados se decodifican en un lado de decodificador. Ademas, una profundidad codificada se refiere a una profundidad en la cual una unidad de codificacion se codifica.
La figura 1 es un diagrama de bloques de un aparato de codificacion de video 100.
El aparato de codificacion de video 100 incluye un divisor de unidad de codificacion maxima 110, un determinador de unidad de codificacion 120, una unidad de salida de datos de imagen 130, y una unidad de salida de informacion de codificacion 140.
El divisor de unidad de codificacion maxima 110 puede dividir un cuadro actual basado en una unidad de
5
10
15
20
25
30
35
40
45
50
55
60
codificacion maxima para el cuadro actual de una imagen. Si el cuadro actual es mas grande que la unidad de codificacion maxima, los datos de imagen del cuadro actual se pueden dividir en al menos una unidad de codificacion maxima. La unidad de codificacion maxima util con una realizacion ejemplar puede ser una unidad de datos que tiene un tamano de 32 x 32, 64 x 64, 128 x 128, 256 x 256, etc., en el que una forma de la unidad de datos es un cuadrado que tiene una anchura y longitud de cuadrados de 2. Los datos de imagen se pueden enviar al determinador de unidad de codificacion 120 de acuerdo con al menos una unidad de codificacion maxima.
Una unidad de codificacion util con una realizacion ejemplar se puede caracterizar por un tamano y una profundidad maxima. La profundidad denota un numero de veces que la unidad de codificacion se divide espacialmente de la unidad de codificacion maxima, y cuando la profundidad se profundiza, las unidades de codificacion mas profundas de acuerdo con las profundidades se pueden dividir de la unidad de codificacion maxima a una unidad de codificacion minima. Una profundidad de la unidad de codificacion maxima es una profundidad mas superior y una profundidad de la unidad de codificacion minima es una profundidad mas inferior. Puesto que un tamano de una unidad de codificacion correspondiente a cada profundidad disminuye cuando la profundidad de la unidad de codificacion maxima se profundiza, una unidad de codificacion correspondiente a una profundidad superior puede incluir una pluralidad de unidades de codificacion correspondientes a profundidades inferiores.
Como se describio anteriormente, los datos de imagen del cuadro actual se dividen en las unidades de codificacion maxima de acuerdo con un tamano maximo de la unidad de codificacion, y cada una de las unidades de codificacion maximas puede incluir unidades de codificacion mas profundas que se dividen de acuerdo con las profundidades. Puesto que la unidad de codificacion maxima util con una realizacion ejemplar se divide de acuerdo con las profundidades, los datos de imagen de un campo espacial incluido en la unidad de codificacion maxima se pueden clasificar jerarquicamente de acuerdo con las profundidades.
Se puede determinar una profundidad maxima y un tamano maximo de una unidad de codificacion, que limitan el numero total de veces en que una altura y una anchura de la unidad de codificacion maxima se dividen jerarquicamente. Tal unidad de codificacion maxima y profundidad maxima se pueden establecer en un cuadro o una unidad segmentada. En otras palabras, diferentes unidades de codificacion maximas y diferentes profundidades maximas se pueden establecer para cada cuadro o segmento, y un tamano de una unidad de codificacion minima incluida en la unidad de codificacion maxima se puede establecer de acuerdo con la profundidad maxima. Como tal, estableciendo la unidad de codificacion maxima y la profundidad maxima de acuerdo con los cuadros o segmentos, la eficiencia de codificacion se puede mejorar codificando una imagen de una region plana usando la unidad de codificacion maxima, y la eficiencia de compresion de una imagen se puede mejorar codificando una imagen que tiene alta complejidad usando una unidad de codificacion que tiene un tamano menor que la unidad de codificacion maxima.
El determinador de unidad de codificacion 120 determina diferentes profundidades maximas de acuerdo con unidades de codificacion maximas. La profundidad maxima se puede determinar basada en un calculo de costo de tasa de distorsion (R-D). La profundidad maxima determinada se envfa a la unidad de salida de informacion de codificacion 140, y los datos de imagen de acuerdo con las unidades de codificacion maximas se envfan a la unidad de salida de datos de imagen 130.
Los datos de imagen en la unidad de codificacion maxima se codifican basado en las unidades de codificacion mas profundas correspondientes a al menos una profundidad igual a o por debajo de la profundidad maxima, y los resultados de la codificacion de los datos de imagen se comparan basado en cada una de las unidades de codificacion mas profundas. Una profundidad que tiene el mmimo error de codificacion se puede seleccionar despues de comparar los errores de codificacion de las unidades de codificacion mas profundas. Al menos una profundidad codificada se puede seleccionar para cada unidad de codificacion maxima.
El tamano de la unidad de codificacion maxima se divide cuando una unidad de codificacion se divide jerarquicamente de acuerdo con las profundidades, y cuando el numero de unidades de codificacion incrementa. Ademas, aun si las unidades de codificacion corresponden a una misma profundidad en una unidad de codificacion maxima, se determina si se divide cada una de las unidades de codificacion correspondientes a la misma profundidad a una profundidad inferior midiendo un error de codificacion de los datos de imagen de cada unidad de codificacion, separadamente. Por consiguiente, aun cuando los datos de imagen se incluyen en una unidad de codificacion maxima, los datos de imagen se dividen en regiones de acuerdo con las profundidades y los errores de codificacion pueden diferir de acuerdo con las regiones en la unidad de codificacion maxima, y por consiguiente las profundidades codificadas pueden diferir de acuerdo con las regiones en los datos de imagen. En otras palabras, la unidad de codificacion maxima se puede dividir en unidades de codificacion que tienen diferentes tamanos de acuerdo con diferentes profundidades. Por consiguiente, una o mas profundidades codificadas se pueden determinar en una unidad de codificacion maxima, y los datos de imagen de la unidad de codificacion maxima se pueden dividir de acuerdo con las unidades de codificacion de al menos una profundidad codificada.
Ademas, las unidades de codificacion que tienen diferentes tamanos en la unidad de codificacion maxima se pueden predecir o transformar con base en las unidades de datos que tienen diferentes tamanos. En otras palabras, el aparato de codificacion de video 100 puede realizar una pluralidad de operaciones para codificar una imagen con base en las unidades de datos que tienen diversos tamanos y formas. Para codificar datos de imagen, se realizan
5
10
15
20
25
30
35
40
45
50
55
operacion tales como prediccion, transformacion, codificacion de entrcpa, etc., y en este momento, la misma unidad de datos se puede usar para todas las operaciones o diferentes unidades de datos se pueden usar para cada operacion.
Por ejemplo, el aparato de codificacion de video 100 puede seleccionar una unidad de datos que es diferente de la unidad de codificacion, para predecir la unidad de codificacion. Por ejemplo, cuando una unidad de codificacion tiene un tamano de 2N x 2N (donde N es un entero positivo), una unidad de datos para prediccion puede tener un tamano de 2N x 2N, 2N x N, N x 2N, o N x N. En otras palabras, la prediccion de movimiento se puede realizar con base en una unidad de datos obtenida dividiendo al menos una de una altura y una anchura de la unidad de codificacion. Despues, la unidad de datos que es una unidad base de prediccion sera referida como una unidad de prediccion.
Un modo de prediccion puede ser al menos uno de un modo intra, un modo inter, y un modo de omision, en el que un cierto modo de prediccion solamente se realiza en una unidad de prediccion que tiene un cierto tamano o forma. Por ejemplo, un modo intra se puede realizar solamente en una unidad de prediccion al cuadrado que tiene un tamano de 2N x 2N o N x N. Ademas, un modo de omision tambien se puede realizar solamente en una unidad de prediccion que tiene un tamano de 2N x 2N. Si una pluralidad de unidades de prediccion se incluye en la unidad de codificacion, la prediccion se puede realizar en cada unidad de prediccion para seleccionar un modo de prediccion que tiene un error mmimo.
Alternativamente, el aparato de codificacion de video 100 puede transformar los datos de imagen con base en una unidad de datos que es diferente de la unidad de codificacion. Para transformar la unidad de codificacion, la transformacion se puede realizar con base en una unidad de datos que tiene un tamano menor que o igual a la unidad de codificacion. Una unidad de datos usada como una base de la transformacion sera referida como una unidad de transformada.
El determinador de unidad de codificacion 120 puede medir un error de codificacion de unidades de codificacion mas profundas de acuerdo con las profundidades usando Optimizacion de Tasa de Distorsion con base en multiplicadores de Lagrangian, para determinar una forma de division de la unidad de codificacion maxima que tiene un error de codificacion optimo. En otras palabras, el determinador de unidad de codificacion 120 puede determinar formas de las unidades de codificacion a ser divididas de la unidad de codificacion maxima, en el que los tamanos de las unidades de codificacion son diferentes de acuerdo con las profundidades.
La unidad de salida de datos de imagen 130 envfa los datos de imagen de la unidad de codificacion maxima, los cuales se codifican con base en al menos una profundidad codificada determinada por el determinador de unidad de codificacion 120, en corrientes de bits. Puesto que la codificacion ya se realiza por el determinador de profundidad de codificacion 120 para medir el error de codificacion mmimo, una corriente de datos codificados se puede producir usando el error de codificacion mmimo.
La unidad de salida de informacion de codificacion 140 puede producir informacion acerca del modo de codificacion de acuerdo con la profundidad codificada, que se codifica con base en al menos una profundidad codificada determinada por el determinador de unidad de codificacion 120, en corrientes de bits. La informacion acerca del modo de codificacion de acuerdo con la profundidad codificada puede incluir informacion que indica la profundidad codificada, informacion que indica el tipo de division en la unidad de prediccion, informacion que indica el modo de prediccion, e informacion que indica el tamano de la unidad de transformada.
La informacion acerca de la profundidad codificada se puede definir usando informacion de division de acuerdo con las profundidades, la cual indica si la codificacion se realiza en unidades de codificacion de una profundidad inferior en lugar de una profundidad actual. Si la profundidad actual de la unidad de codificacion actual es la profundidad codificada, los datos de imagen en la unidad de codificacion actual se codifican y producen, y por consiguiente la informacion de division se puede definir no para dividir la unidad de codificacion actual a una profundidad inferior. Alternativamente, si la profundidad actual de la unidad de codificacion actual no es la profundidad codificada, la codificacion se realiza en la unidad de codificacion de la profundidad inferior, y por consiguiente la informacion de division se puede definir para dividir la unidad de codificacion actual para obtener las unidades de codificacion de la profundidad inferior.
Si la profundidad actual no es la profundidad codificada, la codificacion se realiza en la unidad de codificacion que se divide en la unidad de codificacion de la profundidad inferior. Puesto que al menos una unidad de codificacion de la profundidad inferior existe en una unidad de codificacion de la profundidad actual, la codificacion se realiza repetidamente en cada unidad de codificacion de la profundidad inferior y, por consiguiente, la codificacion se puede realizar recurrentemente para las unidades de codificacion que tienen la misma profundidad.
Puesto que las unidades de codificacion que tienen una estructura de arbol se determinan para una unidad de codificacion maxima, y la informacion acerca de al menos un modo de codificacion se determina para una unidad de codificacion de una profundidad codificada, la informacion acerca de al menos un modo de codificacion se puede determinar para una unidad de codificacion maxima. Ademas, una profundidad codificada de los datos de imagen de la unidad de codificacion maxima puede ser diferente de acuerdo con las ubicaciones puesto que los datos de imagen se dividen jerarquicamente de acuerdo con las profundidades, y por consiguiente la informacion acerca de la
5
10
15
20
25
30
35
40
45
50
55
profundidad codificada y el modo de codificacion se pueden establecer para los datos de imagen.
Por consiguiente, la unidad de salida de informacion de codificacion 140 puede asignar informacion de codificacion correspondiente a cada unidad de codificacion minima incluida en la unidad de codificacion maxima. En otras 20 palabras, la unidad de codificacion de la profundidad codificada incluye al menos una unidad de codificacion minima que contiene la misma informacion de codificacion. Por consiguiente, si las unidades de codificacion mmimas colindantes tienen la misma informacion de codificacion, las unidades de codificacion mmimas colindantes pueden ser las unidades de codificacion mmimas incluidas en la misma unidad de codificacion maxima.
En el aparato de codificacion de video 100, la unidad de codificacion mas profunda puede ser una unidad de codificacion obtenida dividiendo una altura o anchura de una unidad de codificacion de una profundidad superior, la cual esta una capa arriba, por dos. En otras palabras, cuando el tamano de la unidad de codificacion de la profundidad actual es 2N x 2N, el tamano de la unidad de codificacion de la profundidad inferior es N x N. Ademas, la unidad de codificacion de la profundidad actual que tiene el tamano de 2N x 2N puede incluir un maximo de 4 de las unidades de codificacion de la profundidad inferior.
Por consiguiente, el aparato de codificacion de video 100 puede determinar unidades de codificacion que tienen una forma optima para cada unidad de codificacion maxima, con base en el tamano de la unidad de codificacion maxima y la profundidad maxima determinada considerando las caractensticas del cuadro actual. Ademas, puesto que la codificacion se puede realizar en cada unidad de codificacion maxima usando cualquiera de los diversos modos de prediccion y transformadas, un modo de codificacion optimo se puede determinar considerando las caractensticas de la unidad de codificacion de diversos tamanos de imagen.
Por consiguiente, si una imagen que tiene alta resolucion o una cantidad de datos grande se codifica en un macrobloque convencional, excesivamente incrementa un numero de macrobloques por cuadro. Por consiguiente, incrementa un numero de piezas de informacion comprimida generada para cada macrobloque, y por consiguiente es diffcil transmitir la informacion comprimida y la eficiencia de compresion de datos disminuye. Sin embargo, usando el aparato de codificacion de video 100, la eficiencia de compresion de imagen se puede incrementar puesto que una unidad de codificacion se ajusta mientras se consideran las caractensticas de una imagen mientras incrementa un tamano maximo de una unidad de codificacion mientras se considera un tamano de la imagen.
La figura 2 es un diagrama de bloques de un aparato de decodificacion de video 200, operable para realizar procedimientos de acuerdo con una realizacion ejemplar.
Con referencia a la figura 2, el aparato de decodificacion de video 200 incluye un receptor 210, un extractor de informacion de codificacion 220, y un decodificador de datos de imagen 230.
El receptor 210 recibe y analiza una corriente de bits recibida por el aparato de decodificacion de video 200 para obtener datos de imagen de acuerdo con las unidades de codificacion maximas, y envfa los datos de imagen al decodificador de datos de imagen 230. El receptor 210 puede extraer informacion acerca de la unidad de codificacion maxima de un segmento o cuadro actual de un encabezado acerca del segmento o cuadro actual. El aparato de decodificacion de video 200 decodifica los datos de imagen de acuerdo con las unidades de codificacion maximas.
El extractor de informacion de codificacion 220 analiza una corriente de bits recibida por el aparato de decodificacion de video 200 y extrae informacion acerca de una profundidad codificada y modo de codificacion de acuerdo con las unidades de codificacion maximas del encabezado del cuadro actual en la corriente de bits analizada. La informacion acerca de la profundidad codificada extrafda y modo de codificacion se envfan al decodificador de datos de imagen 230.
La informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con la unidad de codificacion maxima se pueden establecer para la informacion acerca de al menos una unidad de codificacion correspondiente a la profundidad codificada, y la informacion acerca de un modo de codificacion puede incluir informacion de tipo de division de una unidad de prediccion de acuerdo con las unidades de codificacion, informacion que indica un modo de prediccion, e informacion que indica un tamano de una unidad de transformada. Ademas, la informacion de division de acuerdo con las profundidades se puede extraer como la informacion acerca de la profundidad codificada.
La informacion acerca de una forma de division de la unidad de codificacion maxima puede incluir informacion acerca de las unidades de codificacion que tienen diferentes tamanos de acuerdo con las profundidades, y la informacion acerca de un modo de codificacion puede incluir informacion que indica una unidad de prediccion de acuerdo con las unidades de codificacion, informacion que indica un modo de prediccion, e informacion que indica una unidad de transformada.
El decodificador de datos de imagen 230 restaura el cuadro actual decodificando los datos de imagen en cada unidad de codificacion maxima con base en la informacion extrafda por el extractor de informacion de codificacion 220. El decodificador de datos de imagen 230 puede decodificar la unidad de codificacion incluida en la unidad de codificacion maxima con base en la informacion acerca de la forma de division de la unidad de codificacion maxima.
5
10
15
20
25
30
35
40
45
50
55
Un procedimiento de decodificacion puede incluir prediccion, incluyendo intra prediccion y compensacion de movimiento, y transformada inversa.
Alternativamente, el decodificador de datos de imagen 230 restaura el cuadro actual decodificando los datos de imagen en cada unidad de codificacion maxima con base en la informacion acerca de la profundidad codificada y modo de 25 codificacion de acuerdo con las unidades de codificacion maxima. En otras palabras, el decodificador de datos de imagen 230 puede decodificar los datos de imagen de acuerdo con las unidades de codificacion de al menos una profundidad codificada, con base en la informacion acerca de la profundidad codificada de acuerdo con las unidades de codificacion maximas. Un procedimiento de decodificacion puede incluir prediccion, incluyendo intra prediccion y compensacion de movimiento, y transformada inversa.
El decodificador de datos de imagen 230 puede realizar intra prediccion o compensacion de movimiento en una unidad de prediccion y un modo de prediccion de acuerdo con las unidades de codificacion, con base en la informacion acerca del tipo de division y el modo de prediccion de la unidad de prediccion de la unidad de codificacion de acuerdo con las profundidades codificadas, para realizar la prediccion de acuerdo con las unidades de codificacion. Ademas, el decodificador de datos de imagen 230 puede realizar transformada inversa de acuerdo con cada unidad de transformada en la unidad de codificacion, con base en la informacion acerca del tamano de la unidad de transformada de la unidad de codificacion de acuerdo con las profundidades codificadas, para realizar la transformada inversa de acuerdo con las unidades de codificacion maximas.
El decodificador de datos de imagen 230 puede determinar una profundidad codificada de una unidad de codificacion maxima actual usando informacion de division de acuerdo con la profundidad. Si la informacion de division indica que la decodificacion se realiza a la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el decodificador de datos de imagen 230 puede decodificar datos de imagen codificados de una unidad de codificacion de la profundidad actual con respecto a los datos de imagen de la unidad de codificacion maxima actual usando la informacion acerca del tipo de division de la unidad de prediccion, el modo de prediccion, y el tamano de la unidad de transformada. En otras palabras, se puede observar la informacion de codificacion asignada a la unidad de codificacion minima, y las unidades de codificacion mmimas que incluyen la informacion de codificacion que tiene la misma informacion de division se pueden reunir para ser decodificadas en una unidad de datos.
El aparato de decodificacion de video 200 puede obtener informacion acerca de al menos una unidad de codificacion que genera el error de codificacion mmimo 20 cuando la codificacion se realiza recurrentemente para cada unidad de codificacion maxima, y puede usar la informacion para decodificar el cuadro actual. En otras palabras, los datos de imagen se pueden decodificar en la unidad de codificacion optima en cada unidad de codificacion maxima. Por consiguiente, aun si los datos de imagen tienen alta resolucion y una cantidad grande de datos, los datos de imagen se pueden decodificar y restaurar eficientemente usando un tamano de una unidad de codificacion y un modo de codificacion, los cuales se determina de manera adaptiva de acuerdo con las caractensticas de los datos de imagen, usando informacion acerca de un modo de codificacion optimo recibido de un codificador.
La figura 3 es un diagrama para describir un concepto de unidades de codificacion utiles con una realizacion ejemplar.
Con referencia a la figura 3, un tamano de una unidad de codificacion se puede expresar en anchura x altura, y
puede ser 64 x 64, 32 x 32, 16x 16, 8x8 y 4x4. Aparte de la unidad de codificacion que tiene una forma cuadrada,
la unidad de codificacion puede tener un tamano de 64 x 32, 32 x 64, 32 x 16, 16 x 32, 16x8, 8x 16, 8x4, o 4 x 8.
En los datos de video 310, una resolucion es 1920 x 1080, un tamano maximo de una unidad de codificacion es 64, y una profundidad maxima es 2. En los datos de video 320, una resolucion es 1920 x 1080, un tamano maximo de una unidad de codificacion es 64, y una profundidad maxima es 4. En los datos de video 330, una resolucion es 352 x 288, un tamano maximo de una unidad de codificacion es 16, y una profundidad maxima es 2.
Si una resolucion es alta o una cantidad de datos es grande, un tamano maximo de una unidad de codificacion puede ser grande no solo para incrementar la eficiencia de codificacion sino tambien para reflejar exactamente las caractensticas de una imagen. Por consiguiente, el tamano maximo de la unidad de codificacion de los datos de video 310 y 320 que tiene una resolucion mayor que los datos de video 330 puede ser 64.
La profundidad maxima indica un numero total de divisiones de una unidad de codificacion maxima a una unidad de
decodificacion minima. Por consiguiente, puesto que la profundidad maxima de los datos de video 310 es 2, las
unidades de codificacion 315 de los datos de video 310 pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 64, y las unidades de codificacion tienen tamanos de eje largos de 32 y 16 puesto que las profundidades se profundizan por dos capas dividiendo la unidad de codificacion maxima dos veces. Mientras tanto, puesto que la profundidad maxima de los datos de video 330 es 2, las unidades de codificacion 335 de los datos de video 330 pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 16, y las unidades de codificacion tienen un tamano de eje largo de 8 y 4 puesto que las profundidades se profundizan por dos capas dividiendo la unidad de codificacion maxima dos veces.
Puesto que la profundidad maxima de los datos de video 320 es 4, las unidades de codificacion 325 de los datos de
5
10
15
20
25
30
35
40
45
50
55
video 320 pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 64, y unidades de codificacion que tienen tamanos de ejes largos de 32, 16, 8, y 4 puesto que las profundidades se profundizan por 4 capas dividiendo la unidad de codificacion maxima cuatro veces. Cuando una profundidad se profundiza, se puede expresar precisamente la informacion detallada.
La figura 4 es un diagrama de bloques de un codificador de imagen 400 basado en unidades de codificacion, util con una realizacion ejemplar.
Con referencia a la figura 4, un intra predictor 410 realiza la intra prediccion en unidades de codificacion en un modo intra, de entre las unidades de codificacion de una trama actual 405, y un estimador de movimiento 420 y un compensador de movimiento 425 realiza la inter estimacion y compensacion de movimiento en unidades de codificacion en un modo inter de entre unidades de codificacion de la trama actual 405 usando la trama actual 405, y una trama de referencia 495.
Los datos producidos del intra predictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 se envfan como un coeficiente de transformada cuantificado a traves de un transformador 430 y un cuantificador 440. El coeficiente de transformada cuantificado se restaura como datos en un campo espacial a traves de un cuantificador inverso 460 y un transformador inverso 470, y los datos restaurados en el campo espacial se envfan como la trama de referencia 495 despues de ser procesados posteriormente a traves de una unidad de desbloqueo 480 y una unidad de filtracion de bucle 490. El coeficiente de transformada cuantificado se puede producir como una corriente de bits 455 a traves de un codificador de entropfa 450.
Para que el codificador de imagen 400 sea aplicado en el aparato de codificacion de video 100, todos los elementos del codificador de imagen 400, es decir, el intra predictor 410, el estimador de movimiento 420, el compensador de movimiento 425, el transformador 430, el cuantificador 15 440, el codificador de entropfa 450, el cuantificador inverso 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtracion de bucle 490 realizan procedimientos de codificacion de imagen con base en la unidad de codificacion maxima, la unidad de codificacion de acuerdo con 20 las profundidades, la unidad de prediccion, y la unidad de transformada. Espedficamente, el intra predictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 determinan una unidad de prediccion y un modo de prediccion de una unidad de codificacion considerando un 25 tamano y profundidad maximos de la unidad de codificacion, y el transformador 430 determina el tamano de la unidad de transformada considerando la profundidad y tamano maximo de la unidad de codificacion. Ademas, como se describio despues, el intra predictor 410 realiza la intra prediccion aplicando un modo de intra prediccion determinado para una unidad de codificacion de componente de luminancia en una unidad de codificacion de componente de crominancia, y por consiguiente la eficiencia de prediccion de la unidad de codificacion de componente de crominancia se puede mejorar.
La figura 5 es un diagrama de bloques de un decodificador de imagen 500 con base en las unidades de codificacion, operable para realizar una etapa en procedimientos de acuerdo con una realizacion ejemplar.
Con referencia a la figura 5, un analizador 510 analiza una corriente de bits recibida 505 y extrae los datos de imagen codificados a ser decodificados e informacion acerca de la codificacion requerida para decodificar la corriente de bits analizada. Los datos de imagen codificados se envfan como datos cuantificados inversos a traves de un decodificador de entropfa 520 y un cuantificador inverso 530, y los datos cuantificados inversos se restauran a datos de imagen en un campo espacial a traves de un transformador inverso 540. Un intra predictor 550 realiza la intra prediccion en unidades de codificacion en un intra modo con respecto a los datos de imagen en el campo espacial, y un compensador de movimiento 560 realiza la compensacion de movimiento en unidades de codificacion en un modo inter usando una trama de referencia 585. Los datos de imagen en el campo espacial, los cuales pasan a traves del intra predictor 550 y el compensador de movimiento 560, se pueden producir como una trama restaurada 595 despues de ser post-procesados a traves de una unidad de desbloqueo 570 y una unidad de filtracion de bucle 580. Ademas, los datos de imagen que son post-procesados a traves de la unidad de desbloqueo 570 y la unidad de filtracion de bucle 580 se pueden producir como la trama de referencia 585.
Para que el decodificador de imagen 500 sea aplicado en el aparato de decodificacion de video 200, todos los elementos del decodificador de imagen 500, es decir, el analizador 510, el decodificador de entropia 520, el cuantificador inverso 530, el transformador inverso 540, el intra predictor 550, el compensador de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtracion de bucle 580 realizan procedimientos de decodificacion de imagen con base en la unidad de codificacion maxima, la unidad de codificacion de acuerdo con las profundidades, la unidad de prediccion, y la unidad de transformada. Espedficamente, la intra prediccion 550 y el compensador de movimiento 560 determinan la unidad de prediccion y el modo de prediccion de la unidad de codificacion considerando la profundidad y tamano maximo de la unidad de codificacion, y el transformador inverso 540 determina el tamano de unidad de transformada considerando la profundidad y el tamano maximo de la unidad de codificacion.
La figura 6 es un diagrama que ilustra unidades de codificacion mas profundas de acuerdo con las profundidades, y unidades de prediccion utiles con una realizacion ejemplar.
5
10
15
20
25
30
35
40
45
50
55
El aparato de codificacion de video 100 y el aparato de decodificacion de video 200 usan unidades de codificacion jerarquicas para considerar las caractensticas de una imagen. Una altura maxima, una anchura maxima, y una profundidad maxima de unidades de codificacion se pueden determinar de manera adaptiva de acuerdo con las caractensticas de la imagen, o se pueden establecer individualmente de acuerdo con una entrada de un usuario. Los tamanos de unidades de codificacion mas profundas de acuerdo con las profundidades se pueden determinar de acuerdo con el tamano maximo predeterminado de la unidad de codificacion.
En una estructura jerarquica 600 de unidades de codificacion, util con una realizacion ejemplar, la altura maxima y la anchura maxima de las unidades de codificacion son cada una 64, y la profundidad maxima es 4. Puesto que una profundidad se profundiza a lo largo de un eje vertical de la estructura jerarquica 600, una altura y una anchura de la unidad de codificacion mas profunda son cada una dividida. Ademas, una unidad de prediccion que constituye una unidad de datos parcial, la cual es una base para la codificacion de prediccion de cada unidad de codificacion mas profunda, se muestra a lo largo de un eje horizontal de la estructura jerarquica 600.
En otras palabras, una unidad de codificacion 610 es una unidad de codificacion maxima en la estructura jerarquica 600, en el que una profundidad es 0 y un tamano, es decir, una altura por anchura, es 64 x 64. La profundidad se profundiza a lo largo del eje vertical, y existen una unidad de codificacion 620 que tiene un tamano de 32x32 y una profundidad de 1, una unidad de codificacion 630 que tiene un tamano de 16x16 y una profundidad de 2, una unidad de codificacion 640 que tiene un tamano de 8x8 y una profundidad de 3, y una unidad de codificacion 650 que tiene un tamano de 4 x 4 y una profundidad de 4.
Las unidades de datos parciales se muestran en la figura 6 como las unidades de prediccion de una unidad de codificacion a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad de 20 codificacion 610 que tiene el tamano de 64 x 64 y la profundidad de 0 es una unidad de prediccion, la unidad de prediccion se puede dividir en unidades de datos parciales incluidas en la unidad de codificacion 610, es decir una unidad de datos parcial 610 que tiene un tamano de 64 x 64, unidades de datos parciales 612 que tienen el tamano de 64 x 32, unidades de datos parciales 614 que tienen el tamano de 32 x 64, o unidades de datos parciales 616 que tienen el tamano de 32 x 32.
Una unidad de prediccion de la unidad de codificacion 620 que tiene el tamano de 32x32 y la profundidad de 1 se puede dividir en unidades de datos parciales incluidas en la unidad de codificacion 620, es decir una unidad de datos parcial 620 que tiene un tamano de 32x32, unidades de datos parciales 622 que tienen un tamano de 32 x 16, unidades de datos parciales 624 que tienen un tamano de 16 x 32, y unidades de datos parciales 626 que tienen un tamano de 16 x 16.
Una unidad de prediccion de la unidad de codificacion 630 que tiene el tamano de 16x16 y la profundidad de 2 se puede dividir en unidades de datos parciales incluidas en la unidad de codificacion 630, es decir una unidad de datos parcial que tiene un tamano de 16 x 16 incluida en la unidad de codificacion 630, unidades de datos parciales 632 que tienen un tamano de 16 x 8, unidades de datos parciales 634 que tienen un tamano de 8 x 16, y unidades de datos parciales 636 que tienen un tamano de 8x8.
Una unidad de prediccion de la unidad de codificacion 640 que tiene el tamano de 8x8 y la profundidad de 3 se puede dividir en unidades de datos parciales incluidas en la unidad de codificacion 640, es decir, una unidad de datos parcial que tiene un tamano de 8x8 incluida en la unidad de codificacion 640, unidades de datos parciales 624 que tienen un tamano de 8x4, unidades de datos parciales 644 que tienen un tamano de 4x8, y unidades de datos parciales 646 que tienen un tamano de 4x4.
La unidad de codificacion 650 que tiene el tamano de 4x4 y la profundidad de 4 es la unidad de codificacion minima y una unidad de codificacion de la profundidad mas inferior. Una unidad de prediccion de la unidad de codificacion 650 solamente se asigna a una unidad de datos parcial que tiene un tamano de 4x4.
Para determinar al menos una profundidad codificada de las unidades de codificacion que constituyen la unidad de codificacion maxima 610, el determinador de unidad de codificacion 120 del aparato de codificacion de video 100 realiza la codificacion para unidades de codificacion correspondientes a cada profundidad incluida en la unidad de codificacion maxima 610.
Un numero de unidades de codificacion mas profundas de acuerdo con las profundidades que incluyen datos en el mismo intervalo y el mismo tamano incrementa cuando la profundidad se profundiza. Por ejemplo, cuatro unidades de codificacion correspondientes a una profundidad de 2 son requeridas para cubrir los datos que se incluyen en una unidad de codificacion correspondiente a una profundidad de 1. Por consiguiente, para comparar los resultados de codificacion de los mismos datos de acuerdo con las profundidades, la unidad de codificacion correspondiente a la profundidad de 1 y cuatro unidades de codificacion correspondientes a la profundidad de 2 se codifican cada una.
Para realizar la codificacion de una profundidad actual de entre las profundidades, un error de codificacion mmimo se puede determinar para la profundidad actual realizando la codificacion para cada unidad de prediccion en las unidades de codificacion correspondientes a la profundidad actual, a lo largo del eje horizontal de la estructura jerarquica 600. Ademas, un error de codificacion mmimo de acuerdo con las profundidades se puede buscar comparando el error de codificacion mmimo de cada profundidad, realizando la codificacion para cada profundidad
5
10
15
20
25
30
35
40
45
50
55
cuando la profundidad se profundiza a lo largo del eje vertical de la estructura jerarquica 600. Una profundidad que tiene el error de codificacion mmimo en la unidad de codificacion 610 se puede seleccionar como la profundidad codificada y un tipo de division de la unidad de codificacion 610.
La figura 7 es un diagrama para describir una relacion entre una unidad de codificacion 710 y unidades de transformada 720, util con una realizacion de ejemplo.
El aparato de codificacion de video 100 o 200 codifica o decodifica una imagen de acuerdo con las unidades de codificacion que tienen tamanos menores que o iguales a una unidad de codificacion maxima para cada unidad de codificacion maxima. Los tamanos de unidades de transformada para la transformada durante la codificacion se pueden seleccionar con base en las unidades de datos que no son mas tiempo una unidad de codificacion correspondiente. Por ejemplo, en el aparato de codificacion de video 100 o 200, si un tamano de la unidad de codificacion 710 es 64 x 64, la transformada se puede realizar usando las unidades de transformada 720 que tienen un tamano de 32x32. Ademas, los datos de la unidad de codificacion 710 que tienen el tamano de 64x64 se pueden codificar realizando la transformada en cada una de las unidades de transformada que tienen el tamano de 32 x 32, 16 x 16, 8x8, y 4x4, las cuales son menores que 64 x 64, y luego se puede seleccionar una unidad de transformada que tiene el mmimo error de codificacion.
La figura 8 es un diagrama para describir informacion de codificacion de unidades de codificacion correspondientes a una profundidad codificada, util con una realizacion ejemplar.
La unidad de salida 130 del aparato de codificacion de video 100 puede codificar y transmitir informacion 800 que indica un tipo de division, informacion 810 que indica un modo de prediccion, e informacion 820 que indica un tamano de una unidad de transformada para cada unidad de codificacion correspondiente a una profundidad codificada, como informacion acerca de un modo de codificacion.
La informacion 800 incluye informacion acerca de un tipo de division de una unidad de prediccion de una unidad de codificacion actual, en el que una unidad de prediccion de division es una unidad de datos para codificacion de prediccion de la unidad de codificacion actual. Por ejemplo, una unidad de codificacion actual Cu_0 que tiene una profundidad 0 y un tamano de 2N x 2N se puede dividir en cualquiera de una unidad de prediccion 802 que tiene un tamano de 2N x 2N, una unidad de prediccion 804 que tiene un tamano de 2N x N, una unidad de prediccion 806 que tiene un tamano de N x 2N, y una unidad de prediccion 808 que tiene un tamano de N x N. Aqrn, la informacion 800 acerca de un tipo de division se establece para indicar una de la unidad de prediccion 804 que tiene un tamano de 2N x N, la unidad de prediccion 806 que tiene un tamano de N x 2N, y la unidad de prediccion 808 que tiene un tamano de N x N.
La informacion 810 indica un modo de prediccion de cada unidad de prediccion. Por ejemplo, la informacion 810 puede indicar un modo de codificacion de prediccion realizado en una unidad de prediccion indicada por la informacion 800, es decir, un intra modo 812, un inter modo 814, o un modo de omision 816.
La informacion 820 indica una unidad de transformada que se basa sobre cuando la transformada se realiza en una unidad de codificacion actual. Por ejemplo, la unidad de transformada puede ser una primera unidad de intra transformada 822, una segunda unidad de intra transformada 824, una primera unidad de inter transformada 826, o una segunda unidad de intra transformada 828.
El extractor de informacion de codificacion 220 del aparato de decodificacion de video 200 puede extraer y usar la informacion 800, 810, y 820 para decodificacion, de acuerdo con cada unidad de codificacion mas profunda.
La figura 9 es un diagrama de unidades de codificacion mas profundas de acuerdo con las profundidades, util con una realizacion ejemplar.
La informacion de division se puede usar para indicar un cambio de profundidad. La informacion de division indica si una unidad de codificacion de una profundidad actual se divide en unidades de codificacion de una profundidad inferior.
Una unidad de prediccion 910 para codificacion de prediccion de una unidad de codificacion que tiene una profundidad de 0 y un tamano de 2N_0 x 2N puede incluir un tipo de division 912 que tiene un tamano de 2N_0 x 2N_0, un tipo de division 914 que tiene un tamano de 2N_0 x N_0, un tipo de division 916 que tiene un tamano de N_0 x 2N_0, y un tipo de division 918 que tiene un tamano de N_0 x N_0.
La codificacion a traves de la prediccion de movimiento se realiza repetidamente en una unidad de prediccion que tiene un tamano de 2N_0 x 2N_0, dos unidades de prediccion que tienen un tamano de 2N_0 x N_0, dos unidades de prediccion que tienen un tamano de N_0 x 2N_0, y cuatro unidades de prediccion que tienen un tamano de N_0 x N_0, de acuerdo con cada tipo de division. La prediccion en un modo intra y un modo inter se puede realizar en las unidades de prediccion que tienen los tamanos de 2N_0 x N_0, N_0 x 2N_0 y N_0 x N_0 y N_0 x N_0. La prediccion de movimiento en un modo de omision se realiza solamente en la unidad de prediccion que tiene el tamano de 2N_0 x 2N 0.
5
10
15
20
25
30
35
40
45
50
55
Si el error de codificacion es el mas pequeno en el tipo de division 918 que tiene el tamano N_0 x N_0, una profundidad se cambia de 0 a 1 para dividir el tipo de particion 918 en la operacion 920, y la codificacion se realiza repetidamente en las unidades de codificacion 922, 924, 926, y 928 que tienen una profundidad de 2 y un tamano de N_0 x N_0 para buscar un error de codificacion mmimo.
Puesto que la codificacion se realiza repetidamente en las unidades de codificacion 922, 924, 926, y 928 que tienen la misma profundidad, solamente la codificacion de una unidad de codificacion que tiene una profundidad de 1 se describira como un ejemplo. Una unidad de prediccion 930 para predecir el movimiento de una unidad de codificacion que tiene una profundidad de 1 y un tamano de 2N_1 x 2N_1 (=N_0 xN_0) puede incluir un tipo de division 932 que tiene un tamano de 2N_1 x 2N_1, un tipo de division 934 que tiene un tamano de 2N_1 x N_1, un tipo de division 936 que tiene un tamano de N_1 x 2N_1, y un tipo de division 938 que tiene un tamano de N_1 x N_1. La codificacion a traves de la prediccion de movimiento se realiza repetidamente en una unidad de prediccion que tiene un tamano de 2N_1 x 2N_1, dos unidades de prediccion que tienen un tamano de 2N_1 x N_1, dos unidades de prediccion que tienen un tamano de N_1 x 2N_1, y cuatro unidades de prediccion que tienen un tamano de N_1 x N_1, de acuerdo con cada tipo de division.
Si un error de codificacion es el mas pequeno en el tipo de division 938 que tiene el tamano de N_1 x N_1, una profundidad se cambia de 1 a 2 para dividir el tipo de division 938 en la operacion 940, y la codificacion se realiza repetidamente en las unidades de codificacion 942, 944, 946, y 948, las cuales tienen una profundidad de 2 y un tamano de N_2 x N_2 para buscar un error de codificacion mmimo.
Cuando una profundidad maxima es d, la informacion de division de acuerdo con cada profundidad se puede establecer cuando una profundidad llega a ser d-1. En otras palabras, una unidad de prediccion 950 para predecir el movimiento de una unidad de codificacion que tiene una profundidad de d-1 y un tamano de 2N_(d-1) x 2N_(d-1) puede incluir un tipo de division 952 que tiene un tamano de 2N_(d-1) x 2N_(d-1), un tipo de division 954 que tiene un tamano de 2N(d-1) x N(d-1), un tipo de division 956 que tiene un tamano de N_(d-1) x 2N_(d-1), y un tipo de division 958 que tiene un tamano de N(d-1) x N(d-1).
La codificacion a traves de prediccion de movimiento se puede realizar repetidamente en una unidad de prediccion que tiene un tamano de 2N(d-1) x 2N(d-1), dos unidades de prediccion que tienen un tamano de 2N_(d-1) x N_(d-1), dos unidades de prediccion que tienen un tamano de N_(d-1) x 2N_(d-1), y cuatro unidades de prediccion que tienen un tamano de N(d-1) x N(d-1), de acuerdo con cada tipo de division. Puesto que la profundidad maxima es d, una unidad de codificacion 952 que tiene una profundidad de d-1 no se divide.
Para determinar una profundidad codificada para la unidad de codificacion 912, el aparato de codificacion de video 100 selecciona una profundidad que tiene el mmimo error de codificacion comparando los errores de codificacion de acuerdo con las profundidades. Por ejemplo, un error de codificacion de una unidad de codificacion que tiene una profundidad de 0 se puede codificar realizando prediccion de movimiento en cada uno de los tipos de division 912, 914, 25 916, y 918, y una unidad de prediccion que tiene el mmimo error de codificacion se puede determinar. De manera similar, una unidad de prediccion que tiene el mmimo error de codificacion se puede buscar, de acuerdo con las profundidades 0 hasta d-1. En una profundidad de d, un error de codificacion se puede determinar realizando la prediccion de movimiento en la unidad de prediccion 960 que tiene el tamano de 2N_d x 2N_d. Como tal, los errores de codificacion mmimos de acuerdo con las profundidades se comparan en todas las profundidades de 1 hasta d, y una profundidad que tiene el mmimo error de codificacion se puede determinar como una profundidad codificada. La profundidad codificada y la unidad de prediccion del modo de profundidad codificada correspondiente se pueden codificar y transmitir como informacion acerca de un modo de codificacion. Ademas, puesto que una unidad de codificacion se divide de una profundidad de 0 a una profundidad codificada, solamente la informacion de division de la profundidad codificada se establece a 0, y la informacion de division de profundidades excluyendo la profundidad codificada se establece a 1.
Los datos de imagen y extractor de informacion de codificacion 220 del aparato de decodificacion de video 200 pueden extraer y usar la informacion acerca de la profundidad codificada y la unidad de prediccion de la unidad de codificacion 912 para decodificar la unidad de codificacion 912. El aparato de decodificacion de video 200 puede determinar una profundidad, en la cual la informacion de division es 0, como una profundidad codificada usando informacion de division de acuerdo con las profundidades, y la informacion de uso acerca de un modo de codificacion de la profundidad correspondiente para decodificacion.
Las figuras 10A y 10B son diagramas para describir una relacion entre las unidades de codificacion 1010, unidades de prediccion 1060, y unidades de transformada 1070, utiles con una realizacion ejemplar.
Las unidades de codificacion 1010 son unidades de codificacion correspondientes a las profundidades codificadas determinadas por el aparato de codificacion de video 100, en una unidad de codificacion maxima 1000. Las unidades de prediccion 1060 son unidades de prediccion de cada una de las unidades de codificacion 1010, y las unidades de transformada 1070 son unidades de transformada de cada una de las unidades de codificacion 1010.
Cuando una profundidad de una unidad de codificacion maxima es 0 en las unidades de codificacion 1010, las profundidades de las unidades de codificacion 1012 y 1054 son 1, las profundidades de las unidades de codificacion
5
10
15
20
25
30
35
40
45
50
55
1014, 1016, 1018, 1028, 1050, y 1052 son 2, las profundidades de las unidades de codificacion 1020, 1022, 1024, 1026, 1030, 1032, y 1048 son 3, y las profundidades de las unidades de codificacion 1040, 1042, 1044, y 1046 son 4.
En las unidades de prediccion 1060, algunas unidades de codificacion 1014, 1016, 1022, 1032, 1048, 1050, 1052, y 1054 se obtienen dividiendo las unidades de codificacion en las unidades de codificacion 1010. En otras palabras, los tipos de division en las unidades de codificacion 1014, 1022, 1050, y 1054 tienen un tamano de 2n x N, los tipos de division en las unidades de codificacion 1016, 1048, y 1052 tienen un tamano de N x 2N, y un tipo de division de la unidad de codificacion 1032 tiene un tamano de N x N. Las unidades de prediccion de las unidades de codificacion 1010 son menores que o iguales a cada unidad de codificacion.
La transformada o transformada inversa se realiza en datos de imagen de la unidad de codificacion 1052 en las unidades de transformada 1070 en una unidad de datos que es menor que la unidad de codificacion 1052. Ademas, las unidades de codificacion 1014, 1016, 1022, 1032, 1048, 1050, y 1052 en las unidades de transformada 1070 son diferentes de aquellas en las unidades de prediccion 1060 en terminos de tamanos y formas. En otras palabras, los aparatos de codificacion y decodificacion de video 100 y 200 pueden realizar intra prediccion, estimacion de movimiento, compensacion de movimiento, transformada, y transformada inversa individualmente en una unidad de datos en la misma unidad de codificacion.
La figura 11 es una tabla que muestra la informacion de codificacion de acuerdo con unidades de codificacion, util con una realizacion ejemplar.
La unidad de salida de informacion de codificacion 140 del aparato de codificacion de video 100 puede codificar la informacion de codificacion de acuerdo con las unidades de codificacion, y el extractor de informacion de codificacion 220 del aparato de codificacion de video 200 puede extraer la informacion de codificacion de acuerdo con las unidades de codificacion.
La informacion de codificacion puede incluir informacion de division acerca de una unidad de codificacion, informacion de tipo de division, informacion de modo de prediccion, e informacion acerca de un tamano de una unidad de transformada. La informacion de codificacion mostrada en la figura 11 solamente es ejemplar de la informacion que se puede establecer por el aparato de codificacion de video 100 y el aparato de decodificacion de video 200, y no se limita a esto.
La informacion de division puede indicar una profundidad codificada de una unidad de codificacion correspondiente. En otras palabras, puesto que una profundidad codificada es una profundidad que no es mas tiempo dividida de acuerdo con la informacion de division, la informacion acerca del tipo de division, modo de prediccion, y tamano de unidad de transformada se puede establecer para la profundidad codificada. Si la unidad de codificacion actual se divide adicionalmente de acuerdo con la informacion de division, la codificacion se realiza independientemente en cuatro unidades de codificacion de division de una profundidad inferior.
La informacion acerca de un tipo de division puede indicar un tipo de division de una unidad de transformada de una unidad de codificacion en una profundidad codificada como una de 2N x 2N, 2N x N, N x 2N, y N x N. El modo de prediccion puede indicar un modo de prediccion de movimiento como uno de un modo intra, un modo inter, y un modo de omision. El modo intra se puede definir solamente en los tipos de division de 2N x 2N y N x N, y el modo de omision solamente se puede definir en el tipo de division de 2N x 2n. La unidad de transformada puede tener dos tamanos en el modo intra, y dos tamanos en el modo inter.
La informacion de codificacion de acuerdo con las unidades de codificacion en la profundidad codificada se puede incluir en la unidad de codificacion minima en la unidad de codificacion. Por consiguiente, verificando la informacion de codificacion incluida en las unidades de codificacion mmimas colindantes, se puede determinar si las unidades de codificacion mmimas colindantes se incluyen en las unidades de codificacion que tienen la misma profundidad codificada. Ademas, puesto que la unidad de codificacion de la profundidad codificada correspondiente se puede determinar usando la informacion de codificacion incluida en la unidad de codificacion minima, se puede inferir la distribucion de las profundidades codificadas de las unidades de codificacion mmimas.
La intra prediccion realizada por la unidad de intra prediccion 410 del aparato de codificacion de video 100 ilustrado en la figura 4 y la unidad de intra prediccion 550 del aparato de decodificacion de video 200 ilustrado en la figura 5 ahora se describira en detalle. En la siguiente descripcion, una unidad de codificacion se refiere a un bloque codificado actual en un procedimiento de codificacion de una imagen, y una unidad de decodificacion se refiere a un bloque decodificado actual en un procedimiento de decodificacion de una imagen. La unidad de codificacion y la unidad de decodificacion son diferentes solamente porque la unidad de codificacion se usa en el procedimiento de codificacion y la unidad de decodificacion se usa en el procedimiento de decodificacion. Para consistencia, excepto para un caso particular, la unidad de codificacion y la unidad de decodificacion son referidas como una unidad de codificacion en los procedimientos tanto de codificacion como decodificacion.
Las figuras 12A hasta 12C son diagramas de formatos de una imagen de componente de luminiscencia y una imagen de componente de crominancia, utiles con una realizacion ejemplar.
5
10
15
20
25
30
35
40
45
50
55
60
Cada unidad de codificacion que forma una trama se puede expresar usando uno de tres componentes, es decir, Y, Cb, y Cr. Y es datos de luminancia que tienen informacion de luminancia, y Cb y Cr son datos de crominancia que tienen informacion de crominancia.
Los datos de crominancia se pueden expresar usando una cantidad inferior de datos que los datos de luminancia, con base en la premisa que una persona generalmente es mas sensible a la informacion de luminancia que la informacion de crominancia. Con referencia a la figura 12A, una unidad de codificacion que tiene un formato 4:2:0 incluye datos de luminancia 1210 que tiene un tamano de H x W (H y W son enteros positivos), y dos piezas de datos de crominancia 1220 y 1230 que tienen un tamano de (H/2) x (W/2) obtenidos muestreando los componentes de crominancia Cb y Cr por 1/4. Con referencia a la figura 12B, una unidad de codificacion que tiene un formato 4:2:2 incluye datos de luminancia 1240 que tienen un tamano 20 de H x W (H y W son enteros positivos), y dos piezas de datos de crominancia 1250 y 1260 que tienen un tamano de H x (W/2) obtenido muestreando los componentes de crominancia Cb y Cr por 1/2 en una direccion horizontal. Ademas, con referencia a la figura 12C, cuando una unidad de codificacion tiene un 25 formato 4:4:4, la unidad de codificacion incluye datos de luminancia 1270, y datos de crominancia 1280 y 1290, cada uno tiene un tamano de HxW sin muestrear los componentes de crominancia Cb y Cr, para expresar precisamente una imagen de componente de crominancia.
Despues, se asume que la unidad de codificacion de componente de luminancia y la unidad de codificacion de componente de crominancia, las cuales son intra predichas, son una de las senales de imagen que tienen formatos de color de 4:2:0, 4:2:2, y 4:4:4 definidos en un campo de color YCbCr (o YUV).
La eficiencia de prediccion de la unidad de codificacion de crominancia se mejora incluyendo un modo de intra prediccion determinado para la unidad de codificacion de componente de luminancia en modos de intra prediccion candidatos aplicados a la unidad de codificacion de componente de crominancia considerando una relacion entre el componente de luminancia y el componente de crominancia.
La figura 13 es una tabla que muestra un numero de modos de intra prediccion de acuerdo con los tamanos de unidades de codificacion de componente de luminancia, util con una realizacion ejemplar.
El numero de modos de intra prediccion a ser aplicados a una unidad de codificacion de componente de luminancia (una unidad de decodificacion en un procedimiento de decodificacion) se puede establecer de manera variada. Por ejemplo, con referencia a la figura 13, si el tamano de una unidad de codificacion de componente de luminancia es N x N, en la cual la intra prediccion se realiza, los numeros de modos de intra prediccion actualmente realizados en unidades de codificacion de componente de luminancia de tamano 2 x2, 4 x4, 8 x 8, 16 x 16, 32 x 32, 64 x 64, y 128 x 128 se pueden establecer respectivamente como 5, 9, 9, 17, 33, 5, y 5 (en el Ejemplo 2). Para otro ejemplo, cuando un tamano de una unidad de codificacion de componente de luminancia a ser intra predicho que es N x N, los numeros de modos de intra prediccion a ser actualmente realizados en unidades de codificacion que tienen tamanos de 2 x 2, 4x4, 8x8, 16 x 16, 32 x 32, 64 x 64, y 128 x 128 se puede establecer que es 3, 17, 34, 34, 34, 5, y 5. Los numeros de modos de intra prediccion a ser actualmente realizados son establecidos de manera diferente de acuerdo con los tamanos de unidades de codificacion de componente de luminancia debido a que las cargas generales para la informacion de modo de prediccion de codificacion difieren de acuerdo con los tamanos de las unidades de codificacion de componente de luminancia. En otras palabras, una pequena unidad de codificacion de componente de luminancia ocupa una pequena porcion de datos de imagen completos pero puede tener una carga general grande para transmitir informacion adicional, tal como la informacion de modo de prediccion de la unidad de codificacion de componente de luminancia. Por consiguiente, si una unidad de codificacion pequena de componente de luminancia se codifica usando un numero excesivamente grande de modos de prediccion, el numero de bits se puede incrementar y por consiguiente la eficiencia de compresion se puede reducir. Ademas, una unidad de codificacion grande de componente de luminancia, por ejemplo, una unidad de codificacion de componente de luminancia igual a o mayor que 64 x 64, generalmente corresponde a una region plana de datos de imagen, y por consiguiente la codificacion de la unidad de codificacion de componente de luminancia grande usando un numero excesivamente grande de modos de prediccion tambien puede reducir la eficiencia de compresion.
Por consiguiente, las unidades de codificacion de componente de luminancia se clasifican aproximadamente en al menos tres tamanos tal como N1 x N1 (donde 2=N1=4, y N1 es un entero), N2 x N2 (donde 8=N2=32, y N2 es un entero), y N3 x N3 (donde 64=N3, y N3 es un entero). Si el numero de modos intra prediccion realizados en las unidades de codificacion de componente de luminancia de N1 x N1 es A1 (donde A1 es un entero positivo), el numero de modos de intra prediccion realizados en las unidades de codificacion de componente de luminancia de N2 x N2 es A2 (donde A2 es un entero positivo), y el numero de modos de intra prediccion realizados en las unidades de codificacion de componente de luminancia de N3 x N3 es A3 (donde A3 es un entero positivo). Los numeros de modos de intra prediccion realizados de acuerdo con los tamanos de las unidades de codificacion de componente de luminancia se pueden establecer para satisfacer A3=A1=A2. Es decir, si un cuadro actual se divide en unidades de codificacion de componente de luminancia pequenas, unidades de codificacion de componente de luminancia medias, y unidades de codificacion de componente de luminancia grandes, las unidades de codificacion de componente de luminancia medias se pueden establecer para tener el numero mas grande de modos de prediccion y las unidades de codificacion de componente de luminancia pequenas y las unidades de codificacion de componente de luminancia grandes se pueden establecer para tener un numero relativamente pequeno de modos de prediccion. Sin embargo, la realizacion ejemplar no se limita a esto, y las unidades de codificacion de
5
10
15
20
25
30
35
40
45
50
componente de luminancia pequenas y grandes tambien se pueden establecer para tener un numero grande de modos de prediccion. Los numeros de modos de prediccion de acuerdo con los tamanos de unidades de codificacion de componente de luminancia en la figura 13 solamente son ejemplares y se pueden cambiar.
La figura 14A es una tabla que muestra modos de intra prediccion aplicados a una unidad de codificacion de componente de luminancia que tiene un tamano predeterminado.
Con referencia a las figuras 13 y 14A, por ejemplo, cuando la intra prediccion se realiza en una unidad de codificacion de componente de luminancia que tiene un tamano de 4x4, la unidad de codificacion de componente de luminancia puede tener un modo vertical (modo 0), un modo horizontal (modo 1), un modo de corriente continua (CC) (modo 2), un modo abajo a la izquierda diagonal (modo 3), un modo abajo a la derecha diagonal (modo 4), un modo vertical a la derecha (modo 5), un modo horizontal hacia abajo (modo 6), un modo vertical a la izquierda (modo 7), y un modo horizontal a la derecha (modo 8).
La figura 14B ilustra direcciones de los modos de intra prediccion mostrados en la figura 14A. En la figura 14B, los numeros en los extremos de flechas representan modos de prediccion correspondientes a las direcciones de prediccion indicadas por las flechas. Aqm, modo 2 es un modo CC que no tiene direccionalidad y por consiguiente no se muestra en la figura 16B.
La figura 14C es un diagrama para describir un procedimiento para realizar intra prediccion en una unidad de codificacion de componente de luminancia usando los modos de intra prediccion mostrados en la figura 14A.
Con referencia a la figura 14C, una unidad de codificacion de prediccion se genera de acuerdo con un modo de intra prediccion disponible determinado de acuerdo con el tamano de una unidad de codificacion de componente de luminancia actual usando pixeles colindantes A hasta M de la unidad de codificacion de componente de luminancia actual. Por ejemplo, se describira una operacion para realizar la codificacion de prediccion en una unidad de codificacion actual que tiene un tamano 4x4 de acuerdo con el modo 0, es decir, un modo vertical, mostrado en la figura 14A. Inicialmente, los valores de los pixeles colindantes A hasta D en un lado superior de la unidad de codificacion actual se predicen como valores de pixel de la unidad de codificacion actual. Es decir, el valor del pixel colindante A se predice como un valor de cuatro pixeles en una primera columna de la unidad de codificacion actual, el valor del pixel colindante B se predice como un valor de cuatro pixeles en una segunda columna de la unidad de codificacion actual, el valor del pixel colindante C se predice como un valor de cuatro pixeles en una tercera columna de la unidad de codificacion actual, y el valor del pixel colindante D se predice como un valor de cuatro pixeles en una cuarta columna de la unidad de codificacion actual. Despues de esto, los valores de pixeles de la unidad de codificacion actual predichos usando los pixeles colindantes A hasta D se sustraen de los valores de pixel de la unidad de codificacion actual original para calcular un valor de error y luego el valor de error se codifica.
La figura 15 es un diagrama para explicar los modos de intra prediccion aplicados a una unidad de codificacion de componente de luminancia que tiene un tamano predeterminado, util con una realizacion ejemplar.
Con referencia a las figuras 13 y 15, por ejemplo, cuando la intra prediccion se realiza en una unidad de codificacion que tiene un tamano 2x2, la unidad de codificacion puede tener un total de cinco modos, tal como un modo vertical, un modo horizontal, un modo CC, un modo plano, y un modo diagonal abajo a la derecha.
Mientras tanto, si una unidad de codificacion de componente de luminancia que tiene un tamano 32 x 32 tiene 33 modos de intra prediccion, como se muestra en la figura 13, las direcciones de los 33 modos de intra prediccion necesitan establecerse. Para establecer los modos de intra prediccion que tienen varias direcciones ademas de los modos de intra prediccion ilustrados en las figuras 14 y 15, las direcciones de prediccion para seleccionar pixeles colindantes usados como pixeles de referencia de pixeles de la unidad de codificacion de componente de luminancia se establecen usando parametros (dx, dy). Por ejemplo, si cada uno de los 33 modos de prediccion se define como modo N (donde N es un entero desde 0 a 32), el modo 0 se puede establecer como un modo vertical, el modo 1 se puede establecer como un modo horizontal, el modo 2 se puede establecer como un modo CC, el modo 3 se puede establecer como un modo plano, y cada uno del modo 4 hasta 31 se pueden definir como un modo de prediccion que tiene una direccionalidad de tan-1(dy/dx) usando (dx, dy) representado como uno de (2,1), (1,-2), (2,-1), (4,3), (1,11), (1,-1), (5,-6), (7,-6), (7,-4), (2,7), (5,-7), y (4,-3), (1,-1), (1,1), (1,2), (2,1), (1,-2), (2,-11), (5,-7), (10,-7), (11,3), (12,-3), (1,-11), (1,-7), (3,-10), (11,1), (6,1), (8,3), (5,3), (5,7), como se muestra en la Tabla 1.
[Tabla 1]
Modo n.°
dx dy Modo n.° dx dy
Modo 4
1 -1 Modo 18 1 -11
5
10
15
20
25
(continuacion)
Modo n.°
dx dy Modo n.° dx dy
Modo 5
1 1 Modo 19 1 -7
Modo 6
1 2 Modo 20 3 -10
Modo 7
2 1 Modo 21 7 -6
Modo 8
1 -2 Modo 22 7 -6
Modo 9
2 -1 Modo 23 7 -4
Modo 10
2 -11 Modo 24 11 1
Modo 11
5 -7 Modo 25 6 1
Modo 12
10 -7 Modo 26 8 3
Modo 13
11 3 Modo 27 5 3
Modo 14
4 3 Modo 28 5 7
Modo 15
1 11 Modo 29 2 7
Modo 16
1 -1 Modo 30 5 -7
Modo 17
12 -3 Modo 31 4 -3
Modo 0 es un modo vertical, modo 1 es un modo horizontal, modo 2 es un modo CC, modo 3 es un modo plano, y modo 32 es un bilineal
El modo 32 se puede establecer como un modo bi-lineal que usa interpolacion bi-lineal como se describira mas tarde con referencia a la figura 16.
Las figuras 16A a 16C son unos diagramas de referencia para explicar modos de intra prediccion de una unidad de codificacion de componente de luminancia que tiene varias direccionalidades, util con una realizacion ejemplar.
Como se describio anteriormente con referencia a la Tabla 1, cada uno de los modos de intra prediccion de acuerdo con las realizaciones ejemplares pueden tener direccionalidad de tan-1(dy/dx) usando una pluralidad de parametros (dx, dy).
Con referencia a la figura 16A, los pixeles colindantes A y B en una lmea 160 que se extiende desde un pixel actual P en una unidad de codificacion de componente de luminancia actual, que se predecira, a un angulo de tan-1(dy/dx) determinado por un valor de un parametro (dx, dy) de acuerdo con un modo, como se muestra en la Tabla 1, se puede usar como predictores del pixel actual P. En este caso, los pixeles colindantes A y B pueden ser pixeles que se han codificado y restaurado, y pertenecen a unidades de codificacion previas ubicadas arribas y al lado izquierdo de la unidad de codificacion actual. Ademas, cuando la lmea 160 no pasa a lo largo de los pixeles colindantes en ubicaciones cada una teniendo un valor integral pero pasa entre estos pixeles colindantes, los pixeles colindantes mas cercanos a la lmea 160 se pueden usar como predictores del pixel actual P. Ademas, un valor promedio ponderado considerando una distancia entre una interseccion de la lmea 160 y pixeles colindantes cercanos a la lmea 160 se pueden usar como un predictor para el pixel actual P. Si dos pixeles que cumplen la lmea 160, por ejemplo, el pixel colindante A ubicado arriba del pixel actual P y el pixel colindante B ubicado en el lado izquierdo del pixel actual P, estan presentes, un promedio de valores de pixeles de los pixeles colindantes A y B se puede usar como un predictor del pixel actual P. De otra manera, si un producto de valores de los parametros dx y dy es un valor positivo, se puede usar el pixel colindante A, y si el producto de los valores de los parametros dx y dy es un valor negativo, se puede usar el pixel colindante B.
Las figuras 16B y 16C son diagramas de referencia para explicar un procedimiento para generar un predictor cuando la lmea 160 de la figura 16A pasa entre, no a traves, de los pixeles colindantes de ubicaciones de enteros.
Con referencia a la figura 16B, si la lmea 160 que tiene un angulo de tan-1(dy/dx) que es determinado de acuerdo con (dx,dy) de cada modo pasa entre un pixel colindante A 161 y un pixel colindante B 162 de ubicaciones de entero, un valor promedio ponderado considerando una distancia entre una interseccion de la lmea extendida 160 y
5
10
15
20
25
30
35
40
45
50
55
los pixeles colindantes A 161 y B 162 cercanos a la lmea extendida 160 se pueden usar como un predictor como se describio anteriormente. Por ejemplo, si una distancia entre el pixel colindante A 161 y la interseccion de la lmea extendida 160 que tiene el angulo de tan-1(dy/dx) es f, y una distancia entre el pixel colindante B 162 y la interseccion de la lmea extendida 160 es g, un predictor para el pixel actual P se puede obtener como (A*g+B*f)/(f+g). Aqm, f y g pueden ser cada uno una distancia normalizada usando un entero. Si se usa software o hardware, el predictor para el pixel actual P se puede obtener por operacion de desplazamiento como (g*A+f*B+2)>>2. Como se muestra en la figura 16B, si la lmea extendida 160 pasa a traves de un primer cuarto cercano al pixel colindante A 161 de entre cuatro partes obtenidas dividiendo en cuartos una distancia entre el pixel colindante A 161 y el pixel colindante B 162 de las ubicaciones de entero, el predictor para el pixel actual P se puede adquirir como (3*A+B)/4. Tal operacion se puede realizar por operacion de desplazamiento considerando el redondeo a un entero mas cercano como (3*A+B+2)>>2.
Mientras tanto, si la lmea extendida 160 que tiene el angulo de tan-1(dy/dx) que se determina de acuerdo con (dx, dy) de cada modo pasa entre el pixel colindante A 161 y el pixel colindante B 162 de las ubicaciones de enteros, una seccion entre el pixel colindante A 161 y el pixel colindante B 162 se puede dividir en un numero predeterminado de areas, y un valor promedio ponderado considerando una distancia entre una interseccion y el pixel colindante A 161 y el pixel colindante B 162 en cada area dividida se puede usar como un valor de prediccion. Por ejemplo, con referencia a la figura 16C, una seccion entre el pixel colindante A 161 y el pixel colindante B 162 se puede dividir en cinco secciones P1 hasta P5 como se muestra en la figura 16C, un valor promedio ponderado representativo considerando una distancia entre una interseccion y el pixel colindante A 161 y el pixel colindante B 162 en cada seccion se puede determinar, y el valor promedio ponderado representativo se puede usar como un predictor para el pixel actual P. En detalle, si la lmea extendida 160 pasa a traves de la seccion P1, un valor de pixel colindante A se puede determinar como un predictor para el pixel actual P. Si la lmea extendida 160 pasa a traves de la seccion P2, un valor promedio ponderado (3*A+1*B+2)>>2 considerando una distancia entre los pixeles colindantes A y B y un punto medio de la seccion P2 se puede determinar como un predictor para el pixel actual P. Si la lmea extendida 160 pasa a traves de la seccion P3, un valor promedio ponderado (2*A+2*B+2)>>2 considerando una distancia entre los pixeles colindantes A y B y un punto medio de la seccion P3 se puede determinar como un predictor para el pixel actual P. Si la lmea extendida 160 pasa a traves de la seccion P4, un valor promedio ponderado (1*A+3*B+2)>>2 considerando una distancia entre los pixeles colindantes A y B y un punto medio de la seccion P4 se puede determinar como un predictor para el pixel actual P. Si la lmea extendida 160 pasa a traves de la seccion P5, un valor del pixel colindante B se puede determinar como un predictor para el pixel actual P.
Ademas, si dos pixeles colindantes, es decir, el pixel colindante A en el lado superior y el pixel colindante B en el lado izquierdo cumplen la lmea extendida 160 como se muestra en la figura 16A, un valor promedio del pixel colindante A y el pixel colindante B se puede usar como un predictor para el pixel actual P, o si (dx*dy) es un valor negativo, se puede usar el pixel colindante B en el lado izquierdo.
Los modos de intra prediccion que tienen varias direccionalidades mostradas en la Tabla 1 se pueden predeterminar por un lado de codificacion y un lado de decodificacion, y solamente un mdice de un modo de intra prediccion de cada unidad de codificacion se puede transmitir.
La figura 17 es un diagrama de referencia para explicar un modo bi-lineal.
Con referencia a la figura 17, en el modo bilineal, un promedio geometrico se calcula considerando un valor de un pixel actual P 170 en una unidad de codificacion de componente de luminancia actual, la cual se predecira, valores de pixeles en los lfmites superiores, inferiores, izquierdo, y derecho de la unidad de codificacion de componente de luminancia actual, y las distancias entre el pixel actual P 170 y los lfmites superior, inferior, izquierdo, y derecho de la unidad de codificacion de componente de luminancia actual. El promedio geometrico luego se usa como un predictor del pixel actual P 170. Por ejemplo, en el modo bi-lineal, un promedio geometrico calculado usando un pixel virtual A 171, un pixel virtual B 172, un pixel D 176, y un pixel E 177 ubicado en los lados superior, inferior, izquierdo, y derecho del pixel actual P 170, y las distancias entre el pixel actual P 170 y los lfmites superior, inferior, izquierdo, y derecho de la unidad de codificacion de componente de luminancia actual, se usa como un predictor del pixel actual P 170. Puesto que el modo bi-lineal es uno de los modos de intra prediccion, los pixeles colindantes que se han codificado y restaurado, y pertenecen a las unidades de codificacion de componente de luminancia previas, se usan como pixeles de referencia para prediccion. Por consiguiente, los valores de pixel en la unidad de codificacion de componente de luminancia actual no se usan, pero los valores de pixeles virtuales calculados usando pixeles colindantes ubicados en los lados superior e izquierdo de la unidad de codificacion de componente de luminancia actual se usan como el pixel A 171 y el pixel B 172.
Espedficamente, primero se calcula un valor de un pixel virtual C 173 en un punto inferior mas derecho de la unidad de codificacion de componente de luminancia actual calculando un promedio de los valores de un pixel colindante (pixel derecho superior) 174 en un punto mas derecho superior de la unidad de codificacion de componente de luminancia actual y un pixel colindante (pixel izquierdo inferior) 175 en un punto inferior mas izquierdo de la unidad de codificacion de componente de luminancia actual, como se expresa en la Ecuacion 1 a continuacion;
5
10
15
20
25
30
35
40
45
50
Ecuacion 1
C=0,5(PixelIzquierdoInferior+PixelDerechoSuperior)
Luego, un valor del pixel virtual A 171 ubicado en un Ifmite mas inferior de la unidad de codificacion de componente de luminancia actual cuando el pixel actual P 170 se extiende hacia abajo considerando la distancia W1 entre el pixel actual P 170 y el lfmite izquierdo de la unidad de codificacion de componente de luminancia actual y la distancia W2 entre el pixel actual P 170 y el lfmite derecho de la unidad de codificacion de componente de luminancia actual, se calcula usando la Ecuacion 2 a continuacion:
Ecuacion 2
A=(C*W1+PixeNzquierdoInferior*W2)/(W1/W2);
A=(C*W1+PixelIzquierdoInferior*W2+((W1 +W2))/2))/(W1 +W2)
Cuando un valor de W1+W2 en la Ecuacion 2 es una potencia de 2, como 2An, A=(C*W1+PixelIzquierdoInferior*W2+((W1+W2)/2))/(W1+W2) se puede calcular por operacion de desplazamiento como A=(C*W1+PixelIzquierdoInferior*W2+2A(n-1))>>n sin division.
De manera similar, un valor del pixel virtual B 172 ubicado en un lfmite mas derecho de la unidad de codificacion de componente de luminancia actual cuando el pixel actual P 170 se extiende en la direccion derecha considerando la distancia hl entre el pixel actual P 170 y el lfmite superior de la unidad de codificacion de componente de luminancia actual y la distancia h2 entre el pixel actual P 170 y el lfmite inferior de la unidad de codificacion de componente de luminancia actual, se calcula usando la Ecuacion 3 a continuacion:
Ecuacion 3
B=(C*h1+PixelDerechoSuperior*h2)/(h1+h2)
B=(C*h1+PixenerechoSuperior*h2+((h1+h2)/2))/(h1+h2)
Cuando un valor de h1+h2 en la Ecuacion 3 es una potencia de 2, como 2Am, B=(C*h1+PixelDerechoSuperior*h2+((h1+h2)/2))/(h1+h2) se puede calcular por operacion de desplazamiento como B=(c*h1+PixelDerechoSuperior*h2+2A(m-1))>>m sin division.
Una vez que los valores del pixel virtual B 172 en el borde derecho y el pixel virtual A 172 en el borde inferior del pixel actual P 170 se determinan usando las Ecuaciones 1 a 3, un predictor para el pixel actual P 170 se puede determinar usando un valor promedio de A+B+D+E. En detalle, un valor promedio ponderado considerando una distancia entre el pixel actual P 170 y el pixel virtual A 171, el pixel virtual B 172, el pixel D 176, y el pixel E 177 o un valor promedio de A+B+D+E se puede usar como un predictor para el pixel actual P 170. Por ejemplo, si un valor promedio ponderado se usa y el tamano de bloque es 16 x 16, un predictor para el pixel actual P se puede obtener como (h1*A+h2*D+W1*B+W2*E+16))>>5. Tal prediccion bilineal se aplica a todos los pixeles en la unidad de codificacion actual, y se genera una unidad de codificacion de prediccion de la unidad de codificacion actual en un modo de prediccion bilineal.
La codificacion de prediccion se realiza de acuerdo con diversos modos de intra prediccion determinados de acuerdo con el tamano de una unidad de codificacion de componente de luminancia, permitiendo la compresion de video eficiente con base en las caractensticas de una imagen.
Puesto que un numero grande de modos de intra prediccion que los modos de intra prediccion usados en un codec convencional se usan de acuerdo con un tamano de una unidad de codificacion, la compatibilidad con el codec convencional puede llegar a ser un problema. En un arte convencional, 9 modos de intra prediccion en su mayona se pueden usar como se muestra en las figuras 14A y 14B. Por consiguiente, es necesario mapear los modos de intra prediccion que tienen varias direcciones seleccionadas para uno de un numero menor de modos de intra prediccion. Es decir, cuando un numero de modos de intra prediccion disponibles de una unidad de codificacion actual es N1 (N1 es un entero), para hacer los modos de intra prediccion disponibles de la unidad de codificacion actual, compatibles con una unidad de codificacion de un tamano predeterminado que incluye N2 (N2 es un entero diferente de N1) modos de intra prediccion, los modos de intra prediccion de la unidad de codificacion actual se pueden mapear a un modo de intra prediccion que tiene una direccion mas similar de entre los N2 modos intra prediccion. Por ejemplo, un total de 33 modos de intra prediccion estan disponibles como se muestra en la Tabla 1 en la unidad de codificacion actual, y se asume que un modo de intra prediccion finalmente aplicado a la unidad de codificacion actual es el modo 14, es decir, (dx, dy) = (4,3), que tiene una directividad de tan-1(3/4)?36,87 (grados). En este caso, para igualar el modo de intra prediccion aplicado al bloque actual a uno de los 9 modos de intra prediccion como se muestran en las figuras 14A y 14B, se puede seleccionar el modo 4 (derecho inferior) que tiene una directividad muy similar a la directividad de 36,87 (grados). Es decir, el modo 14 de la Tabla 1 se puede mapear al modo 4 mostrado en la figura 14B. Igualmente, si un modo de intra prediccion aplicado a la unidad de codificacion actual se selecciona para ser el modo 15, es decir, (dx,dy) = (1,11), de entre los 33 modos de intra prediccion
5
10
15
20
25
30
35
40
45
50
55
60
disponibles de la Tabla 1, puesto que una directividad del modo de intra prediccion aplicado a la unidad de codificacion actual es tan-1(11) 784,80 (grados), el modo 0 (vertical) de la figura 14B que tiene una directividad muy similar a la directividad 84,80 (grados) se puede mapear al modo 15.
Mientras tanto, para decodificar una unidad de codificacion de componente de luminancia codificada via intra prediccion, la informacion de modo de prediccion es requerida para determinar que modo de intra prediccion se usa para codificar una unidad de codificacion de componente de luminancia actual. Por consiguiente, la informacion de modo de intra prediccion de la unidad de codificacion de componente de luminancia actual se agrega a una corriente de bits cuando se codifica una imagen. En este momento, una carga general puede incrementar, disminuyendo una eficiencia de compresion si la informacion de modo de intra prediccion de cada unidad de codificacion de componente de luminancia se agrega a la corriente de bits.
Por lo tanto, en lugar de transmitir la informacion de modo de intra prediccion de la unidad de codificacion de componente de luminancia actual, que se determina como un resultado de la codificacion de la unidad de codificacion de componente de luminancia actual, solamente se transmite un valor de diferencia entre un valor actual de un modo de intra prediccion y un valor de prediccion de un modo de intra prediccion, que se predice de una unidad de codificacion de componente de luminancia colindante.
La figura 18 es un diagrama para explicar un procedimiento para generar un valor de prediccion de un modo de intra prediccion de una unidad de codificacion de componente de luminancia actual A 180.
Con referencia a la figura 18, un modo de intra prediccion de la unidad de codificacion de componente de luminancia actual A 180 se puede predecir de los modos de intra prediccion determinados en unidades de codificacion de componente de luminancia colindantes. Por ejemplo, cuando un modo de intra prediccion de una unidad de codificacion de componente de luminancia izquierda B 181 es el modo 3, y un modo de intra prediccion de una unidad de codificacion de componente de luminancia superior C 182 es el modo 4, el modo de intra prediccion de la unidad de codificacion de componente de luminancia actual A 180 se puede predecir que es el modo 3, el cual tiene un valor menor de entre los modos de intra prediccion de la unidad de codificacion de componente de luminancia superior C 182 y la unidad de codificacion de componente de luminancia izquierda B 181. Si un modo de intra prediccion determinado como un resultado de la codificacion de intra prediccion actualmente realizada en la unidad de codificacion de componente de luminancia actual A 180 es el modo 4, solamente 1, es decir, un valor de diferencia con el modo 3 que constituye el modo de intra prediccion predicho de la unidad de codificacion de componente de luminancia colindante, se transmite como una informacion de modo de intra prediccion. Un valor de prediccion de un modo de intra prediccion de una unidad de decodificacion de componente de luminancia actual se genera de la misma manera durante la decodificacion, y un valor de diferencia recibido a traves de una corriente de bits se agrega al valor de prediccion, obteniendo informacion de modo de intra prediccion actualmente aplicada a la unidad de decodificacion de componente de luminancia actual. En la descripcion anterior, solamente se usan las unidades de codificacion colindantes superior e izquierda C y B 182 y 181 25 de la unidad de codificacion de componente de luminancia actual A 180, pero alternativamente, el modo de intra prediccion de la unidad de codificacion de componente de luminancia actual A se puede predecir usando otras unidades de codificacion de componente de luminancia colindantes E y D de la figura 18. Un modo de intra prediccion de una unidad de codificacion de componente de luminancia se puede usar para predecir un modo de intra prediccion de una unidad de codificacion de componente de crominancia que se describira posteriormente.
Mientras tanto, puesto que un modo de intra prediccion actualmente realizado difiere de acuerdo con los tamanos de las unidades de codificacion de componente de luminancia, un modo de intra prediccion predicho de las unidades de codificacion de componente de luminancia colindantes no puede igualar un modo de intra prediccion de una unidad de codificacion de componente de luminancia actual. Por consiguiente, para predecir el modo de intra prediccion de la unidad de codificacion de componente de luminancia actual de las unidades de codificacion de componente de luminancia colindantes que tiene diferentes tamanos, se requiere un procedimiento de mapeo para mapear diferentes modos de intra prediccion de las unidades de codificacion de componente de luminancia.
Las figuras 19A y 19B son unos diagramas de referencia para explicar un procedimiento de mapeo de modos intra prediccion entre las unidades de codificacion de componente de luminancia que tienen diferentes tamanos, util con una realizacion ejemplar.
Con referencia a la figura 19A, una unidad de codificacion de componente de luminancia actual A 190 tiene un tamano de 16x16, una unidad de codificacion de componente de luminancia izquierda B 191 tiene un tamano de 8 x 8, y una unidad de codificacion de componente de luminancia superior C 192 tiene un tamano de 4x4. Ademas, como se describe con referencia a la figura 13, los numeros de modos de intra prediccion utilizables en las unidades de codificacion de componente de luminancia que respectivamente tienen tamanos de 4x4, 8x8, y 16x16 son respectivamente 9, 9, y 33. Aqrn, puesto que los modos de intra prediccion utilizables en la unidad de codificacion de componente de luminancia izquierda B 191 y la unidad de codificacion de componente de luminancia superior C 192 son diferentes de los modos de intra prediccion utilizables en la unidad de codificacion de componente de luminancia actual A 190, un modo de intra prediccion predicho de las unidades de codificacion de componente de luminancia izquierda y superior B y C 191 y 192 no puede ser adecuado para el uso como un valor de prediccion del modo de intra prediccion de la unidad de codificacion de componente de luminancia actual A 190. Por consiguiente, en la
5
10
15
20
25
30
35
40
45
50
55
60
realizacion ejemplar actual, los modos de intra prediccion de las unidades de codificacion de componente de luminancia izquierda y superior B y C 191 y 192 se cambian respectivamente al primer y segundo modos de intra prediccion representativos en la direccion muy similar de entre un numero predeterminado de los modos de intra prediccion representativos, y uno de los primero y segundo modos de intra prediccion representativos, que tiene un valor de modo menor, se selecciona como un modo de intra prediccion representativo final. Luego, un modo de intra prediccion que tiene la direccion mas similar como el modo de intra prediccion representativo final se selecciona de entre los modos de intra prediccion utilizables en la unidad de codificacion de componente de luminancia actual A 190 como un modo de intra prediccion de la unidad de codificacion de componente de luminancia actual A 190.
Alternativamente, con referencia a la figura 19B, se asume que una unidad de codificacion de componente de luminancia actual A tiene un tamano de 16 x 16, una unidad de codificacion de componente de luminancia izquierda B tiene un 20 tamano de 32 x 32, y una unidad de codificacion de componente de luminancia superior C tiene un tamano de 8x8. Ademas, se asume que los numeros de modos de intra prediccion disponibles de las unidades de codificacion de componente de luminancia que tienen los tamanos de 8x8, 16 x 16, y 32 x 32 son respectivamente 9, 9, y 33. Ademas, se asume que un modo de intra prediccion de la unidad de codificacion de componente de luminancia izquierda B es un modo 4, y un modo de intra prediccion de la unidad de codificacion de componente de luminancia superior C es un modo 31. En este caso, puesto que los modos de intra prediccion de la unidad de codificacion de componente de luminancia izquierda B y la unidad de codificacion de componente de luminancia superior C no son compatibles entre sf, cada uno de los modos de intra prediccion de la unidad de codificacion de componente de luminancia izquierda B y la unidad de codificacion de componente de luminancia superior C se mapea a uno de los modos de intra prediccion representativos mostrados en la figura 20. Puesto que el modo 31, es decir el modo de intra prediccion de la unidad de codificacion de componente de luminancia izquierda B tiene una directividad de (dx,dy)=(4,- 3) como se muestra en la Tabla 1, se mapea un modo 5 que tiene una directividad mas similar a tan-1(-3/4) de entre los modos de intra prediccion representativos de la figura 20, y puesto que el modo de intra prediccion modo 4 de la unidad de codificacion de componente de luminancia superior C tiene la misma directividad como aquella del modo 4 de entre los modos de intra prediccion representativos de la figura 20, el modo 4 se mapea.
El modo 4 que tiene un valor de modo menor de entre el modo 5 que es el modo de intra prediccion mapeado de la unidad de codificacion de componente de luminancia izquierda B y el modo 4 que es el modo de intra prediccion mapeado de la unidad de codificacion de componente de luminancia superior C se pueden determinar para ser un valor de prediccion de un modo de intra prediccion de la unidad de codificacion de componente de luminancia actual, y solamente un valor de diferencia de modo entre un modo de intra prediccion actual y un modo de intra prediccion predicho de la unidad de codificacion de componente de luminancia actual se pueden codificar como informacion de modo de prediccion de la unidad de codificacion de componente de luminancia actual.
La figura 20 es un diagrama de referencia para explicar un procedimiento para mapear un modo de intra prediccion de una unidad de codificacion de componente de luminancia colindante a uno de los modos de intra prediccion representativos. En la figura 20, un modo vertical 0, un modo horizontal 1, un modo DC 2, un modo diagonal izquierdo 3, un modo diagonal derecho 4, un modo vertical derecho 5, un modo horizontal inferior 6, un modo vertical izquierdo 7, y un modo horizontal superior 8 se muestran como modos de intra prediccion representativos. Sin embargo, los modos de intra prediccion representativos no se limitan a esto, y se puede establecer que tienen diversas direccionalidades.
Con referencia a la figura 20, se establece un numero predeterminado de modos de intra prediccion representativos, y un modo de intra prediccion de una unidad de codificacion de componente de luminancia colindante se mapea como un modo de intra prediccion representativo que tiene la direccion mas similar. Por ejemplo, cuando un modo de intra prediccion de una unidad de codificacion de componente de luminancia superior tiene una direccionalidad indicada por MODOA 200, el modo de intra prediccion MODO_A 200 de la unidad de codificacion de componente de luminancia superior se mapea al modo 1 que tiene la direccion mas similar de entre los modos de intra prediccion representativos predeterminados 1 hasta 9. De manera similar, cuando un modo de intra prediccion de una unidad de codificacion de componente de luminancia izquierda tiene una direccionalidad indicada por MODO_B 201, el modo de intra prediccion MODO_B 201 de la unidad de codificacion de componente de luminancia izquierda se mapea al modo 5 que tiene la direccion mas similar de entre los modos de intra prediccion representativos predeterminados 1 hasta 9.
Luego, uno del primer y segundo modos de intra prediccion representativos que tiene un valor de modo menor se selecciona como un modo de intra prediccion representativo de una unidad de codificacion de componente de luminancia colindante final. Un modo de intra prediccion representativo que tiene un valor de modo menor se selecciona puesto que un valor de modo menor generalmente se establece para modos de intra prediccion que ocurren mas frecuentemente. En otras palabras, cuando diferentes modos de intra prediccion se predicen con base en las unidades de codificacion de componente de luminancia colindantes, un modo de intra prediccion que tiene un valor de modo menor es mas probable que ocurra. Por consiguiente, cuando diferentes modos de intra prediccion estan compitiendo entre sf, un modo de intra prediccion que tiene un valor de modo menor se puede seleccionar como un predictor o un modo de intra prediccion de la unidad de codificacion de componente de luminancia actual.
Aun cuando un modo de intra prediccion representativo se selecciona con base en las unidades de codificacion de
5
10
15
20
25
30
35
40
45
50
55
componente de luminancia colindantes, el modo de intra prediccion representativo seleccionado no se puede usar como un predictor de un modo de intra prediccion de una unidad de codificacion de componente de luminancia actual. Si la unidad de codificacion de componente de luminancia actual A 190 tiene 33 modos de intra prediccion, y un numero de modos de intra prediccion representativos es 9 como se describe con referencia a la figura 19, un modo de intra prediccion de la unidad de codificacion de componente de luminancia actual A 190, el cual corresponde al modo de intra prediccion representativo, no existe. En este caso, igual que el mapeo de un modo de intra prediccion de una unidad de codificacion de componente de luminancia colindante a un modo de intra prediccion representativo como se describio anteriormente, un modo de intra prediccion que tiene la direccion mas similar como un modo de intra prediccion representativo seleccionado de entre modos de intra prediccion de acuerdo con un tamano de la unidad de codificacion de componente de luminancia actual se puede seleccionar finamente como un predictor del modo de intra prediccion de la unidad de codificacion de componente de luminancia actual. Por ejemplo, cuando un modo de intra prediccion representativo finalmente seleccionado con base en las unidades de codificacion de componente de luminancia colindantes de la figura 20 es el modo 1, un modo de intra prediccion que tiene la direccionalidad mas similar a la direccionalidad del modo 1 se selecciona de entre los modos de intra prediccion utilizables de acuerdo con el tamano de la unidad de codificacion de componente de luminancia actual como un predictor del modo de intra prediccion de la unidad de codificacion de componente de luminancia actual.
Mientras tanto, como se describio con referencia a las figuras 16A a 16C, si un predictor para el pixel actual P se genera usando pixeles colindantes en o cercanos a la linea extendida 160, la lmea extendida 160 actualmente tiene una directividad de tan-1(dy/dx). Para calcular la directividad, puesto que la division (dy/dx) es necesaria, el calculo se hizo bajar a cifras decimales cuando se usa hardware o software, incrementando la cantidad del calculo. Por consiguiente, un procedimiento para establecer dx y dy se usa para reducir la cantidad de calculo cuando una direccion de prediccion para seleccionar pixeles colindantes a ser usados como pixeles de referencia acerca de un pixel en una unidad de codificacion se establece usando los parametros dx y dy en una manera similar a aquella descrita con referencia a la Tabla 1.
La figura 25 es un diagrama para explicar una relacion entre un pixel actual y pixeles colindantes ubicados en una lmea extendida que tiene una directividad de (dy/dx), util con una realizacion ejemplar.
Con referencia a la figura 25, se asume que una ubicacion del pixel actual P es P(j,i), y un pixel colindante superior y un pixel colindante izquierdo B ubicado en una lmea extendida 2510 que tiene una directividad, es decir, un gradiente, de tan-1(dy/dx) y que pasa a traves del pixel actual P son respectivamente A y B. Cuando se asume que las ubicaciones de pixeles colindantes superiores corresponden a un eje X en un plano de coordenadas, y las ubicaciones de pixeles colindantes corresponden a un eje y en la placa de coordenadas, el pixel colindante superior A se ubica en (j+l*dx/dy,0) y el pixel colindante izquierdo B se ubica en (0,i+j*dy/dx). Por consiguiente, para determinar cualquiera del pixel colindante superior A y el pixel colindante izquierdo B para predecir el pixel actual P, se requiere la division, tal como dx/dy o dy/dx. Tal division es muy compleja como se describio anteriormente, reduciendo una velocidad de calculo de software o hardware.
Por consiguiente, un valor de cualquiera de dx y dy que representa una directividad de un modo de prediccion para determinar pixeles colindantes se puede determinar que es una potencia de 2. Es decir, cuando n y m son enteros, dx y dy pueden ser 2An y 2Am, respectivamente.
Con referencia a la figura 25, si el pixel colindante izquierdo B se usa como un predictor para el pixel actual P y dx tiene un valor de 2An, j*dy/dx necesario para determinar (0,i+j*dy/dx) que es una ubicacion del pixel colindante izquierdo B llega a ser (j*dy/(2An)), y la division usando tal potencia de 2 se obtiene facilmente a traves de la operacion de desplazamiento como (j*dy)>>n, reduciendo la cantidad de calculo.
Igualmente, si el pixel colindante superior A se usa como un predictor para el pixel actual P y dy tiene un valor de 2Am, i*dx/dy necesario para determinar (j+i*dx/dy,0) que es una ubicacion del pixel colindante superior A llega a ser (i*dx)/(2Am), y la division usando tal potencia de 2 se obtiene facilmente a traves de la operacion de desplazamiento como (i*dx)>>m.
La figura 26 es un diagrama para explicar un cambio en un pixel colindante ubicado en una lmea extendida que tiene una directividad de (dx,dy) de acuerdo con una ubicacion de un pixel actual, util con una realizacion ejemplar.
Como un pixel colindante necesario para la prediccion de acuerdo con una ubicacion de un pixel actual, se selecciona cualquiera de un pixel colindante superior y un pixel colindante izquierdo.
Con referencia a la figura 26, cuando un pixel actual 2610 es P(j,i) y se predice usando un pixel colindante ubicado en una direccion de prediccion, un pixel superior A se usa para predecir el pixel actual P 2610. Cuando el pixel actual 2610 es Q(b,a), un pixel izquierdo B se usa para predecir el pixel actual Q 2620.
Si solamente un componente dy de una direccion del eje y de entre (di, dy) que representa una direccion de prediccion tiene una potencia de 2 como 2Am, mientras que el pixel superior A en la figura 26 se puede determinar a traves de la operacion de desplazamiento sin division tal como (j+(i*dx)>>m, 0), el pixel izquierdo B requiere la division tal como (0, a+b*2Am/dx). Por consiguiente, para excluir la division cuando se genera un predictor para todos los pixeles de un bloque actual, todos los dx y dy pueden tener un tipo de potencia de 2.
5
10
15
20
25
30
Las figuras 27 y 28 son diagramas para explicar un procedimiento para determinar una direccion de modo de intra prediccion, de acuerdo con realizaciones ejemplares.
En general, existen muchos casos donde los patrones lineales mostrados en una senal de video o imagen son verticales u horizontales. Por consiguiente, cuando los modos de intra prediccion que tienen varias directividades se definen usando los parametros dx y dy, la eficiencia de codificacion de imagen se puede mejorar definiendo los valores dx y dy como sigue.
En detalle, si dy tiene un valor fijo de 2Am, un valor absoluto de dx se puede establecer de modo que una distancia entre las direcciones de prediccion cercana a una direccion vertical es estrecha, y una distancia entre los modos de prediccion mas cercana a una direccion horizontal es mas amplia. Por ejemplo, con referencia a la figura 27, si dy tiene un valor de 2A4, es decir, 16, un valor de dx se puede establecer que sea 1, 2, 3, 4, 6, 9, 12, 16, 0, -1, -2, -3, -4, -6, -9, -12, y -16, de modo que una distancia entre las direcciones de prediccion cercana a una direccion vertical es estrecha y una distancia entre los modos de prediccion mas cercana a una direccion horizontal es mas amplia.
Igualmente, si dx tiene un valor fijo de 2An, un valor absoluto de dy se puede establecer de modo que una distancia entre las direcciones de prediccion cercana a una direccion horizontal es estrecha y una distancia entre los modos de prediccion mas cercana a una direccion vertical es mas amplia. Por ejemplo, con referencia a la figura 28, si dx tiene un valor de 2a4, es decir, 16, un valor de dy se puede establecer que sea 1, 2, 3, 4, 6, 9, 12, 16, 0, -1, -2, -3, -4, -6, -9, -12, y -16, de modo que una distancia entre las direcciones de prediccion cercana a una direccion horizontal es estrecha y una distancia entre los modos de prediccion mas cercana a una direccion vertical es mas amplia.
Ademas, cuando uno de los valores de dx y dy se fija, el valor restante se puede establecer que sea incrementado de acuerdo con un modo de prediccion. Por ejemplo, si dy se fija, una distancia entre dx se puede establecer que sea incrementada por un valor predeterminado. Ademas, un angulo de una direccion horizontal y una direccion vertical se puede dividir en unidades predeterminadas, y tal cantidad incrementada se puede establecer en cada uno de los angulos divididos. Por ejemplo, si dy se fija, un valor de dx se puede establecer que tiene una cantidad incrementada de a en una seccion menor de 15 grados, una cantidad incrementada de b en una seccion entre 15 grados y 30 grados, y una anchura incrementada de c en una seccion mayor que 30 grados. En este caso, para tener tal forma como se muestra en la figura 25, el valor de dx se puede establecer que satisfaga una relacion de a < b < c.
Por ejemplo, los modos de prediccion descritos con referencia a las figuras 25 a 28 se pueden definir como un modo de prediccion que tiene una directividad de tan_1(dy/dx) usando (dx,dy) como se muestra en las Tablas 2 a 4.
[Tabla 2]
dx
dy dx Dy dx dy
-32
32 21 32 32 13
-26
32 26 32 32 17
-21
32 32 32 32 21
-17
32 32 -26 32 26
-13
32 32 -21 32 32
-9
32 32 -17
-5
32 32 -13
-2
32 32 -9
0
32 32 -5
2
32 32 -2
5
32 32 0
9
32 32 2
13
32 32 5
17
32 32 9
[Tabla 3]
dx
dy dx dy dx dy
-32
32 19 32 32 10
-25
32 25 32 32 14
19
32 32 32 32
19
-14
32 32 -25 32 25
-10
32 32 -19 32 32
-6
32 32 -14
-3
32 32 -10
-1
32 32 -6
0
32 32 -3
1
32 32 -1
3
32 32 0
6
32 32 1
10
32 32 3
14
32 32 6
[Tabla 4]
dx
dy dx dy dx dy
-32
32 23 32 32 15
-27
32 27 32 32 19
-23
32 32 32 32 23
-19
32 32 -27 32 27
-15
32 32 -23 32 32
-11
32 32 -19
-7
32 32 -15
-3
32 32 -11
0
32 32 -7
3
32 32 -3
7
32 32 0
11
32 32 3
15
32 32 7
19
32 32 11
5
10
15
20
25
30
35
40
45
50
55
Por ejemplo, con referencia a la Tabla 2, un modo de prediccion que tiene una direccionalidad de tan-1(dy/dx) usando (dx, dy) representada como una de (-32, 32), (-26, 32), (-21, 32), (-17, 32), (-13, 32), (-9, 32), (-5, 32), (-2, 32), (0, 32), (2, 32), (5, 32), (9, 32), (13, 32), (17, 32), (21, 32), (26, 32), (32, 32), (32, -26), (32, -21), (32, -17), (32, -13), (32, -9), (32, -5), (32, -2), (32, 0), (32, 2), (32, 5), (32, 9), (32, 13), (32, 17), (32, 21), (32, 36) y (32, 32).
La figura 21 es un diagrama para explicar modos de intra prediccion candidatos aplicados a una unidad de codificacion de componente de crominancia, util con una realizacion ejemplar.
Con referencia a la figura 21, los modos de intra prediccion candidatos aplicados mientras se esta intra prediciendo una unidad de codificacion de componente de crominancia incluyen un modo vertical, un modo horizontal, un modo DC, un modo plano, y un modo de intra prediccion finalmente determinado por una unidad de codificacion de componente de luminancia correspondiente a una unidad de codificacion de componente de crominancia actual como se describio anteriormente. Ademas, como se describio anteriormente, una unidad de codificacion de componente de luminancia y una unidad de codificacion de componente de crominancia, las cuales son intra predichas, pueden ser una de las senales de imagen que tienen formatos de color de 4:2:0, 4:2:2, y 4:4:4 definidos en un campo de color YCbCr (o YUV). Un modo de intra prediccion que tiene un mmimo costo de entre una pluralidad de modos de intra prediccion utilizables se selecciona como un modo de intra prediccion de una unidad de codificacion de componente de luminancia, con base en el calculo de costo, tal como un costo R-D. Los costes de los modos de intra prediccion candidatos son cada uno calculados, y un modo de intra prediccion candidato que tiene un costo mmimo se selecciona como un modo de intra prediccion final de la unidad de codificacion de componente de crominancia.
La figura 22 es un diagrama de bloques de un aparato de intra prediccion 2200 de una imagen, util con una realizacion ejemplar. El aparato de intra prediccion 2200 de acuerdo con la realizacion actual de la presente invencion puede operar como un intra predictor 410 del codificador de imagen 400 de la figura 4, y el intra predictor 550 del decodificador de imagen 500 de la figura 5.
Con referencia a la figura 22, el aparato de intra prediccion 2200 incluye un intra predictor de luminancia 2210 y un intra predictor de crominancia 2220. Como se describio anteriormente, el intra predictor de luminancia 2210 selecciona modos de intra prediccion candidatos para ser aplicados de acuerdo con un tamano de una unidad de codificacion de componente de luminancia actual, con base en un tamano de cada division de unidad de codificacion de componente de luminancia de acuerdo con una unidad de codificacion maxima y una profundidad maxima, y aplica los modos de intra prediccion candidatos determinados a la unidad de codificacion de componente de luminancia actual para realizar la intra prediccion en la unidad de codificacion de componente de luminancia actual. El intra predictor de luminancia 2210 determina un modo de intra prediccion optimo que tiene un coste mmimo como un modo de intra prediccion final de la unidad de codificacion de componente de luminancia actual con base en los costos de acuerdo con un valor de error entre una unidad de codificacion de prediccion generada via intra prediccion, y una unidad de codificacion de componente de luminancia original.
El intra predictor de crominancia 2220 calcula los costes de acuerdo con un modo vertical, un modo horizontal, un modo DC, un modo plano, y el modo de intra prediccion final de la unidad de codificacion de componente de luminancia correspondiente a una unidad de codificacion de componente de crominancia actual, y determina un modo de intra prediccion que tiene un costo mmimo como un modo de intra prediccion final de la unidad de codificacion de componente de crominancia actual.
Mientras tanto, cuando el aparato de intra prediccion 2200 de la figura 22 se aplica a un aparato de decodificacion, los tamanos de las unidades de decodificacion de componente de crominancia y luminancia actuales se determinan usando una unidad de codificacion maxima e informacion de profundidad que constituye la informacion de division jerarquica de la unidad de codificacion maxima, que se extraen de una corriente de bits usando el decodificador de entropfa 520 de la figura 5, y un modo de intra prediccion que se realiza se determina usando informacion acerca de una informacion de modo de intra prediccion aplicada a las unidades de decodificacion de componente de crominancia y luminancia actuales. Ademas, el aparato de intra prediccion 2200 genera una unidad de decodificacion de prediccion realizando la intra prediccion en cada una de las unidades de decodificacion de componente de crominancia y luminancia de acuerdo con el modo de intra prediccion extrafdo. La unidad de decodificacion de prediccion se agrega a los datos residuales restaurados de una corriente de bits y, por consiguiente, se decodifican las unidades de decodificacion de componente de crominancia y luminancia actuales.
La figura 23 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra prediccion de una unidad de codificacion, util con una realizacion ejemplar.
Con referencia a la figura 23, un cuadro actual de un componente de luminancia se divide en al menos una unidad de codificacion de componente de luminancia con base en una unidad de codificacion maxima y una profundidad que constituye la informacion de division jerarquica de la unidad de codificacion maxima, en la operacion 2310.
En la operacion 2320, se determina un modo de intra prediccion de la unidad de codificacion de componente de luminancia. Como se describio anteriormente, el modo de intra prediccion de la unidad de codificacion de componente de luminancia se determina seleccionando modos de intra prediccion candidatos que se aplican con
5
10
15
20
25
30
35
40
45
base en un tamano de la unidad de codificacion de componente de luminancia, realizando la intra prediccion en la unidad de codificacion de componente de luminancia aplicando los modos de intra prediccion candidatos en una unidad de codificacion de componente de luminancia, y luego determinando un modo de intra prediccion optimo que tiene un costo mmimo como el modo de intra prediccion de la unidad de codificacion de componente de luminancia.
En la operacion 2330, se determinan los modos de intra prediccion candidatos de una unidad de codificacion de componente de crominancia, los cuales incluyen el modo de intra prediccion determinado de la unidad de codificacion de componente de luminancia. Como se describio anteriormente, los modos de intra prediccion candidatos aplicados a la unidad de codificacion de componente de crominancia incluyen, ademas del modo de intra prediccion determinado de la unidad de codificacion de componente de luminancia, un modo vertical, un modo horizontal, un modo CC, y un modo plano.
En la operacion 2340, los costes de la unidad de codificacion de componente de crominancia de acuerdo con los modos de intra prediccion candidatos determinados se comparan para determinar un modo de intra prediccion que tiene un costo mmimo.
La figura 24 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra prediccion de una unidad de decodificacion, de acuerdo con una realizacion ejemplar.
Con referencia a la figura 24, una unidad de codificacion maxima y una profundidad que constituye la informacion de division jerarquica de la unidad de codificacion maxima se extraen de una corriente de bits, en la operacion 2410.
En la operacion 2420, un cuadro actual a ser decodificado se divide en una unidad de decodificacion de componente de luminancia y una unidad de decodificacion de componente de crominancia, con base en la profundidad y unidad de codificacion maxima extrafda.
En la operacion 2430, la informacion acerca de los modos de intra prediccion aplicados a las unidades de decodificacion de componente de crominancia y luminancia se extrae de la corriente de bits.
En la operacion 2440, la intra prediccion se realiza en las unidades de decodificacion de componente de crominancia y luminancia de acuerdo con los modos de intra prediccion extrafdos, decodificando las unidades de decodificacion de componente de crominancia y luminancia.
De acuerdo con las realizaciones ejemplares, agregando el modo de intra prediccion de la unidad de codificacion de componente de luminancia que tiene diversa direccionalidad como el modo de intra prediccion de la unidad de codificacion de componente de crominancia, la eficiencia de prediccion de una imagen de un componente de crominancia, y la eficiencia de prediccion de una imagen completa se puede incrementar sin tener que incrementar un rendimiento.
Las realizaciones ejemplares se pueden incluir como programas de computadora y se pueden implementar en computadoras digitales de uso general que ejecutan los programas usando un medio de grabacion lefble por computadora. Los ejemplos del medio de grabacion legible por ordenador incluyen medios de almacenamiento magneticos (por ejemplo, ROM, discos flexibles, discos duros, etc.), medios de grabacion opticos (por ejemplo, CD- ROMs, o DVDs), y medios de almacenamiento.
Los aparatos de las realizaciones ejemplares pueden incluir un bus acoplado a cada unidad del aparato o codificador, al menos un procesador que se conecta al bus, el procesador para ejecutar comandos, y una memoria conectada al bus para almacenar los comandos, mensajes recibidos, y mensajes generados.
Aunque la presente invencion se ha mostrado y descrito particularmente con referencia a las realizaciones ejemplares, se entendera por aquellos de experiencia en el arte que varios cambios en la forma y detalles se pueden hacer en la presente sin apartarse del alcance de la invencion como se define por las reivindicaciones adjuntas. Las realizaciones ejemplares se deben considerar en un sentido descriptivo solamente y no para propositos de limitacion. Por lo tanto, el alcance de la invencion se define no por la descripcion detallada de la invencion sino por las reivindicaciones anexas, y todas las diferencias dentro del alcance se construiran como incluidas en la presente invencion.

Claims (2)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    REIVINDICACIONES
    1. Un procedimiento de decodificacion de una imagen, comprendiendo el procedimiento:
    obtener una primera informacion que indica un modo de intra prediccion de un bloque de luminancia a partir de un flujo de bits;
    obtener una segunda informacion que indica un modo de intra prediccion de un bloque de crominancia correspondiente al bloque de luminancia a partir del flujo de bits;
    cuando la segunda informacion indica que el modo de intra prediccion del bloque de crominancia es igual al modo de intra prediccion del bloque de luminancia, determinar el modo de intra prediccion del bloque de crominancia para ser igual al modo de intra prediccion del bloque de luminancia;
    realizar una intra prediccion en el bloque de luminancia en base al modo de intra prediccion del bloque de luminancia; y
    realizar una intra prediccion en el bloque de crominancia en base al modo de intra prediccion del bloque de crominancia,
    en el que el modo de intra prediccion del bloque de luminancia incluye una direccion particular entre una pluralidad de direcciones y la direccion particular se indica por uno de numero dx en una direccion horizontal y un valor fijo en una direccion vertical y numero dy en la direccion vertical y un valor fijo en la direccion horizontal, donde el numero dx y el numero dy son numeros enteros de acuerdo con el modo de intra prediccion del bloque de luminancia, en el que la realizacion de una intra prediccion en el bloque de luminancia comprende: determinar un numero de pfxeles vecinos que se obtendran de acuerdo con una posicion de un pixel actual y la direccion particular indicada por el modo de intra prediccion del bloque de luminancia, estando situados los pfxeles vecinos en un lado izquierdo del bloque de luminancia o un lado superior del bloque de luminancia;
    cuando el numero de los pfxeles vecinos es 1, el interprete de intra prediccion obtiene un valor de prediccion del pixel actual basado en el pixel vecino determinando el valor de prediccion del pixel actual como un valor de pixel del pixel vecino; y
    cuando el numero de los pfxeles vecinos es 2, se obtiene el valor de prediccion del pixel actual en base a un promedio ponderado de los pfxeles vecinos, obteniendose el promedio ponderado multiplicando ponderaciones a cada uno de dos pfxeles vecinos y promediando el valor multiplicado, determinandose las ponderaciones en base a la direccion particular, y a la ubicacion de los dos pfxeles vecinos,
    en el que, cuando la segunda informacion indica que el modo de intra prediccion del bloque de crominancia es igual al modo de intra prediccion del bloque de luminancia, se determina que el modo de intra prediccion del bloque de crominancia es igual al modo de intra prediccion del bloque de luminancia,
    en el que la imagen se divide en una pluralidad de unidades de codificacion maxima de acuerdo con informacion sobre el tamano maximo de una unidad de codificacion, una unidad de codificacion maxima se divide en una pluralidad de unidades de codificacion usando una informacion de division y una informacion de profundidad que indica el numero de veces que la unidad de codificacion se divide espacialmente de la unidad de codificacion maxima,
    una unidad de codificacion maxima de componente de luminancia y una unidad de codificacion maxima de componente de crominancia entre la pluralidad de unidades de codificacion maximas se dividen jerarquicamente en una o mas unidades de codificacion de componentes de luminancia de profundidad y una o mas unidades de codificacion de componentes de crominancia de profundidad que incluyen al menos uno de profundidad actual y una profundidad inferior, respectivamente de acuerdo con la informacion de division,
    cuando la informacion dividida indica una division para la profundidad actual, una unidad de codificacion de la profundidad actual se divide en cuatro unidades de codificacion de la profundidad inferior, independientemente de las unidades de codificacion vecinas, cuando la informacion de division indica una no division para la profundidad actual, se obtienen una o mas unidades de prediccion a partir de la unidad de codificacion de la profundidad actual, y en el que el bloque de luminancia es una unidad de prediccion obtenida a partir de la unidad de codificacion de la profundidad actual,
    en el que el numero dx y el numero dy son uno del valor seleccionado entre {32, 26, 21, 17, 13, 9, 5, 2, 0, -2, -5, -9, - 13, -17, -21, -26} de acuerdo con el modo de intra prediccion del bloque de luminancia, y el valor fijo es potencia de
  2. 2.
ES15160769.4T 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen Active ES2640629T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100031145 2010-04-05
KR1020100031145A KR101503269B1 (ko) 2010-04-05 2010-04-05 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2640629T3 true ES2640629T3 (es) 2017-11-03

Family

ID=44709661

Family Applications (6)

Application Number Title Priority Date Filing Date
ES15160768.6T Active ES2644037T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES11766126.4T Active ES2572640T3 (es) 2010-04-05 2011-04-05 Procedimiento de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160770.2T Active ES2644039T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160767.8T Active ES2644036T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES17188268T Active ES2744279T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160769.4T Active ES2640629T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen

Family Applications Before (5)

Application Number Title Priority Date Filing Date
ES15160768.6T Active ES2644037T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES11766126.4T Active ES2572640T3 (es) 2010-04-05 2011-04-05 Procedimiento de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160770.2T Active ES2644039T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160767.8T Active ES2644036T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES17188268T Active ES2744279T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen

Country Status (24)

Country Link
US (8) US8619858B2 (es)
EP (6) EP2905962B1 (es)
JP (7) JP5883846B2 (es)
KR (1) KR101503269B1 (es)
CN (8) CN107426569B (es)
AU (1) AU2011239130C1 (es)
BR (5) BR112012025310B1 (es)
CA (5) CA2884486C (es)
CY (5) CY1117535T1 (es)
DK (5) DK2545713T3 (es)
ES (6) ES2644037T3 (es)
HR (5) HRP20160526T1 (es)
HU (6) HUE029176T2 (es)
LT (4) LT2903275T (es)
MX (1) MX2012011563A (es)
MY (6) MY186576A (es)
PL (6) PL2903273T3 (es)
PT (4) PT2903274T (es)
RS (5) RS56437B1 (es)
RU (6) RU2542884C2 (es)
SI (5) SI2903275T1 (es)
SM (1) SMT201600140B (es)
WO (1) WO2011126275A2 (es)
ZA (6) ZA201208296B (es)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503269B1 (ko) 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
CA2813191A1 (en) * 2010-10-01 2012-04-05 Samsung Electronics Co., Ltd. Image intra prediction method and apparatus
KR101789478B1 (ko) 2011-03-06 2017-10-24 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
US20140044347A1 (en) * 2011-04-25 2014-02-13 Sharp Kabushiki Kaisha Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
KR101753551B1 (ko) * 2011-06-20 2017-07-03 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램을 저장한 기록매체
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
ES2961936T3 (es) 2011-06-24 2024-03-14 Mitsubishi Electric Corp Aparato de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
PL2728861T3 (pl) * 2011-07-02 2017-12-29 Samsung Electronics Co., Ltd. Sposób i urządzenie do multipleksowania i demultipleksowania danych wideo w celu identyfikowania stanu odtwarzania danych wideo
WO2013023518A1 (en) * 2011-08-17 2013-02-21 Mediatek Singapore Pte. Ltd. Method and apparatus for intra prediction using non-square blocks
US9787982B2 (en) 2011-09-12 2017-10-10 Qualcomm Incorporated Non-square transform units and prediction units in video coding
JP5869681B2 (ja) * 2011-10-07 2016-02-24 パンテック カンパニー リミテッド 候補画面内予測モードを利用した画面内予測モードの符号化/復号化方法及び装置
US9699457B2 (en) 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
JP6034010B2 (ja) * 2011-10-24 2016-11-30 ソニー株式会社 符号化装置、符号化方法、およびプログラム
US9247254B2 (en) * 2011-10-27 2016-01-26 Qualcomm Incorporated Non-square transforms in intra-prediction video coding
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
CN110809157B (zh) * 2012-01-18 2023-05-02 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
US11039138B1 (en) 2012-03-08 2021-06-15 Google Llc Adaptive coding of prediction modes using probability distributions
US20130251028A1 (en) * 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
WO2013152736A1 (en) * 2012-04-12 2013-10-17 Mediatek Singapore Pte. Ltd. Method and apparatus for block partition of chroma subsampling formats
US9912944B2 (en) * 2012-04-16 2018-03-06 Qualcomm Incorporated Simplified non-square quadtree transforms for video coding
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9426466B2 (en) * 2012-06-22 2016-08-23 Qualcomm Incorporated Transform skip mode
US9774856B1 (en) 2012-07-02 2017-09-26 Google Inc. Adaptive stochastic entropy coding
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
CN103634603B (zh) 2012-08-29 2017-07-07 中兴通讯股份有限公司 视频编解码方法、装置及系统
KR102134367B1 (ko) 2012-09-10 2020-07-15 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호화 방법, 화상 부호화 장치, 화상 복호화 장치, 및 화상 부호화 복호화 장치
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
JP6137817B2 (ja) * 2012-11-30 2017-05-31 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
CN103929650B (zh) * 2013-01-10 2017-04-12 乐金电子(中国)研究开发中心有限公司 一种深度编码单元编码方法、解码方法、编码器及解码器
KR101475286B1 (ko) * 2013-01-18 2014-12-23 연세대학교 산학협력단 인트라 예측 방법 및 장치, 그리고 영상 처리 장치
KR101436949B1 (ko) * 2013-01-18 2014-09-03 연세대학교 산학협력단 영상 인코딩 방법 및 장치, 그리고 영상 처리 장치
US9509998B1 (en) 2013-04-04 2016-11-29 Google Inc. Conditional predictive multi-symbol run-length coding
US9774872B2 (en) * 2013-04-05 2017-09-26 Mitsubishi Electric Corporation Color image encoding device, color image decoding device, color image encoding method, and color image decoding method
US10003792B2 (en) * 2013-05-27 2018-06-19 Microsoft Technology Licensing, Llc Video encoder for images
US20150016516A1 (en) * 2013-07-15 2015-01-15 Samsung Electronics Co., Ltd. Method for intra prediction improvements for oblique modes in video coding
US9392288B2 (en) 2013-10-17 2016-07-12 Google Inc. Video coding using scatter-based scan tables
US9179151B2 (en) 2013-10-18 2015-11-03 Google Inc. Spatial proximity context entropy coding
KR101519557B1 (ko) * 2013-12-27 2015-05-13 연세대학교 산학협력단 고속 화면 내 예측 부호화 방법 및 그 장치
WO2015100731A1 (en) * 2014-01-03 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for determining the prediction partitions
CN105359531B (zh) 2014-03-17 2019-08-06 微软技术许可有限责任公司 用于针对屏幕内容编码的编码器侧判定的方法和系统
JP6330507B2 (ja) * 2014-06-19 2018-05-30 ソニー株式会社 画像処理装置及び画像処理方法
WO2015200822A1 (en) * 2014-06-26 2015-12-30 Huawei Technologies Co., Ltd Method and device for reducing a computational load in high efficiency video coding
CN105812795B (zh) * 2014-12-31 2019-02-12 浙江大华技术股份有限公司 一种最大编码单元的编码模式的确定方法和装置
WO2016123792A1 (en) 2015-02-06 2016-08-11 Microsoft Technology Licensing, Llc Skipping evaluation stages during media encoding
CN104853192B (zh) 2015-05-08 2018-02-13 腾讯科技(深圳)有限公司 预测模式选择方法及装置
US10038917B2 (en) 2015-06-12 2018-07-31 Microsoft Technology Licensing, Llc Search strategies for intra-picture prediction modes
US10009620B2 (en) 2015-06-22 2018-06-26 Cisco Technology, Inc. Combined coding of split information and other block-level parameters for video coding/decoding
US10003807B2 (en) * 2015-06-22 2018-06-19 Cisco Technology, Inc. Block-based video coding using a mixture of square and rectangular blocks
US10136132B2 (en) 2015-07-21 2018-11-20 Microsoft Technology Licensing, Llc Adaptive skip or zero block detection combined with transform size decision
CN107306353B (zh) * 2016-04-19 2020-05-01 广州市动景计算机科技有限公司 图像空间预测模式选择方法及装置、图像压缩方法及设备
JP6669622B2 (ja) * 2016-09-21 2020-03-18 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
CN117395408A (zh) * 2016-10-04 2024-01-12 韩国电子通信研究院 对图像进行编码/解码的方法和设备以及记录介质
EP3306922A1 (en) * 2016-10-05 2018-04-11 Thomson Licensing Method and apparatus for encoding a picture using rate-distortion based block splitting
EP3316578A1 (en) * 2016-10-25 2018-05-02 Thomson Licensing Method and apparatus for encoding and decoding a picture
WO2018124686A1 (ko) * 2016-12-26 2018-07-05 에스케이텔레콤 주식회사 인트라 예측을 이용한 영상의 부호화 및 복호화
WO2018131838A1 (ko) * 2017-01-11 2018-07-19 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
KR102310730B1 (ko) * 2017-03-22 2021-10-12 한국전자통신연구원 블록 형태에 기반한 예측 방법 및 장치
CN107071417B (zh) * 2017-04-10 2019-07-02 电子科技大学 一种用于视频编码的帧内预测方法
KR20190045885A (ko) 2017-10-24 2019-05-03 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치
WO2019126163A1 (en) * 2017-12-18 2019-06-27 Arris Enterprises, Inc. System and method for constructing a plane for planar prediction
CN117834856A (zh) 2018-04-24 2024-04-05 三星电子株式会社 视频编码方法和装置以及视频解码方法和装置
CN108737819B (zh) * 2018-05-20 2021-06-11 北京工业大学 一种基于四叉树二叉树结构的灵活编码单元划分方法
TWI829721B (zh) * 2018-07-15 2024-01-21 大陸商北京字節跳動網絡技術有限公司 跨分量幀內預測模式導出
CA3112936A1 (en) * 2018-09-07 2020-03-12 Ki Baek Kim Image encoding/decoding method and device
CN113170126A (zh) 2018-11-08 2021-07-23 Oppo广东移动通信有限公司 视频信号编码/解码方法以及用于所述方法的设备
EP3881549B1 (en) * 2018-12-21 2024-03-06 Huawei Technologies Co., Ltd. Method and apparatus of mode- and size-dependent block-level restrictions
WO2020135206A1 (en) * 2018-12-29 2020-07-02 Zhejiang Dahua Technology Co., Ltd. Systems and methods for intra prediction
CN116647678A (zh) 2018-12-29 2023-08-25 浙江大华技术股份有限公司 帧内预测方法、编码器及存储装置
KR20210108389A (ko) 2019-01-02 2021-09-02 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 크로마 인트라 예측 방법, 장치 및 컴퓨터 저장 매체
CN110213586B (zh) * 2019-06-10 2021-03-05 杭州电子科技大学 一种vvc帧内预测角度模式快速选择方法
WO2020262963A1 (ko) * 2019-06-24 2020-12-30 엘지전자 주식회사 크로마 블록의 최대 변환 크기 설정을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN115767087A (zh) 2019-08-14 2023-03-07 Lg电子株式会社 图像编解码方法、发送比特流的方法和记录介质
US11962784B2 (en) 2020-09-23 2024-04-16 Ofinno, Llc Intra prediction
WO2023050370A1 (zh) * 2021-09-30 2023-04-06 Oppo广东移动通信有限公司 帧内预测的方法、解码器、编码器和编解码系统
CN114885164B (zh) * 2022-07-12 2022-09-30 深圳比特微电子科技有限公司 确定帧内预测模式的方法、装置及电子设备和存储介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830959B2 (en) 2003-12-26 2010-11-09 Electronics And Telecommunications Research Institute Apparatus and method for performing intra prediction for image decoder
EP1558040A1 (en) * 2004-01-21 2005-07-27 Thomson Licensing S.A. Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding
US8082419B2 (en) * 2004-03-30 2011-12-20 Intel Corporation Residual addition for video software techniques
KR100813958B1 (ko) * 2004-06-07 2008-03-14 세종대학교산학협력단 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치
US7430238B2 (en) * 2004-12-10 2008-09-30 Micronas Usa, Inc. Shared pipeline architecture for motion vector prediction and residual decoding
US7970219B2 (en) * 2004-12-30 2011-06-28 Samsung Electronics Co., Ltd. Color image encoding and decoding method and apparatus using a correlation between chrominance components
US8290057B2 (en) * 2005-02-18 2012-10-16 Mediatek Incorporation Method of decoding a digital video sequence and related apparatus
KR100763178B1 (ko) * 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP4050754B2 (ja) * 2005-03-23 2008-02-20 株式会社東芝 ビデオエンコーダ及び動画像信号の符号化方法
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
EP1753242A2 (en) * 2005-07-18 2007-02-14 Matsushita Electric Industrial Co., Ltd. Switchable mode and prediction information coding
KR101441269B1 (ko) * 2005-09-26 2014-09-18 미쓰비시덴키 가부시키가이샤 동화상 복호 장치 및 동화상 복호 방법
KR100727991B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR20070077609A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
CN101385356B (zh) * 2006-02-17 2011-01-19 汤姆森许可贸易公司 采用帧内预测模式的图像编码方法
KR101330630B1 (ko) 2006-03-13 2013-11-22 삼성전자주식회사 최적인 예측 모드를 적응적으로 적용하여 동영상을부호화하는 방법 및 장치, 동영상을 복호화하는 방법 및장치
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
US20080170624A1 (en) * 2007-01-12 2008-07-17 Mitsubishi Electric Corporation Image encoding device and image encoding method
US8630346B2 (en) * 2007-02-20 2014-01-14 Samsung Electronics Co., Ltd System and method for introducing virtual zero motion vector candidates in areas of a video sequence involving overlays
US8995522B2 (en) * 2007-04-13 2015-03-31 Apple Inc. Method and system for rate control
US20080285652A1 (en) * 2007-05-14 2008-11-20 Horizon Semiconductors Ltd. Apparatus and methods for optimization of image and motion picture memory access
KR101362757B1 (ko) * 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
KR101291196B1 (ko) * 2008-01-25 2013-07-31 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
JP2010035137A (ja) * 2008-07-01 2010-02-12 Sony Corp 画像処理装置および方法、並びにプログラム
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8275208B2 (en) * 2008-07-02 2012-09-25 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using image separation based on bit location
JP5639056B2 (ja) * 2008-08-19 2014-12-10 トムソン ライセンシングThomson Licensing 輝度評価
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101503269B1 (ko) 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
KR101753551B1 (ko) * 2011-06-20 2017-07-03 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램을 저장한 기록매체
JP6070692B2 (ja) * 2012-03-30 2017-02-01 ソニー株式会社 画像処理装置および方法、並びに、プログラム
WO2014003423A1 (ko) * 2012-06-29 2014-01-03 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US9374592B2 (en) * 2012-09-08 2016-06-21 Texas Instruments Incorporated Mode estimation in pipelined architectures

Also Published As

Publication number Publication date
RU2014153748A (ru) 2016-07-20
CY1119623T1 (el) 2018-04-04
DK2903274T3 (en) 2017-10-02
CN104811701A (zh) 2015-07-29
CY1119621T1 (el) 2018-04-04
US20150117533A1 (en) 2015-04-30
ES2644039T3 (es) 2017-11-27
CA2795475C (en) 2017-02-14
EP2903273B1 (en) 2017-10-11
DK2905962T3 (en) 2017-10-30
CN102934446A (zh) 2013-02-13
US10432948B2 (en) 2019-10-01
RU2595947C2 (ru) 2016-08-27
LT2903273T (lt) 2017-11-10
AU2011239130B2 (en) 2014-11-06
SMT201600140B (it) 2016-07-01
PL2903275T3 (pl) 2017-12-29
WO2011126275A2 (en) 2011-10-13
RU2014153752A (ru) 2016-07-20
US20170374370A1 (en) 2017-12-28
ZA201500719B (en) 2016-01-27
KR101503269B1 (ko) 2015-03-17
MY186589A (en) 2021-07-29
CY1119617T1 (el) 2018-04-04
JP2018157580A (ja) 2018-10-04
CA2884205C (en) 2017-12-12
CN104767996A (zh) 2015-07-08
HUE036050T2 (hu) 2018-06-28
LT2903275T (lt) 2017-11-10
MY186574A (en) 2021-07-27
EP2905962B1 (en) 2017-10-11
JP2015180090A (ja) 2015-10-08
EP2903275A1 (en) 2015-08-05
CN104780365A (zh) 2015-07-15
EP2545713B1 (en) 2016-05-18
PL2545713T3 (pl) 2016-10-31
RU2595949C2 (ru) 2016-08-27
EP2903274A1 (en) 2015-08-05
SI2905962T1 (sl) 2017-11-30
JP5883846B2 (ja) 2016-03-15
EP2545713A4 (en) 2013-08-07
US20150117532A1 (en) 2015-04-30
ZA201500715B (en) 2016-01-27
CN104768002B (zh) 2017-09-22
ZA201500716B (en) 2016-01-27
US20170223364A1 (en) 2017-08-03
US20130329793A1 (en) 2013-12-12
CA2884537A1 (en) 2011-10-13
SI2903275T1 (sl) 2017-11-30
CN104780365B (zh) 2018-09-18
AU2011239130C1 (en) 2015-04-16
CN104768002A (zh) 2015-07-08
CN104780366B (zh) 2018-09-18
PL2905962T3 (pl) 2017-12-29
BR122020016354B1 (pt) 2022-02-15
JP2015180088A (ja) 2015-10-08
PT2905962T (pt) 2017-10-23
MY186587A (en) 2021-07-28
RU2014153849A (ru) 2016-07-20
PL2903273T3 (pl) 2018-01-31
MX2012011563A (es) 2012-12-17
PL3280140T3 (pl) 2019-11-29
DK2545713T3 (da) 2016-05-30
HRP20171545T1 (hr) 2017-11-17
MY164324A (en) 2017-12-15
PT2903274T (pt) 2017-09-22
CN104767996B (zh) 2018-06-05
JP2015180087A (ja) 2015-10-08
SI2903274T1 (sl) 2017-10-30
JP2017063507A (ja) 2017-03-30
RU2595946C2 (ru) 2016-08-27
WO2011126275A3 (en) 2012-01-26
ES2572640T3 (es) 2016-06-01
BR122020016355B1 (pt) 2022-02-08
AU2011239130A1 (en) 2012-11-01
US9794577B2 (en) 2017-10-17
HUE029176T2 (en) 2017-02-28
CY1117535T1 (el) 2017-04-26
HUE046784T2 (hu) 2020-03-30
RU2595950C2 (ru) 2016-08-27
CA2884537C (en) 2017-08-22
SI2545713T1 (sl) 2016-08-31
EP2545713A2 (en) 2013-01-16
CN104780366A (zh) 2015-07-15
ES2744279T3 (es) 2020-02-24
CA2884486A1 (en) 2011-10-13
US9667974B2 (en) 2017-05-30
DK2903273T3 (en) 2017-10-30
PT2903275T (pt) 2017-10-23
RU2014153750A (ru) 2016-07-20
CA2884205A1 (en) 2011-10-13
RS56358B1 (sr) 2017-12-29
RU2014153851A (ru) 2015-06-10
JP2013524675A (ja) 2013-06-17
EP2903275B1 (en) 2017-10-11
CN104780364B (zh) 2019-04-05
HRP20171387T1 (hr) 2017-11-03
HUE035945T2 (hu) 2018-06-28
RS56438B1 (sr) 2018-01-31
US8619858B2 (en) 2013-12-31
BR112012025310A2 (pt) 2016-06-28
EP3280140A1 (en) 2018-02-07
SI2903273T1 (sl) 2017-11-30
HRP20160526T1 (hr) 2016-06-17
RU2542884C2 (ru) 2015-02-27
JP6673976B2 (ja) 2020-04-01
CA2884486C (en) 2017-03-14
KR20110111854A (ko) 2011-10-12
DK2903275T3 (da) 2017-11-06
EP2903274B1 (en) 2017-09-13
CA2884540A1 (en) 2011-10-13
ES2644036T3 (es) 2017-11-27
MY186586A (en) 2021-07-28
HUE035944T2 (hu) 2018-06-28
LT2903274T (lt) 2017-09-25
HRP20171546T1 (hr) 2017-11-17
PT2903273T (pt) 2017-10-24
BR112012025310B1 (pt) 2022-02-15
CA2795475A1 (en) 2011-10-13
CA2884540C (en) 2017-03-14
BR122021005439B1 (pt) 2022-02-08
BR122021005440B1 (pt) 2022-02-08
ZA201500717B (en) 2016-02-24
US9967572B2 (en) 2018-05-08
RS56437B1 (sr) 2018-01-31
RU2012146757A (ru) 2014-06-20
ZA201500718B (en) 2017-04-26
RS54757B1 (sr) 2016-10-31
LT2905962T (lt) 2017-11-10
US8964840B2 (en) 2015-02-24
CN107426569B (zh) 2020-07-28
MY186576A (en) 2021-07-27
CN104811701B (zh) 2018-11-23
CN107426569A (zh) 2017-12-01
HRP20171544T1 (hr) 2017-12-01
CY1119347T1 (el) 2018-02-14
JP6343038B2 (ja) 2018-06-13
PL2903274T3 (pl) 2017-11-30
CN104780364A (zh) 2015-07-15
HUE036255T2 (hu) 2018-06-28
EP3280140B1 (en) 2019-08-14
EP2905962A1 (en) 2015-08-12
RS56439B1 (sr) 2018-01-31
EP2903273A1 (en) 2015-08-05
US20180227583A1 (en) 2018-08-09
ES2644037T3 (es) 2017-11-27
US20150124881A1 (en) 2015-05-07
ZA201208296B (en) 2015-06-24
RU2608397C2 (ru) 2017-01-18
US20110243225A1 (en) 2011-10-06
JP2015180089A (ja) 2015-10-08
CN102934446B (zh) 2017-09-12

Similar Documents

Publication Publication Date Title
ES2640629T3 (es) Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
JP6646078B2 (ja) 映像符号化方法、装置、及び記録媒体
ES2780126T3 (es) Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES2533305T3 (es) Aparato de decodificación de imagen
ES2767966T3 (es) Codificación de intra-predicción bajo representaciones planas
ES2646173T3 (es) Procedimiento de decodificación de una imagen mediante intra-predicción
ES2691979T3 (es) Aparato para decodificar imágenes