ES2744279T3 - Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen - Google Patents

Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen Download PDF

Info

Publication number
ES2744279T3
ES2744279T3 ES17188268T ES17188268T ES2744279T3 ES 2744279 T3 ES2744279 T3 ES 2744279T3 ES 17188268 T ES17188268 T ES 17188268T ES 17188268 T ES17188268 T ES 17188268T ES 2744279 T3 ES2744279 T3 ES 2744279T3
Authority
ES
Spain
Prior art keywords
unit
intra prediction
prediction mode
luminance component
coding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17188268T
Other languages
English (en)
Inventor
Jung-Hye Min
Elena Alshina
Woo-Jin Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2744279T3 publication Critical patent/ES2744279T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Abstract

Un procedimiento para codificar una imagen, comprendiendo el procedimiento: dividir una imagen actual en una pluralidad de unidades de codificación máximas, teniendo cada unidad de codificación un tamaño máximo de acuerdo con la información sobre un tamaño máximo de la unidad de codificación, en el que una unidad de codificación máxima se divide en una pluralidad de unidades de codificación usando una información de profundidad que indica el número de veces que la unidad de codificación se divide espacialmente de la unidad de codificación máxima; dividir una unidad de codificación máxima del componente de luminancia y una unidad de codificación máxima del componente de crominancia de la imagen actual en una o varias unidades de codificación del componente de luminancia y una o varias unidades de codificación del componente de crominancia, respectivamente de acuerdo con la información dividida; realizar predicciones intra en una unidad de predicción de componentes de luminancia y una unidad de predicción de componentes de crominancia; determinar una primera información del modo de predicción intra que indica un modo de predicción intra aplicado a la unidad de predicción del componente de luminancia incluida en una unidad de codificación del componente de luminancia; determinar una segunda información del modo de predicción intra que indica un modo de predicción intra aplicado a la unidad de predicción del componente de crominancia correspondiente a la unidad de predicción del componente de luminancia, el modo de predicción intra aplicado a la unidad de predicción del componente de crominancia se determina entre los modos de predicción intra candidatos que incluyen el modo de predicción intra determinado aplicado a la unidad de predicción del componente de luminancia; y codificar la primera información del modo predicción intra y la segunda información del modo predicción intra, en el que el modo de predicción intra indica una dirección particular entre una pluralidad de direcciones, la dirección particular se indica mediante el número dx en una dirección horizontal y el número dy en la dirección vertical, en el que dx número y número dy son enteros, y en el que, cuando el modo de predicción intra de la unidad de predicción del componente de crominancia es igual al modo de predicción intra de la unidad de predicción del componente de luminancia, la segunda información del modo de predicción intra se establece para indicar que el modo de predicción intra de la unidad de predicción del componente de crominancia es igual al modo de predicción intra de la unidad de predicción del componente de luminancia.

Description

DESCRIPCIÓN
Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen Campo de la Invención
Las realizaciones ejemplares se refieren a codificar una imagen, y más particularmente, a procedimientos y aparatos para codificar una imagen, en el que la predicción intra se realiza sobre una unidad de componente de crominancia aplicando un modo de predicción intra determinado para una unidad de codificación de componente de crominancia.
Antecedentes de la Invención
En un procedimiento de compresión de imágenes, tal como Grupo de Expertos en Imágenes Móviles (MPEG-1), MPEG-2, MPEG-4, o Codificación Avanzada de Video (AVC) H.264/MPEG-4, un cuadro se divide en macrobloques para codificar una imagen. Cada uno de los macrobloques se codifica en todos los modos de codificación que se pueden usar en inter predicción o intra predicción, y luego se codifica en un modo de codificación que se selecciona de acuerdo con una tasa de bits usada para codificar el macrobloque y un grado de distorsión de un macrobloque decodificado con base en el macrobloque original.
Mientras un hardware para reproducir y almacenar contenido de video de alta resolución o alta calidad está siendo desarrollado y suministrado, existe una necesidad incrementada de un códec de video capaz de codificar o decodificar efectivamente el contenido de video de alta resolución o alta calidad. En un códec de video convencional, un video se codifica en unidades de macrobloques cada uno teniendo un tamaño predeterminado.
Kim J y col.: "New intra chroma prediction using inter channel correlation", n° JCTVC-B021, XP030007601, describe un nuevo modo de predicción de intracroma que usa la correlación entre muestras de croma y luma. En el procedimiento propuesto, las muestras de croma se predicen desde las muestras de luma reconstruidas alrededor del bloque de predicción modelando las muestras de croma como una función lineal de muestras de luma.
Wiegand T y col.: "High Efficiency Video Coding (HEVC) text specification Working Draft 1", n° JCTVC-C403, XP030008032, es un borrador 1 de High Efficiency Video Coding.
La publicación de patente WO2006/112653 A1 describe un procedimiento y un aparato de decodificación de imágenes en movimiento con eficacia de codificación mejorada. Un procedimiento de codificación de imágenes en movimiento incluye seleccionar un espacio de color entre una pluralidad de espacios de color, seleccionar un modo de predicción que se aplicará comúnmente a todos los componentes de color que constituyen el espacio de color seleccionado, generar primeros datos residuales correspondientes a diferencias entre una imagen actual y una imagen predicha para cada uno de los componentes de color de acuerdo con el modo de predicción seleccionado, generar segundos datos residuales correspondientes a diferencias entre los primeros datos residuales y codificar los segundos datos residuales.
Sang Heon Lee y col.: "Intra prediction method based on the linear relationship between the channels for YUV 4:2:0 intra coding", XP031628426, describe un procedimiento de predicción de crominancia intra para compresión de color de imagen en espacio de color YUV 4:2:0. Se predice un bloque de píxeles de crominancia a codificar a partir de la señal de luminancia reconstruida usando el esquema de predicción propuesto y el residuo se codifica según el H.264/AVC.
Divulgación
Problema técnico
En un códec de video convencional, un video se codifica en unidades de macrobloques cada uno tiene un tamaño predeterminado. Además, en un códec de video convencional, se limita la directividad del modo intra.
Solución técnica
Las realizaciones ejemplares incluyen un procedimiento para determinar un modo de predicción intra de una unidad de codificación de componente de luminancia que tiene varias direccionalidades basadas en unidades de codificación jerárquicas que tienen diversos tamaños y métodos y aparatos para codificar una imagen, en el que la predicción intra se realiza sobre una unidad de codificación de componente de crominancia de acuerdo con los posibles modos de predicción intra incluyendo un modo de predicción intra determinado para una unidad de codificación de componentes de luminancia.
Efectos ventajosos
De acuerdo con las realizaciones ejemplares, agregando el modo de intra predicción de la unidad de codificación de componente de luminancia que tiene diversa direccionalidad como el modo de intra predicción de la unidad de codificación de componente de crominancia, la eficiencia de predicción de una imagen de un componente de crominancia, y la eficiencia de predicción de una imagen completa se pueden incrementar sin tener que incrementar un rendimiento.
Descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato para codificar un video, de acuerdo con una realización ejemplar;
La figura 2 es un diagrama de bloques de un aparato para decodificar un video, para su uso con la invención; La figura 3 es un diagrama para describir un concepto de unidades de codificación, de acuerdo con una realización ejemplar;
La figura 4 es un diagrama de bloques de un codificador de imagen basado en unidades de codificación, de acuerdo con una realización ejemplar de la presente invención;
La figura 5 es un diagrama de bloques de un decodificador de imagen basado en unidades de codificación, para su uso con la invención;
La figura 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con las profundidades y unidades de predicción de acuerdo con una realización ejemplar;
La figura 7 es un diagrama para describir una relación entre una unidad de codificación y una unidad de transformada; de acuerdo con una realización ejemplar
La figura 8 es un diagrama para describir información de codificación de unidades de codificación correspondientes a una profundidad codificada de acuerdo con una realización ejemplar;
La figura 9 es un diagrama de unidades de codificación más profundas de acuerdo con las profundidades de acuerdo con una realización ejemplar;
Las figuras 10A y 10B son diagramas para describir una relación entre unidades de codificación, unidades de predicción, y unidades de transformada de acuerdo con una realización ejemplar;
La figura 11 es una tabla que muestra la información de codificación de acuerdo con unidades de codificación de acuerdo con una realización ejemplar;
Las figuras 12A a 12C son diagramas de formatos de una imagen de componente de luminancia y una imagen de componente de crominancia de acuerdo con realizaciones ejemplares;
La figura 13 es una tabla que muestra un número de modos de intra predicción de acuerdo con los tamaños de unidades de codificación de componente de luminancia de acuerdo con una realización ejemplar;
Las figuras 14A a 14C son diagramas para explicar los modos de intra predicción aplicados a una unidad de codificación de componente de luminancia que tiene un tamaño predeterminado de acuerdo con una realización ejemplar;
La figura 15 es un diagrama para explicar los modos de intra predicción aplicados a una unidad de codificación de componente de luminancia que tiene un tamaño predeterminado de acuerdo con una realización ejemplar; La figura 16 es un diagrama de referencia para explicar los modos de intra predicción de una unidad de codificación de componente de luminancia que tiene varias direccionalidades de acuerdo con una realización ejemplar;
La figura 17 es un diagrama de referencia para explicar un modo bilineal de acuerdo con una realización ejemplar;
La figura 18 es un diagrama para explicar un procedimiento para generar un valor de predicción de un modo de intra predicción de una unidad de codificación de componente de luminancia actual de acuerdo con una realización ejemplar;
La figura 19 son diagramas de referencia para explicar un procedimiento de mapeo de los modos de intra predicción entre unidades de codificación de componente de luminancia que tienen diferentes tamaños de acuerdo con una realización ejemplar;
La figura 20 es un diagrama de referencia para explicar un procedimiento para mapear un modo de intra predicción de una unidad de codificación de componente de luminancia colindante a uno de los modos de intra predicción representativos de acuerdo con una realización ejemplar;
La figura 21 es un diagrama para explicar los modos de intra predicción candidatos aplicados a una unidad de codificación de componente de crominancia de acuerdo con una realización ejemplar;
La figura 22 es un diagrama de bloques de un aparato intra predicción, de acuerdo con una realización ejemplar; La figura 23 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra predicción de una unidad de codificación de acuerdo con una realización ejemplar; y
La figura 24 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra predicción de una unidad de decodificación para su uso con la invención;
La figura 25 es un diagrama para explicar una relación entre un pixel actual y pixeles colindantes ubicados en una línea extendida que tiene una directividad de (dx, dy);
La figura 26 es un diagrama para explicar un cambio en un pixel colindante ubicado en una línea extendida que tiene una directividad de (dx, dy) de acuerdo con una ubicación de un pixel actual de acuerdo con una realización ejemplar; y
Las figuras 27 y 28 son diagramas para explicar un procedimiento para determinar una dirección de modo de intra predicción de acuerdo con realizaciones ejemplares.
Mejor modo
De acuerdo con un aspecto de una realización ejemplar, se proporciona un procedimiento para codificar una imagen, el procedimiento según lo establecido en la reivindicación 1 adjunta.
De acuerdo con un aspecto de una realización ejemplar, se proporciona un aparato para codificar una imagen, el aparato según lo establecido en la reivindicación 2 adjunta.
De acuerdo con un aspecto de una realización ejemplar, se proporciona un medio de almacenamiento legible por ordenador que almacena una secuencia de bits según lo establecido en la reivindicación adjunta 3.
Modo de la invención
En la siguiente divulgación, se describen diversas realizaciones dentro del alcance de las reivindicaciones adjuntas, junto con información sobre otras realizaciones relacionadas.
A continuación, las realizaciones ejemplares se describirán más completamente con referencia a las figuras adjuntas.
A continuación, una “unidad de codificación” se refiere a una unidad de datos de codificación en la cual los datos de imagen se codifican en un lado de codificador, y una unidad de datos codificados en la cual los datos de imagen codificados se decodifican en un lado de decodificador. Además, una profundidad codificada se refiere a una profundidad en la cual una unidad de codificación se codifica.
La figura 1 es un diagrama de bloques de un aparato de codificación de video 100 de acuerdo con una realización ejemplar.
El aparato de codificación de video 100 incluye un divisor de unidad de codificación máxima 110, un determinador de unidad de codificación 120, una unidad de salida de datos de imagen 130, y una unidad de salida de información de codificación 140.
El divisor de unidad de codificación máxima 110 puede dividir un cuadro actual basado en una unidad de codificación máxima para el cuadro actual de una imagen. Si el cuadro actual es más grande que la unidad de codificación máxima, los datos de imagen del cuadro actual se pueden dividir en al menos una unidad de codificación máxima. La unidad de codificación máxima de acuerdo con una realización ejemplar puede ser una unidad de datos que tiene un tamaño de 32 x 32, 64 x 64, 128 x 128, 256 x 256, etc., en el que una forma de la unidad de datos es un cuadrado que tiene una anchura y longitud de cuadrados de 2. Los datos de imagen se pueden enviar al determinador de unidad de codificación 120 de acuerdo con al menos una unidad de codificación máxima.
Una unidad de codificación de acuerdo con una realización ejemplar se puede caracterizar por un tamaño y una profundidad máxima. La profundidad denota un número de veces que la unidad de codificación se divide espacialmente de la unidad de codificación máxima, y cuando la profundidad se profundiza, las unidades de codificación más profundas de acuerdo con las profundidades se pueden dividir de la unidad de codificación máxima a una unidad de codificación mínima. Una profundidad de la unidad de codificación máxima es una profundidad más superior y una profundidad de la unidad de codificación mínima es una profundidad más inferior. Puesto que un tamaño de una unidad de codificación correspondiente a cada profundidad disminuye cuando la profundidad de la unidad de codificación máxima se profundiza, una unidad de codificación correspondiente a una profundidad superior puede incluir una pluralidad de unidades de codificación correspondientes a profundidades inferiores.
Como se describió anteriormente, los datos de imagen del cuadro actual se dividen en las unidades de codificación máxima de acuerdo con un tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máximas puede incluir unidades de codificación más profundas que se dividen de acuerdo con las profundidades. Puesto que la unidad de codificación máxima de acuerdo con una realización ejemplar se divide de acuerdo con las profundidades, los datos de imagen de un campo espacial incluido en la unidad de codificación máxima se pueden clasificar jerárquicamente de acuerdo con las profundidades.
Se puede determinar una profundidad máxima y un tamaño máximo de una unidad de codificación, que limitan el número total de veces en que una altura y una anchura de la unidad de codificación máxima se dividen jerárquicamente. Tal unidad de codificación máxima y profundidad máxima se pueden establecer en un cuadro o una unidad segmentada. En otras palabras, diferentes unidades de codificación máximas y diferentes profundidades máximas se pueden establecer para cada cuadro o segmento, y un tamaño de una unidad de codificación mínima incluida en la unidad de codificación máxima se puede establecer de acuerdo con la profundidad máxima. Como tal, estableciendo la unidad de codificación máxima y la profundidad máxima de acuerdo con los cuadros o segmentos, la eficiencia de codificación se puede mejorar codificando una imagen de una región plana usando la unidad de codificación máxima, y la eficiencia de compresión de una imagen se puede mejorar codificando una imagen que tiene alta complejidad usando una unidad de codificación que tiene un tamaño menor que la unidad de codificación máxima.
El determinador de unidad de codificación 120 determina diferentes profundidades máximas de acuerdo con unidades de codificación máximas. La profundidad máxima se puede determinar basada en un cálculo de costo de tasa de distorsión (R-D). La profundidad máxima determinada se envía a la unidad de salida de información de codificación 140, y los datos de imagen de acuerdo con las unidades de codificación máximas se envían a la unidad de salida de datos de imagen 130.
Los datos de imagen en la unidad de codificación máxima se codifican basado en las unidades de codificación más profundas correspondientes a al menos una profundidad igual a o por debajo de la profundidad máxima, y los resultados de la codificación de los datos de imagen se comparan basado en cada una de las unidades de codificación más profundas. Una profundidad que tiene el mínimo error de codificación se puede seleccionar después de comparar los errores de codificación de las unidades de codificación más profundas. Al menos una profundidad codificada se puede seleccionar para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima se divide cuando una unidad de codificación se divide jerárquicamente de acuerdo con las profundidades, y cuando el número de unidades de codificación incrementa. Además, aún si las unidades de codificación corresponden a una misma profundidad en una unidad de codificación máxima, se determina si se divide cada una de las unidades de codificación correspondientes a la misma profundidad a una profundidad inferior midiendo un error de codificación de los datos de imagen de cada unidad de codificación, separadamente. Por consiguiente, aun cuando los datos de imagen se incluyen en una unidad de codificación máxima, los datos de imagen se dividen en regiones de acuerdo con las profundidades y los errores de codificación pueden diferir de acuerdo con las regiones en la unidad de codificación máxima, y por consiguiente las profundidades codificadas pueden diferir de acuerdo con las regiones en los datos de imagen. En otras palabras, la unidad de codificación máxima se puede dividir en unidades de codificación que tienen diferentes tamaños de acuerdo con diferentes profundidades. Por consiguiente, una o más profundidades codificadas se pueden determinar en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima se pueden dividir de acuerdo con las unidades de codificación de al menos una profundidad codificada.
Además, las unidades de codificación que tienen diferentes tamaños en la unidad de codificación máxima se pueden predecir o transformar con base en las unidades de datos que tienen diferentes tamaños. En otras palabras, el aparato de codificación de video 100 puede realizar una pluralidad de operaciones para codificar una imagen con base en las unidades de datos que tienen diversos tamaños y formas. Para codificar datos de imagen, se realizan operación tales como predicción, transformación, codificación de entropía, etc., y en este momento, la misma unidad de datos se puede usar para todas las operaciones o diferentes unidades de datos se pueden usar para cada operación.
Por ejemplo, el aparato de codificación de video 100 puede seleccionar una unidad de datos que es diferente de la unidad de codificación, para predecir la unidad de codificación. Por ejemplo, cuando una unidad de codificación tiene un tamaño de 2N x 2N (donde N es un entero positivo), una unidad de datos para predicción puede tener un tamaño de 2N x 2N, 2N x N, N x 2N, o N x N. En otras palabras, la predicción de movimiento se puede realizar con base en una unidad de datos obtenida dividiendo al menos una de una altura y una anchura de la unidad de codificación. Después, la unidad de datos que es una unidad base de predicción será referida como una unidad de predicción. Un modo de predicción puede ser al menos uno de un modo intra, un modo inter, y un modo de omisión, en el que un cierto modo de predicción solamente se realiza en una unidad de predicción que tiene un cierto tamaño o forma. Por ejemplo, un modo intra se puede realizar solamente en una unidad de predicción al cuadrado que tiene un tamaño de 2N x 2N o N x N. Además, un modo de omisión también se puede realizar solamente en una unidad de predicción que tiene un tamaño de 2N x 2N. Si una pluralidad de unidades de predicción se incluye en la unidad de codificación, la predicción se puede realizar en cada unidad de predicción para seleccionar un modo de predicción que tiene un error mínimo.
Alternativamente, el aparato de codificación de video 100 puede transformar los datos de imagen con base en una unidad de datos que es diferente de la unidad de codificación. Para transformar la unidad de codificación, la transformación se puede realizar con base en una unidad de datos que tiene un tamaño menor que o igual a la unidad de codificación. Una unidad de datos usada como una base de la transformación será referida como una unidad de transformada.
El determinador de unidad de codificación 120 puede medir un error de codificación de unidades de codificación más profundas de acuerdo con las profundidades usando Optimización de Tasa de Distorsión con base en multiplicadores de Lagrangian, para determinar una forma de división de la unidad de codificación máxima que tiene un error de codificación óptimo. En otras palabras, el determinador de unidad de codificación 120 puede determinar formas de las unidades de codificación a ser divididas de la unidad de codificación máxima, en el que los tamaños de las unidades de codificación son diferentes de acuerdo con las profundidades.
La unidad de salida de datos de imagen 130 envía los datos de imagen de la unidad de codificación máxima, los cuales se codifican con base en al menos una profundidad codificada determinada por el determinador de unidad de codificación 120, en secuencias de bits. Puesto que la codificación ya se realiza por el determinador de profundidad de codificación 120 para medir el error de codificación mínimo, una secuencia de datos codificados se puede producir usando el error de codificación mínimo.
La unidad de salida de información de codificación 140 puede producir información acerca del modo de codificación de acuerdo con la profundidad codificada, que se codifica con base en al menos una profundidad codificada determinada por el determinador de unidad de codificación 120, en secuencias de bits. La información acerca del modo de codificación de acuerdo con la profundidad codificada puede incluir información que indica la profundidad codificada, información que indica el tipo de división en la unidad de predicción, información que indica el modo de predicción, e información que indica el tamaño de la unidad de transformada.
La información acerca de la profundidad codificada se puede definir usando información de división de acuerdo con las profundidades, la cual indica si la codificación se realiza en unidades de codificación de una profundidad inferior en lugar de una profundidad actual. Si la profundidad actual de la unidad de codificación actual es la profundidad codificada, los datos de imagen en la unidad de codificación actual se codifican y producen, y por consiguiente la información de división se puede definir no para dividir la unidad de codificación actual a una profundidad inferior. Alternativamente, si la profundidad actual de la unidad de codificación actual no es la profundidad codificada, la codificación se realiza en la unidad de codificación de la profundidad inferior, y por consiguiente la información de división se puede definir para dividir la unidad de codificación actual para obtener las unidades de codificación de la profundidad inferior.
Si la profundidad actual no es la profundidad codificada, la codificación se realiza en la unidad de codificación que se divide en la unidad de codificación de la profundidad inferior. Puesto que al menos una unidad de codificación de la profundidad inferior existe en una unidad de codificación de la profundidad actual, la codificación se realiza repetidamente en cada unidad de codificación de la profundidad inferior y, por consiguiente, la codificación se puede realizar recurrentemente para las unidades de codificación que tienen la misma profundidad.
Puesto que las unidades de codificación que tienen una estructura de árbol se determinan para una unidad de codificación máxima, y la información acerca de al menos un modo de codificación se determina para una unidad de codificación de una profundidad codificada, la información acerca de al menos un modo de codificación se puede determinar para una unidad de codificación máxima. Además, una profundidad codificada de los datos de imagen de la unidad de codificación máxima puede ser diferente de acuerdo con las ubicaciones puesto que los datos de imagen se dividen jerárquicamente de acuerdo con las profundidades, y por consiguiente la información acerca de la profundidad codificada y el modo de codificación se pueden establecer para los datos de imagen.
Por consiguiente, la unidad de salida de información de codificación 140 puede asignar información de codificación correspondiente a cada unidad de codificación mínima incluida en la unidad de codificación máxima. En otras 20 palabras, la unidad de codificación de la profundidad codificada incluye al menos una unidad de codificación mínima que contiene la misma información de codificación. Por consiguiente, si las unidades de codificación mínimas colindantes tienen la misma información de codificación, las unidades de codificación mínimas colindantes pueden ser las unidades de codificación mínimas incluidas en la misma unidad de codificación máxima.
En el aparato de codificación de video 100, la unidad de codificación más profunda puede ser una unidad de codificación obtenida dividiendo una altura o anchura de una unidad de codificación de una profundidad superior, la cual está una capa arriba, por dos. En otras palabras, cuando el tamaño de la unidad de codificación de la profundidad actual es 2N x 2N, el tamaño de la unidad de codificación de la profundidad inferior es N x N. Además, la unidad de codificación de la profundidad actual que tiene el tamaño de 2N x 2N puede incluir un máximo de 4 de las unidades de codificación de la profundidad inferior.
Por consiguiente, el aparato de codificación de video 100 puede determinar unidades de codificación que tienen una forma óptima para cada unidad de codificación máxima, con base en el tamaño de la unidad de codificación máxima y la profundidad máxima determinada considerando las características del cuadro actual. Además, puesto que la codificación se puede realizar en cada unidad de codificación máxima usando cualquiera de los diversos modos de predicción y transformadas, un modo de codificación óptimo se puede determinar considerando las características de la unidad de codificación de diversos tamaños de imagen.
Por consiguiente, si una imagen que tiene alta resolución o una cantidad de datos grande se codifica en un macrobloque convencional, excesivamente incrementa un número de macrobloques por cuadro. Por consiguiente, incrementa un número de piezas de información comprimida generada para cada macrobloque, y por consiguiente es difícil transmitir la información comprimida y la eficiencia de compresión de datos disminuye. Sin embargo, usando el aparato de codificación de video 100, la eficiencia de compresión de imagen se puede incrementar puesto que una unidad de codificación se ajusta mientras se consideran las características de una imagen mientras incrementa un tamaño máximo de una unidad de codificación mientras se considera un tamaño de la imagen.
La figura 2 es un diagrama de bloques de un aparato de decodificación de video 200, para si uso con la invención. Con referencia a la figura 2, el aparato de decodificación de video 200 incluye un receptor 210, un extractor de información de codificación 220, y un decodificador de datos de imagen 230.
El receptor 210 recibe y analiza una secuencia de bits recibida por el aparato de decodificación de video 200 para obtener datos de imagen de acuerdo con las unidades de codificación máximas, y envía los datos de imagen al decodificador de datos de imagen 230. El receptor 210 puede extraer información acerca de la unidad de codificación máxima de un segmento o cuadro actual de un encabezado acerca del segmento o cuadro actual. El aparato de decodificación de video 200 decodifica los datos de imagen de acuerdo con las unidades de codificación máximas.
El extractor de información de codificación 220 analiza una secuencia de bits recibida por el aparato de decodificación de video 200 y extrae información acerca de una profundidad codificada y modo de codificación de acuerdo con las unidades de codificación máximas del encabezado del cuadro actual en la secuencia de bits analizada. La información acerca de la profundidad codificada extraída y modo de codificación se envían al decodificador de datos de imagen 230.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con la unidad de codificación máxima se pueden establecer para la información acerca de al menos una unidad de codificación correspondiente a la profundidad codificada, y la información acerca de un modo de codificación puede incluir información de tipo de división de una unidad de predicción de acuerdo con las unidades de codificación, información que indica un modo de predicción, e información que indica un tamaño de una unidad de transformada. Además, la información de división de acuerdo con las profundidades se puede extraer como la información acerca de la profundidad codificada.
La información acerca de una forma de división de la unidad de codificación máxima puede incluir información acerca de las unidades de codificación que tienen diferentes tamaños de acuerdo con las profundidades, y la información acerca de un modo de codificación puede incluir información que indica una unidad de predicción de acuerdo con las unidades de codificación, información que indica un modo de predicción, e información que indica una unidad de transformada.
El decodificador de datos de imagen 230 restaura el cuadro actual decodificando los datos de imagen en cada unidad de codificación máxima con base en la información extraída por el extractor de información de codificación 220. El decodificador de datos de imagen 230 puede decodificar la unidad de codificación incluida en la unidad de codificación máxima con base en la información acerca de la forma de división de la unidad de codificación máxima. Un procedimiento de decodificación puede incluir predicción, incluyendo intra predicción y compensación de movimiento, y transformada inversa.
Alternativamente, el decodificador de datos de imagen 230 restaura el cuadro actual decodificando los datos de imagen en cada unidad de codificación máxima con base en la información acerca de la profundidad codificada y modo de 25 codificación de acuerdo con las unidades de codificación máxima. En otras palabras, el decodificador de datos de imagen 230 puede decodificar los datos de imagen de acuerdo con las unidades de codificación de al menos una profundidad codificada, con base en la información acerca de la profundidad codificada de acuerdo con las unidades de codificación máximas. Un procedimiento de decodificación puede incluir predicción, incluyendo intra predicción y compensación de movimiento, y transformada inversa.
El decodificador de datos de imagen 230 puede realizar intra predicción o compensación de movimiento en una unidad de predicción y un modo de predicción de acuerdo con las unidades de codificación, con base en la información acerca del tipo de división y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con las profundidades codificadas, para realizar la predicción de acuerdo con las unidades de codificación. Además, el decodificador de datos de imagen 230 puede realizar transformada inversa de acuerdo con cada unidad de transformada en la unidad de codificación, con base en la información acerca del tamaño de la unidad de transformada de la unidad de codificación de acuerdo con las profundidades codificadas, para realizar la transformada inversa de acuerdo con las unidades de codificación máximas.
El decodificador de datos de imagen 230 puede determinar una profundidad codificada de una unidad de codificación máxima actual usando información de división de acuerdo con la profundidad. Si la información de división indica que la decodificación se realiza a la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el decodificador de datos de imagen 230 puede decodificar datos de imagen codificados de una unidad de codificación de la profundidad actual con respecto a los datos de imagen de la unidad de codificación máxima actual usando la información acerca del tipo de división de la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformada. En otras palabras, se puede observar la información de codificación asignada a la unidad de codificación mínima, y las unidades de codificación mínimas que incluyen la información de codificación que tiene la misma información de división se pueden reunir para ser decodificadas en una unidad de datos.
El aparato de decodificación de video 200 puede obtener información acerca de al menos una unidad de codificación que genera el error de codificación mínimo 20 cuando la codificación se realiza recurrentemente para cada unidad de codificación máxima, y puede usar la información para decodificar el cuadro actual. En otras palabras, los datos de imagen se pueden decodificar en la unidad de codificación óptima en cada unidad de codificación máxima. 25 Por consiguiente, aún si los datos de imagen tienen alta resolución y una cantidad grande de datos, los datos de imagen se pueden decodificar y restaurar eficientemente usando un tamaño de una unidad de codificación y un modo de codificación, los cuales se determina de manera adaptiva de acuerdo con las características de los datos de imagen, usando información acerca de un modo de codificación óptimo recibido de un codificador.
La figura 3 es un diagrama para describir un concepto de unidades de codificación de acuerdo con una realización ejemplar.
Con referencia a la figura 3, un tamaño de una unidad de codificación se puede expresar en anchura x altura, y puede ser 64 x 64, 32 x 32, 16x 16, 8 x 8 y 4x4. Aparte de la unidad de codificación que tiene una forma cuadrada, la unidad de codificación puede tener un tamaño de 64 x 32, 32 x 64, 32 x 16, 16 x 32, 16x8, 8x 16, 8x4 , o 4 x 8. En los datos de video 310, una resolución es 1920 x 1080, un tamaño máximo de una unidad de codificación es 64, y una profundidad máxima es 2. En los datos de video 320, una resolución es 1920 x 1080, un tamaño máximo de una unidad de codificación es 64, y una profundidad máxima es 4. En los datos de video 330, una resolución es 352 x 288, un tamaño máximo de una unidad de codificación es 16, y una profundidad máxima es 2.
Si una resolución es alta o una cantidad de datos es grande, un tamaño máximo de una unidad de codificación puede ser grande no solo para incrementar la eficiencia de codificación sino también para reflejar exactamente las características de una imagen. Por consiguiente, el tamaño máximo de la unidad de codificación de los datos de video 310 y 320 que tiene una resolución mayor que los datos de video 330 puede ser 64.
La profundidad máxima indica un número total de divisiones de una unidad de codificación máxima a una unidad de decodificación mínima. Por consiguiente, puesto que la profundidad máxima de los datos de video 310 es 2, las unidades de codificación 315 de los datos de video 310 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y las unidades de codificación tienen tamaños de eje largos de 32 y 16 puesto que las profundidades se profundizan por dos capas dividiendo la unidad de codificación máxima dos veces. Mientras tanto, puesto que la profundidad máxima de los datos de video 330 es 2, las unidades de codificación 335 de los datos de video 330 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 16, y las unidades de codificación tienen un tamaño de eje largo de 8 y 4 puesto que las profundidades se profundizan por dos capas dividiendo la unidad de codificación máxima dos veces.
Puesto que la profundidad máxima de los datos de video 320 es 4, las unidades de codificación 325 de los datos de video 320 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y unidades de codificación que tienen tamaños de ejes largos de 32, 16, 8, y 4 puesto que las profundidades se profundizan por 4 capas dividiendo la unidad de codificación máxima cuatro veces. Cuando una profundidad se profundiza, se puede expresar precisamente la información detallada.
La figura 4 es un diagrama de bloques de un codificador de imagen 400 basado en unidades de codificación, de acuerdo con una realización ejemplar.
Con referencia a la figura 4, un intra predictor 410 realiza la intra predicción en unidades de codificación en un modo intra, de entre las unidades de codificación de una trama actual 405, y un estimador de movimiento 420 y un compensador de movimiento 425 realiza la inter estimación y compensación de movimiento en unidades de codificación en un modo inter de entre unidades de codificación de la trama actual 405 usando la trama actual 405, y una trama de referencia 495.
Los datos producidos del intra predictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 se envían como un coeficiente de transformada cuantificado a través de un transformador 430 y un cuantificador 440. El coeficiente de transformada cuantificado se restaura como datos en un campo espacial a través de un cuantificador inverso 460 y un transformador inverso 470, y los datos restaurados en el campo espacial se envían como la trama de referencia 495 después de ser procesados posteriormente a través de una unidad de desbloqueo 480 y una unidad de filtración de bucle 490. El coeficiente de transformada cuantificado se puede producir como una secuencia de bits 455 a través de un codificador de entropía 450.
Para que el codificador de imagen 400 sea aplicado en el aparato de codificación de video 100, todos los elementos del codificador de imagen 400, es decir, el intra predictor 410, el estimador de movimiento 420, el compensador de movimiento 425, el transformador 430, el cuantificador 15 440, el codificador de entropía 450, el cuantificador inverso 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtración de bucle 490 realizan procedimientos de codificación de imagen con base en la unidad de codificación máxima, la unidad de codificación de acuerdo con 20 las profundidades, la unidad de predicción, y la unidad de transformada. Específicamente, el intra predictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 determinan una unidad de predicción y un modo de predicción de una unidad de codificación considerando un 25 tamaño y profundidad máximos de la unidad de codificación, y el transformador 430 determina el tamaño de la unidad de transformada considerando la profundidad y tamaño máximo de la unidad de codificación. Además, como se describió después, el intra predictor 410 realiza la intra predicción aplicando un modo de intra predicción determinado para una unidad de codificación de componente de luminancia en una unidad de codificación de componente de crominancia, y por consiguiente la eficiencia de predicción de la unidad de codificación de componente de crominancia se puede mejorar.
La figura 5 es un diagrama de bloques de un decodificador de imagen 500 con base en las unidades de codificación, para su uso con la invención.
Con referencia a la figura 5, un analizador 510 analiza una secuencia de bits recibida 505 y extrae los datos de imagen codificados a ser decodificados e información acerca de la codificación requerida para decodificar la secuencia de bits analizada. Los datos de imagen codificados se envían como datos cuantificados inversos a través de un decodificador de entropía 520 y un cuantificador inverso 530, y los datos cuantificados inversos se restauran a datos de imagen en un campo espacial a través de un transformador inverso 540. Un intra predictor 550 realiza la intra predicción en unidades de codificación en un intra modo con respecto a los datos de imagen en el campo espacial, y un compensador de movimiento 560 realiza la compensación de movimiento en unidades de codificación en un modo inter usando una trama de referencia 585. Los datos de imagen en el campo espacial, los cuales pasan a través del intra predictor 550 y el compensador de movimiento 560, se pueden producir como una trama restaurada 595 después de ser post-procesados a través de una unidad de desbloqueo 570 y una unidad de filtración de bucle 580. Además, los datos de imagen que son post-procesados a través de la unidad de desbloqueo 570 y la unidad de filtración de bucle 580 se pueden producir como la trama de referencia 585.
Para que el decodificador de imagen 500 sea aplicado en el aparato de decodificación de video 200, todos los elementos del decodificador de imagen 500, es decir, el analizador 510, el decodificador de entropia 520, el cuantificador inverso 530, el transformador inverso 540, el intra predictor 550, el compensador de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtración de bucle 580 realizan procedimientos de decodificación de imagen con base en la unidad de codificación máxima, la unidad de codificación de acuerdo con las profundidades, la unidad de predicción, y la unidad de transformada. Específicamente, la intra predicción 550 y el compensador de movimiento 560 determinan la unidad de predicción y el modo de predicción de la unidad de codificación considerando la profundidad y tamaño máximo de la unidad de codificación, y el transformador inverso 540 determina el tamaño de unidad de transformada considerando la profundidad y el tamaño máximo de la unidad de codificación.
La figura 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con las profundidades, y unidades de predicción de acuerdo con una realización ejemplar.
El aparato de codificación de video 100 y el aparato de decodificación de video 200 usan unidades de codificación jerárquicas para considerar las características de una imagen. Una altura máxima, una anchura máxima, y una profundidad máxima de unidades de codificación se pueden determinar de manera adaptiva de acuerdo con las características de la imagen, o se pueden establecer individualmente de acuerdo con una entrada de un usuario. Los tamaños de unidades de codificación más profundas de acuerdo con las profundidades se pueden determinar de acuerdo con el tamaño máximo predeterminado de la unidad de codificación.
En una estructura jerárquica 600 de unidades de codificación, de acuerdo con una realización ejemplar, la altura máxima y la anchura máxima de las unidades de codificación son cada una 64, y la profundidad máxima es 4. Puesto que una profundidad se profundiza a lo largo de un eje vertical de la estructura jerárquica 600, una altura y una anchura de la unidad de codificación más profunda son cada una dividida. Además, una unidad de predicción que constituye una unidad de datos parcial, la cual es una base para la codificación de predicción de cada unidad de codificación más profunda, se muestra a lo largo de un eje horizontal de la estructura jerárquica 600.
En otras palabras, una unidad de codificación 610 es una unidad de codificación máxima en la estructura jerárquica 600, en el que una profundidad es 0 y un tamaño, es decir, una altura por anchura, es 64 x 64. La profundidad se profundiza a lo largo del eje vertical, y existen una unidad de codificación 620 que tiene un tamaño de 32x32 y una profundidad de 1, una unidad de codificación 630 que tiene un tamaño de 16x16 y una profundidad de 2, una unidad de codificación 640 que tiene un tamaño de 8 x 8 y una profundidad de 3, y una unidad de codificación 650 que tiene un tamaño de 4 x 4 y una profundidad de 4.
Las unidades de datos parciales se muestran en la figura 6 como las unidades de predicción de una unidad de codificación a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad de 20 codificación 610 que tiene el tamaño de 64 x 64 y la profundidad de 0 es una unidad de predicción, la unidad de predicción se puede dividir en unidades de datos parciales incluidas en la unidad de codificación 610, es decir una unidad de datos parcial 610 que tiene un tamaño de 64 x 64, unidades de datos parciales 612 que tienen el tamaño de 64 x 32, unidades de datos parciales 614 que tienen el tamaño de 32 x 64, o unidades de datos parciales 616 que tienen el tamaño de 32 x 32.
Una unidad de predicción de la unidad de codificación 620 que tiene el tamaño de 32x32 y la profundidad de 1 se puede dividir en unidades de datos parciales incluidas en la unidad de codificación 620, es decir una unidad de datos parcial 620 que tiene un tamaño de 32x32, unidades de datos parciales 622 que tienen un tamaño de 32 x 16, unidades de datos parciales 624 que tienen un tamaño de 16 x 32, y unidades de datos parciales 626 que tienen un tamaño de 16 x 16.
Una unidad de predicción de la unidad de codificación 630 que tiene el tamaño de 16x16 y la profundidad de 2 se puede dividir en unidades de datos parciales incluidas en la unidad de codificación 630, es decir una unidad de datos parcial que tiene un tamaño de 16 x 16 incluida en la unidad de codificación 630, unidades de datos parciales 632 que tienen un tamaño de 16 x 8, unidades de datos parciales 634 que tienen un tamaño de 8 x 16, y unidades de datos parciales 636 que tienen un tamaño de 8x8.
Una unidad de predicción de la unidad de codificación 640 que tiene el tamaño de 8 x 8 y la profundidad de 3 se puede dividir en unidades de datos parciales incluidas en la unidad de codificación 640, es decir, una unidad de datos parcial que tiene un tamaño de 8 x 8 incluida en la unidad de codificación 640, unidades de datos parciales 624 que tienen un tamaño de 8x4, unidades de datos parciales 644 que tienen un tamaño de 4x8, y unidades de datos parciales 646 que tienen un tamaño de 4x4.
La unidad de codificación 650 que tiene el tamaño de 4 x 4 y la profundidad de 4 es la unidad de codificación mínima y una unidad de codificación de la profundidad más inferior. Una unidad de predicción de la unidad de codificación 650 solamente se asigna a una unidad de datos parcial que tiene un tamaño de 4x4.
Para determinar al menos una profundidad codificada de las unidades de codificación que constituyen la unidad de codificación máxima 610, el determinador de unidad de codificación 120 del aparato de codificación de video 100 realiza la codificación para unidades de codificación correspondientes a cada profundidad incluida en la unidad de codificación máxima 610.
Un número de unidades de codificación más profundas de acuerdo con las profundidades que incluyen datos en el mismo intervalo y el mismo tamaño incrementa cuando la profundidad se profundiza. Por ejemplo, cuatro unidades de codificación correspondientes a una profundidad de 2 son requeridas para cubrir los datos que se incluyen en una unidad de codificación correspondiente a una profundidad de 1. Por consiguiente, para comparar los resultados de codificación de los mismos datos de acuerdo con las profundidades, la unidad de codificación correspondiente a la profundidad de 1 y cuatro unidades de codificación correspondientes a la profundidad de 2 se codifican cada una. Para realizar la codificación de una profundidad actual de entre las profundidades, un error de codificación mínimo se puede determinar para la profundidad actual realizando la codificación para cada unidad de predicción en las unidades de codificación correspondientes a la profundidad actual, a lo largo del eje horizontal de la estructura jerárquica 600. Además, un error de codificación mínimo de acuerdo con las profundidades se puede buscar comparando el error de codificación mínimo de cada profundidad, realizando la codificación para cada profundidad cuando la profundidad se profundiza a lo largo del eje vertical de la estructura jerárquica 600. Una profundidad que tiene el error de codificación mínimo en la unidad de codificación 610 se puede seleccionar como la profundidad codificada y un tipo de división de la unidad de codificación 610.
La figura 7 es un diagrama para describir una relación entre una unidad de codificación 710 y unidades de transformada 720, de acuerdo con una realización ejemplar.
El aparato de codificación de video 100 o 200 codifica o decodifica una imagen de acuerdo con las unidades de codificación que tienen tamaños menores que o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de unidades de transformada para la transformada durante la codificación se pueden seleccionar con base en las unidades de datos que no son más tiempo una unidad de codificación correspondiente. Por ejemplo, en el aparato de codificación de video 100 o 200, si un tamaño de la unidad de codificación 710 es 64 x 64, la transformada se puede realizar usando las unidades de transformada 720 que tienen un tamaño de 32x32. Además, los datos de la unidad de codificación 710 que tienen el tamaño de 64x64 se pueden codificar realizando la transformada en cada una de las unidades de transformada que tienen el tamaño de 32 x 32, 16 x 16, 8 x 8 , y 4 x 4, las cuales son menores que 64 x 64, y luego se puede seleccionar una unidad de transformada que tiene el mínimo error de codificación.
La figura 8 es un diagrama para describir información de codificación de unidades de codificación correspondientes a una profundidad codificada, de acuerdo con una realización ejemplar.
La unidad de salida 130 del aparato de codificación de video 100 puede codificar y transmitir información 800 que indica un tipo de división, información 810 que indica un modo de predicción, e información 820 que indica un tamaño de una unidad de transformada para cada unidad de codificación correspondiente a una profundidad codificada, como información acerca de un modo de codificación.
La información 800 incluye información acerca de un tipo de división de una unidad de predicción de una unidad de codificación actual, en el que una unidad de predicción de división es una unidad de datos para codificación de predicción de la unidad de codificación actual. Por ejemplo, una unidad de codificación actual Cu_0 que tiene una profundidad 0 y un tamaño de 2N x 2N se puede dividir en cualquiera de una unidad de predicción 802 que tiene un tamaño de 2N x 2N, una unidad de predicción 804 que tiene un tamaño de 2N x N, una unidad de predicción 806 que tiene un tamaño de N x 2N, y una unidad de predicción 808 que tiene un tamaño de N x N. Aquí, la información 800 acerca de un tipo de división se establece para indicar una de la unidad de predicción 804 que tiene un tamaño de 2N x N, la unidad de predicción 806 que tiene un tamaño de N x 2N, y la unidad de predicción 808 que tiene un tamaño de N x N.
La información 810 indica un modo de predicción de cada unidad de predicción. Por ejemplo, la información 810 puede indicar un modo de codificación de predicción realizado en una unidad de predicción indicada por la información 800, es decir, un intra modo 812, un inter modo 814, o un modo de omisión 816.
La información 820 indica una unidad de transformada que se basa sobre cuándo la transformada se realiza en una unidad de codificación actual. Por ejemplo, la unidad de transformada puede ser una primera unidad de intra transformada 822, una segunda unidad de intra transformada 824, una primera unidad de inter transformada 826, o una segunda unidad de intra transformada 828.
El extractor de información de codificación 220 del aparato de decodificación de video 200 puede extraer y usar la información 800, 810, y 820 para decodificación, de acuerdo con cada unidad de codificación más profunda.
La figura 9 es un diagrama de unidades de codificación más profundas de acuerdo con las profundidades, de acuerdo con una realización ejemplar.
La información de división se puede usar para indicar un cambio de profundidad. La información de división indica si una unidad de codificación de una profundidad actual se divide en unidades de codificación de una profundidad inferior.
Una unidad de predicción 910 para codificación de predicción de una unidad de codificación que tiene una profundidad de 0 y un tamaño de 2N_0 x 2N puede incluir un tipo de división 912 que tiene un tamaño de 2N_0 x 2N_0, un tipo de división 914 que tiene un tamaño de 2N_0 x N_0, un tipo de división 916 que tiene un tamaño de N_0 x 2N_0, y un tipo de división 918 que tiene un tamaño de N_0 x N_0.
La codificación a través de la predicción de movimiento se realiza repetidamente en una unidad de predicción que tiene un tamaño de 2N_0 x 2N_0, dos unidades de predicción que tienen un tamaño de 2N_0 x N_0, dos unidades de predicción que tienen un tamaño de N_0 x 2N_0, y cuatro unidades de predicción que tienen un tamaño de N_0 x N_0, de acuerdo con cada tipo de división. La predicción en un modo intra y un modo inter se puede realizar en las unidades de predicción que tienen los tamaños de 2N_0 x N_0, N_0 x 2N_0 y N_0 x N_0 y N_0 x N_0. La predicción de movimiento en un modo de omisión se realiza solamente en la unidad de predicción que tiene el tamaño de 2N_0 x 2N_0.
Si el error de codificación es el más pequeño en el tipo de división 918 que tiene el tamaño N_0 x N_0, una profundidad se cambia de 0 a 1 para dividir el tipo de partición 918 en la operación 920, y la codificación se realiza repetidamente en las unidades de codificación 922, 924, 926, y 928 que tienen una profundidad de 2 y un tamaño de N_0 x N_0 para buscar un error de codificación mínimo.
Puesto que la codificación se realiza repetidamente en las unidades de codificación 922, 924, 926, y 928 que tienen la misma profundidad, solamente la codificación de una unidad de codificación que tiene una profundidad de 1 se describirá como un ejemplo. Una unidad de predicción 930 para predecir el movimiento de una unidad de codificación que tiene una profundidad de 1 y un tamaño de 2N_1 x 2N_1 (=N_0 xN_0) puede incluir un tipo de división 932 que tiene un tamaño de 2N_1 x 2N_1, un tipo de división 934 que tiene un tamaño de 2N_1 x N_1, un tipo de división 936 que tiene un tamaño de N_1 x 2N_1, y un tipo de división 938 que tiene un tamaño de N_1 x N_1. La codificación a través de la predicción de movimiento se realiza repetidamente en una unidad de predicción que tiene un tamaño de 2N_1 x 2N_1, dos unidades de predicción que tienen un tamaño de 2N_1 x N_1, dos unidades de predicción que tienen un tamaño de N_1 x 2N_1, y cuatro unidades de predicción que tienen un tamaño de N_1 x N_1, de acuerdo con cada tipo de división.
Si un error de codificación es el más pequeño en el tipo de división 938 que tiene el tamaño de N_1 x N_1, una profundidad se cambia de 1 a 2 para dividir el tipo de división 938 en la operación 940, y la codificación se realiza repetidamente en las unidades de codificación 942, 944, 946, y 948, las cuales tienen una profundidad de 2 y un tamaño de N_2 x N_2 para buscar un error de codificación mínimo.
Cuando una profundidad máxima es d, la información de división de acuerdo con cada profundidad se puede establecer cuando una profundidad llega a ser d-1. En otras palabras, una unidad de predicción 950 para predecir el movimiento de una unidad de codificación que tiene una profundidad de d-1 y un tamaño de 2N_(d-1) x 2N_(d-1) puede incluir un tipo de división 952 que tiene un tamaño de 2N_(d-1) x 2N_(d-1), un tipo de división 954 que tiene un tamaño de 2N(d-1) x N(d-1), un tipo de división 956 que tiene un tamaño de N_(d-1) x 2N_(d-1), y un tipo de división 958 que tiene un tamaño de N(d-1) x N(d-1).
La codificación a través de predicción de movimiento se puede realizar repetidamente en una unidad de predicción que tiene un tamaño de 2N(d-1) x 2N(d-1), dos unidades de predicción que tienen un tamaño de 2N_(d-1) x N_(d-1), dos unidades de predicción que tienen un tamaño de N_(d-1) x 2N_(d-1), y cuatro unidades de predicción que tienen un tamaño de N(d-1) x N(d-1), de acuerdo con cada tipo de división. Puesto que la profundidad máxima es d, una unidad de codificación 952 que tiene una profundidad de d-1 no se divide.
Para determinar una profundidad codificada para la unidad de codificación 912, el aparato de codificación de video 100 selecciona una profundidad que tiene el mínimo error de codificación comparando los errores de codificación de acuerdo con las profundidades. Por ejemplo, un error de codificación de una unidad de codificación que tiene una profundidad de 0 se puede codificar realizando predicción de movimiento en cada uno de los tipos de división 912, 914, 25916, y 918, y una unidad de predicción que tiene el mínimo error de codificación se puede determinar. De manera similar, una unidad de predicción que tiene el mínimo error de codificación se puede buscar, de acuerdo con las profundidades 0 hasta d-1. En una profundidad de d, un error de codificación se puede determinar realizando la predicción de movimiento en la unidad de predicción 960 que tiene el tamaño de 2N_d x 2N_d. Como tal, los errores de codificación mínimos de acuerdo con las profundidades se comparan en todas las profundidades de 1 hasta d, y una profundidad que tiene el mínimo error de codificación se puede determinar como una profundidad codificada. La profundidad codificada y la unidad de predicción del modo de profundidad codificada correspondiente se pueden codificar y transmitir como información acerca de un modo de codificación. Además, puesto que una unidad de codificación se divide de una profundidad de 0 a una profundidad codificada, solamente la información de división de la profundidad codificada se establece a 0, y la información de división de profundidades excluyendo la profundidad codificada se establece a 1.
Los datos de imagen y extractor de información de codificación 220 del aparato de decodificación de video 200 pueden extraer y usar la información acerca de la profundidad codificada y la unidad de predicción de la unidad de codificación 912 para decodificar la unidad de codificación 912. El aparato de decodificación de video 200 puede determinar una profundidad, en la cual la información de división es 0, como una profundidad codificada usando información de división de acuerdo con las profundidades, y la información de uso acerca de un modo de codificación de la profundidad correspondiente para decodificación.
Las figuras 10A y 10B son diagramas para describir una relación entre las unidades de codificación 1010, unidades de predicción 1060, y unidades de transformada 1070, útiles con una realización ejemplar.
Las unidades de codificación 1010 son unidades de codificación correspondientes a las profundidades codificadas determinadas por el aparato de codificación de video 100, en una unidad de codificación máxima 1000. Las unidades de predicción 1060 son unidades de predicción de cada una de las unidades de codificación 1010, y las unidades de transformada 1070 son unidades de transformada de cada una de las unidades de codificación 1010. Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades de codificación 1010, las profundidades de las unidades de codificación 1012 y 1054 son 1, las profundidades de las unidades de codificación 1014, 1016, 1018, 1028, 1050, y 1052 son 2, las profundidades de las unidades de codificación 1020, 1022, 1024, 1026, 1030, 1032, y 1048 son 3, y las profundidades de las unidades de codificación 1040, 1042, 1044, y 1046 son 4.
En las unidades de predicción 1060, algunas unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, 1052, y 1054 se obtienen dividiendo las unidades de codificación en las unidades de codificación 1010. En otras palabras, los tipos de división en las unidades de codificación 1014, 1022, 1050, y 1054 tienen un tamaño de 2n x N, los tipos de división en las unidades de codificación 1016, 1048, y 1052 tienen un tamaño de N x 2N, y un tipo de división de la unidad de codificación 1032 tiene un tamaño de N x N. Las unidades de predicción de las unidades de codificación 1010 son menores que o iguales a cada unidad de codificación.
La transformada o transformada inversa se realiza en datos de imagen de la unidad de codificación 1052 en las unidades de transformada 1070 en una unidad de datos que es menor que la unidad de codificación 1052. Además, las unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, y 1052 en las unidades de transformada 1070 son diferentes de aquellas en las unidades de predicción 1060 en términos de tamaños y formas. En otras palabras, los aparatos de codificación y decodificación de video 100 y 200 pueden realizar intra predicción, estimación de movimiento, compensación de movimiento, transformada, y transformada inversa individualmente en una unidad de datos en la misma unidad de codificación.
La figura 11 es una tabla que muestra la información de codificación de acuerdo con unidades de codificación, de acuerdo con una realización ejemplar.
La unidad de salida de información de codificación 140 del aparato de codificación de video 100 puede codificar la información de codificación de acuerdo con las unidades de codificación, y el extractor de información de codificación 220 del aparato de codificación de video 200 puede extraer la información de codificación de acuerdo con las unidades de codificación.
La información de codificación puede incluir información de división acerca de una unidad de codificación, información de tipo de división, información de modo de predicción, e información acerca de un tamaño de una unidad de transformada. La información de codificación mostrada en la figura 11 solamente es ejemplar de la información que se puede establecer por el aparato de codificación de video 100 y el aparato de decodificación de video 200, y no se limita a esto.
La información de división puede indicar una profundidad codificada de una unidad de codificación correspondiente. En otras palabras, puesto que una profundidad codificada es una profundidad que no es más tiempo dividida de acuerdo con la información de división, la información acerca del tipo de división, modo de predicción, y tamaño de unidad de transformada se puede establecer para la profundidad codificada. Si la unidad de codificación actual se divide adicionalmente de acuerdo con la información de división, la codificación se realiza independientemente en cuatro unidades de codificación de división de una profundidad inferior.
La información acerca de un tipo de división puede indicar un tipo de división de una unidad de transformada de una unidad de codificación en una profundidad codificada como una de 2N x 2N, 2N x N, N x 2N, y N x N. El modo de predicción puede indicar un modo de predicción de movimiento como uno de un modo intra, un modo inter, y un modo de omisión. El modo intra se puede definir solamente en los tipos de división de 2N x 2N y N x N, y el modo de omisión solamente se puede definir en el tipo de división de 2N x 2N. La unidad de transformada puede tener dos tamaños en el modo intra, y dos tamaños en el modo inter.
La información de codificación de acuerdo con las unidades de codificación en la profundidad codificada se puede incluir en la unidad de codificación mínima en la unidad de codificación. Por consiguiente, verificando la información de codificación incluida en las unidades de codificación mínimas colindantes, se puede determinar si las unidades de codificación mínimas colindantes se incluyen en las unidades de codificación que tienen la misma profundidad codificada. Además, puesto que la unidad de codificación de la profundidad codificada correspondiente se puede determinar usando la información de codificación incluida en la unidad de codificación mínima, se puede inferir la distribución de las profundidades codificadas de las unidades de codificación mínimas.
La intra predicción realizada por la unidad de intra predicción 410 del aparato de codificación de video 100 ilustrado en la figura 4 y la unidad de intra predicción 550 del aparato de decodificación de video 200 ilustrado en la figura 5 ahora se describirá en detalle. En la siguiente descripción, una unidad de codificación se refiere a un bloque codificado actual en un procedimiento de codificación de una imagen, y una unidad de decodificación se refiere a un bloque decodificado actual en un procedimiento de decodificación de una imagen. La unidad de codificación y la unidad de decodificación son diferentes solamente porque la unidad de codificación se usa en el procedimiento de codificación y la unidad de decodificación se usa en el procedimiento de decodificación. Para consistencia, excepto para un caso particular, la unidad de codificación y la unidad de decodificación son referidas como una unidad de codificación en los procedimientos tanto de codificación como decodificación.
Las figuras 12A hasta 12C son diagramas de formatos de una imagen de componente de luminiscencia y una imagen de componente de crominancia, útiles con una realización ejemplar.
Cada unidad de codificación que forma una trama se puede expresar usando uno de tres componentes, es decir, Y, Cb, y Cr. Y es datos de luminancia que tienen información de luminancia, y Cb y Cr son datos de crominancia que tienen información de crominancia.
Los datos de crominancia se pueden expresar usando una cantidad inferior de datos que los datos de luminancia, con base en la premisa que una persona generalmente es más sensible a la información de luminancia que la información de crominancia. Con referencia a la figura 12A, una unidad de codificación que tiene un formato 4:2:0 incluye datos de luminancia 1210 que tiene un tamaño de H x W (H y W son enteros positivos), y dos piezas de datos de crominancia 1220 y 1230 que tienen un tamaño de (H/2) x (W/2) obtenidos muestreando los componentes de crominancia Cb y Cr por 1/4. Con referencia a la figura 12B, una unidad de codificación que tiene un formato 4:2:2 incluye datos de luminancia 1240 que tienen un tamaño 20 de H x W (H y W son enteros positivos), y dos piezas de datos de crominancia 1250 y 1260 que tienen un tamaño de H x (W/2) obtenido muestreando los componentes de crominancia Cb y Cr por 1/2 en una dirección horizontal. Además, con referencia a la figura 12C, cuando una unidad de codificación tiene un 25 formato 4:4:4, la unidad de codificación incluye datos de luminancia 1270, y datos de crominancia 1280 y 1290, cada uno tiene un tamaño de HxW sin muestrear los componentes de crominancia Cb y Cr, para expresar precisamente una imagen de componente de crominancia.
Después, se asume que la unidad de codificación de componente de luminancia y la unidad de codificación de componente de crominancia, las cuales son intra predichas, son una de las señales de imagen que tienen formatos de color de 4:2:0, 4:2:2, y 4:4:4 definidos en un campo de color YCbCr (o YUV).
La eficiencia de predicción de la unidad de codificación de crominancia se mejora incluyendo un modo de intra predicción determinado para la unidad de codificación de componente de luminancia en modos de intra predicción candidatos aplicados a la unidad de codificación de componente de crominancia considerando una relación entre el componente de luminancia y el componente de crominancia.
La figura 13 es una tabla que muestra un número de modos de intra predicción de acuerdo con los tamaños de unidades de codificación de componente de luminancia, útiles con una realización ejemplar.
De acuerdo con una realización ejemplar, el número de modos de intra predicción a ser aplicados a una unidad de codificación de componente de luminancia (una unidad de decodificación en un procedimiento de decodificación) se puede establecer de manera variada. Por ejemplo, con referencia a la figura 13, si el tamaño de una unidad de codificación de componente de luminancia es N x N, en la cual la intra predicción se realiza, los números de modos de intra predicción actualmente realizados en unidades de codificación de componente de luminancia de tamaño 2 x 2, 4x4, 8x8, 16x 16, 32 x 32, 64 x 64, y 128 x 128 se pueden establecer respectivamente como 5, 9, 9, 17, 33, 5, y 5 (en el Ejemplo 2). Para otro ejemplo, cuando un tamaño de una unidad de codificación de componente de luminancia a ser intra predicho que es N x N, los números de modos de intra predicción a ser actualmente realizados en unidades de codificación que tienen tamaños de 2 x 2, 4 x 4, 8 x 8, 16 x 16, 32 x 32, 64 x 64, y 128 x 128 se puede establecer que es 3, 17, 34, 34, 34, 5, y 5. Los números de modos de intra predicción a ser actualmente realizados son establecidos de manera diferente de acuerdo con los tamaños de unidades de codificación de componente de luminancia debido a que las cargas generales para la información de modo de predicción de codificación difieren de acuerdo con los tamaños de las unidades de codificación de componente de luminancia. En otras palabras, una pequeña unidad de codificación de componente de luminancia ocupa una pequeña porción de datos de imagen completos pero puede tener una carga general grande para transmitir información adicional, tal como la información de modo de predicción de la unidad de codificación de componente de luminancia. Por consiguiente, si una unidad de codificación pequeña de componente de luminancia se codifica usando un número excesivamente grande de modos de predicción, el número de bits se puede incrementar y por consiguiente la eficiencia de compresión se puede reducir. Además, una unidad de codificación grande de componente de luminancia, por ejemplo, una unidad de codificación de componente de luminancia igual a o mayor que 64 x 64, generalmente corresponde a una región plana de datos de imagen, y por consiguiente la codificación de la unidad de codificación de componente de luminancia grande usando un número excesivamente grande de modos de predicción también puede reducir la eficiencia de compresión.
Por consiguiente, de acuerdo con una realización ejemplar, las unidades de codificación de componente de luminancia se clasifican aproximadamente en al menos tres tamaños tal como N1 x N1 (donde 2=N1=4, y N1 es un entero), N2 x N2 (donde 8=N2=32, y N2 es un entero), y N3 x N3 (donde 64=N3, y N3 es un entero). Si el número de modos intra predicción realizados en las unidades de codificación de componente de luminancia de N1 x N1 es A1 (donde A1 es un entero positivo), el número de modos de intra predicción realizados en las unidades de codificación de componente de luminancia de N2 x N2 es A2 (donde A2 es un entero positivo), y el número de modos de intra predicción realizados en las unidades de codificación de componente de luminancia de N3 x N3 es A3 (donde A3 es un entero positivo). Los números de modos de intra predicción realizados de acuerdo con los tamaños de las unidades de codificación de componente de luminancia se pueden establecer para satisfacer A3=A1=A2. Es decir, si un cuadro actual se divide en unidades de codificación de componente de luminancia pequeñas, unidades de codificación de componente de luminancia medias, y unidades de codificación de componente de luminancia grandes, las unidades de codificación de componente de luminancia medias se pueden establecer para tener el número más grande de modos de predicción y las unidades de codificación de componente de luminancia pequeñas y las unidades de codificación de componente de luminancia grandes se pueden establecer para tener un número relativamente pequeño de modos de predicción. Sin embargo, la realización ejemplar no se limita a esto, y las unidades de codificación de componente de luminancia pequeñas y grandes también se pueden establecer para tener un número grande de modos de predicción. Los números de modos de predicción de acuerdo con los tamaños de unidades de codificación de componente de luminancia en la figura 13 solamente son ejemplares y se pueden cambiar.
La figura 14A es una tabla que muestra modos de intra predicción aplicados a una unidad de codificación de componente de luminancia que tiene un tamaño predeterminado, de acuerdo con una realización ejemplar.
Con referencia a las figuras 13 y 14A, por ejemplo, cuando la intra predicción se realiza en una unidad de codificación de componente de luminancia que tiene un tamaño de 4x 4 , la unidad de codificación de componente de luminancia puede tener un modo vertical (modo 0), un modo horizontal (modo 1), un modo de corriente continua (CC) (modo 2), un modo abajo a la izquierda diagonal (modo 3), un modo abajo a la derecha diagonal (modo 4), un modo vertical a la derecha (modo 5), un modo horizontal hacia abajo (modo 6), un modo vertical a la izquierda (modo 7), y un modo horizontal a la derecha (modo 8).
La figura 14B ilustra direcciones de los modos de intra predicción mostrados en la figura 14A. En la figura 14B, los números en los extremos de flechas representan modos de predicción correspondientes a las direcciones de predicción indicadas por las flechas. Aquí, modo 2 es un modo CC que no tiene direccionalidad y por consiguiente no se muestra en la figura 16B.
La figura 14C es un diagrama para describir un procedimiento para realizar intra predicción en una unidad de codificación de componente de luminancia usando los modos de intra predicción mostrados en la figura 14A, de acuerdo con una realización ejemplar.
Con referencia a la figura 14C, una unidad de codificación de predicción se genera de acuerdo con un modo de intra predicción disponible determinado de acuerdo con el tamaño de una unidad de codificación de componente de luminancia actual usando pixeles colindantes A hasta M de la unidad de codificación de componente de luminancia actual. Por ejemplo, se describirá una operación para realizar la codificación de predicción en una unidad de codificación actual que tiene un tamaño 4 x 4 de acuerdo con el modo 0, es decir, un modo vertical, mostrado en la figura 14A. Inicialmente, los valores de los pixeles colindantes A hasta D en un lado superior de la unidad de codificación actual se predicen como valores de pixel de la unidad de codificación actual. Es decir, el valor del pixel colindante A se predice como un valor de cuatro pixeles en una primera columna de la unidad de codificación actual, el valor del pixel colindante B se predice como un valor de cuatro pixeles en una segunda columna de la unidad de codificación actual, el valor del pixel colindante C se predice como un valor de cuatro pixeles en una tercera columna de la unidad de codificación actual, y el valor del pixel colindante D se predice como un valor de cuatro pixeles en una cuarta columna de la unidad de codificación actual. Después de esto, los valores de pixeles de la unidad de codificación actual predichos usando los pixeles colindantes A hasta D se sustraen de los valores de pixel de la unidad de codificación actual original para calcular un valor de error y luego el valor de error se codifica.
La figura 15 es un diagrama para explicar los modos de intra predicción aplicados a una unidad de codificación de componente de luminancia que tiene un tamaño predeterminado, de acuerdo con una realización ejemplar.
Con referencia a las figuras 13 y 15, por ejemplo, cuando la intra predicción se realiza en una unidad de codificación que tiene un tamaño 2x2, la unidad de codificación puede tener un total de cinco modos, tal como un modo vertical, un modo horizontal, un modo CC, un modo plano, y un modo diagonal abajo a la derecha.
Mientras tanto, si una unidad de codificación de componente de luminancia que tiene un tamaño 32 x 32 tiene 33 modos de intra predicción, como se muestra en la figura 13, las direcciones de los 33 modos de intra predicción necesitan establecerse. De acuerdo con una realización ejemplar, Para establecer los modos de intra predicción que tienen varias direcciones además de los modos de intra predicción ilustrados en las figuras 14 y 15, las direcciones de predicción para seleccionar pixeles colindantes usados como pixeles de referencia de pixeles de la unidad de codificación de componente de luminancia se establecen usando parámetros (dx, dy). Por ejemplo, si cada uno de los 33 modos de predicción se define como modo N (donde N es un entero desde 0 a 32), el modo 0 se puede establecer como un modo vertical, el modo 1 se puede establecer como un modo horizontal, el modo 2 se puede establecer como un modo CC, el modo 3 se puede establecer como un modo plano, y cada uno del modo 4 hasta 31 se pueden definir como un modo de predicción que tiene una direccionalidad de tan-1(dy/dx) usando (dx, dy) representado como uno de (2,1), (1,-2), (2,-1), (4,3), (1,11), (1,-1), (5,-6), (7,-6), (7,-4), (2,7), (5,-7), y (4,-3), (1,-1), (1,1), (1,2), (2,1), (1,-2), (2,-11), (5,-7), (10,-7), (11,3), (12,-3), (1,-11), (1,-7), (3,-10), (11,1), (6,1), (8,3), (5,3), (5,7), como se muestra en la Tabla 1.
Figure imgf000015_0001
El modo 32 se puede establecer como un modo bi-lineal que usa interpolación bi-lineal como se describirá más tarde con referencia a la figura 16.
Las figuras 16A a 16C son unos diagramas de referencia para explicar modos de intra predicción de una unidad de codificación de componente de luminancia que tiene varias direccionalidades, útiles con una realización ejemplar. Como se describió anteriormente con referencia a la Tabla 1, cada uno de los modos de intra predicción de acuerdo con las realizaciones ejemplares pueden tener direccionalidad de tan”'1(dy/dx) usando una pluralidad de parámetros (dx, dy).
Con referencia a la figura 16A, los pixeles colindantes A y B en una línea 160 que se extiende desde un pixel actual P en una unidad de codificación de componente dé luminancia actual, que se predecirá, a un ángulo de tan”'1(dy/dx) determinado por un valor de un parámetro (dx, dy) de acuerdo con un modo, como se muestra en la Tabla 1, se puede usar como predictores del pixel actual P. En este caso, los pixeles colindantes A y B pueden ser pixeles que se han codificado y restaurado, y pertenecen a unidades de codificación previas ubicadas arribas y al lado izquierdo de la unidad de codificación actual. Además, cuando la línea 160 no pasa a lo largo de los pixeles colindantes en ubicaciones cada una teniendo un valor integral pero pasa entre estos pixeles colindantes, los pixeles colindantes más cercanos a la línea 160 se pueden usar como predictores del pixel actual P. Además, un valor promedio ponderado considerando una distancia entre una intersección de la línea 160 y pixeles colindantes cercanos a la línea 160 se pueden usar como un predictor para el pixel actual P. Si dos pixeles que cumplen la línea 160, por ejemplo, el pixel colindante A ubicado arriba del pixel actual P y el pixel colindante B ubicado en el lado izquierdo del pixel actual P, están presentes, un promedio de valores de pixeles de los pixeles colindantes A y B se puede usar como un predictor del pixel actual P. De otra manera, si un producto de valores de los parámetros dx y dy es un valor positivo, se puede usar el pixel colindante A, y si el producto de los valores de los parámetros dx y dy es un valor negativo, se puede usar el pixel colindante B.
Las figuras 16B y 16C son diagramas de referencia para explicar un procedimiento para generar un predictor cuando la línea 160 de la figura 16A pasa entre, no a través, de los pixeles colindantes de ubicaciones de enteros.
Con referencia a la figura 16B, si la línea 160 que tiene un ángulo de tan”-1(dy/dx) que es determinado de acuerdo con (dx,dy) de cada modo pasa entre un pixel colindante A 161 y un pixel colindante B 162 de ubicaciones de entero, un valor promedio ponderado considerando una distancia entre una intersección de la línea extendida 160 y los pixeles colindantes A 161 y B 162 cercanos a la línea extendida 160 se pueden usar como un predictor como se describió anteriormente. Por ejemplo, si una distancia entre el pixel colindante A 161 y la intersección de la línea extendida 160 que tiene el ángulo de tan”-1(dy/dx) es f, y una distancia entre el pixel colindante B 162 y la intersección de la línea extendida 160 es g, un predictor para el pixel actual P se puede obtener como (A*g+B*f)/(f+g). Aquí, f y g pueden ser cada uno una distancia normalizada usando un entero. Si se usa software o hardware, el predictor para el pixel actual P se puede obtener por operación de desplazamiento como (g*A+f*B+2)>>2. Como se muestra en la figura 16B, si la línea extendida 160 pasa a través de un primer cuarto cercano al pixel colindante A 161 de entre cuatro partes obtenidas dividiendo en cuartos una distancia entre el pixel colindante A 161 y el pixel colindante B 162 de las ubicaciones de entero, el predictor para el pixel actual P se puede adquirir como (3*A+B)/4. Tal operación se puede realizar por operación de desplazamiento considerando el redondeo a un entero más cercano como (3*A+B+2)>>2.
Mientras tanto, si la línea extendida 160 que tiene el ángulo de tan”-1(dy/dx) que se determina de acuerdo con (dx, dy) de cada modo pasa entre el pixel colindante A 161 y el pixel colindante B 162 de las ubicaciones de enteros, una sección entre el pixel colindante A 161 y el pixel colindante B 162 se puede dividir en un número predeterminado de áreas, y un valor promedio ponderado considerando una distancia entre una intersección y el pixel colindante A 161 y el pixel colindante B 162 en cada área dividida se puede usar como un valor de predicción. Por ejemplo, con referencia a la figura 16C, una sección entre el pixel colindante A 161 y el pixel colindante B 162 se puede dividir en cinco secciones P1 hasta P5 como se muestra en la figura 16C, un valor promedio ponderado representativo considerando una distancia entre una intersección y el pixel colindante A 161 y el pixel colindante B 162 en cada sección se puede determinar, y el valor promedio ponderado representativo se puede usar como un predictor para el pixel actual P. En detalle, si la línea extendida 160 pasa a través de la sección P1, un valor de pixel colindante A se puede determinar como un predictor para el pixel actual P. Si la línea extendida 160 pasa a través de la sección P2, un valor promedio ponderado (3*A+1*B+2)>>2 considerando una distancia entre los pixeles colindantes A y B y un punto medio de la sección P2 se puede determinar como un predictor para el pixel actual P. Si la línea extendida 160 pasa a través de la sección P3, un valor promedio ponderado (2*A+2*B+2)>>2 considerando una distancia entre los pixeles colindantes A y B y un punto medio de la sección P3 se puede determinar como un predictor para el pixel actual P. Si la línea extendida 160 pasa a través de la sección P4, un valor promedio ponderado (1*A+3*B+2)>>2 considerando una distancia entre los pixeles colindantes A y B y un punto medio de la sección P4 se puede determinar como un predictor para el pixel actual P. Si la línea extendida 160 pasa a través de la sección P5, un valor del pixel colindante B se puede determinar como un predictor para el pixel actual P.
Además, si dos pixeles colindantes, es decir, el pixel colindante A en el lado superior y el pixel colindante B en el lado izquierdo cumplen la línea extendida 160 como se muestra en la figura 16A, un valor promedio del pixel colindante A y el pixel colindante B se puede usar como un predictor para el pixel actual P, o si (dx*dy) es un valor negativo, se puede usar el pixel colindante B en el lado izquierdo.
Los modos de intra predicción que tienen varias direccionalidades mostradas en la Tabla 1 se pueden predeterminar por un lado de codificación y un lado de decodificación, y solamente un índice de un modo de intra predicción de cada unidad de codificación se puede transmitir.
La figura 17 es un diagrama de referencia para explicar un modo bi-lineal de acuerdo con una realización ejemplar. Con referencia a la figura 17, en el modo bilineal, un promedio geométrico se calcula considerando un valor de un pixel actual P 170 en una unidad de codificación de componente de luminancia actual, la cual se predecirá, valores de pixeles en los límites superiores, inferiores, izquierdo, y derecho de la unidad de codificación de componente de luminancia actual, y las distancias entre el pixel actual P 170 y los límites superior, inferior, izquierdo, y derecho de la unidad de codificación de componente de luminancia actual. El promedio geométrico luego se usa como un predictor del pixel actual P 170. Por ejemplo, en el modo bi-lineal, un promedio geométrico calculado usando un pixel virtual A 171, un pixel virtual B 172, un pixel D 176, y un pixel E 177 ubicado en los lados superior, inferior, izquierdo, y derecho del pixel actual P 170, y las distancias entre el pixel actual P 170 y los límites superior, inferior, izquierdo, y derecho de la unidad de codificación de componente de luminancia actual, se usa como un predictor del pixel actual P 170. Puesto que el modo bi-lineal es uno de los modos de intra predicción, los pixeles colindantes que se han codificado y restaurado, y pertenecen a las unidades de codificación de componente de luminancia previas, se usan como pixeles de referencia para predicción. Por consiguiente, los valores de pixel en la unidad de codificación de componente de luminancia actual no se usan, pero los valores de pixeles virtuales calculados usando pixeles colindantes ubicados en los lados superior e izquierdo de la unidad de codificación de componente de luminancia actual se usan como el pixel A 171 y el pixel B 172.
Específicamente, primero se calcula un valor de un pixel virtual C 173 en un punto inferior más derecho de la unidad de codificación de componente de luminancia actual calculando un promedio de los valores de un pixel colindante (pixel derecho superior) 174 en un punto más derecho superior de la unidad de codificación de componente de luminancia actual y un pixel colindante (pixel izquierdo inferior) 175 en un punto inferior más izquierdo de la unidad de codificación de componente de luminancia actual, como se expresa en la Ecuación 1 a continuación;
Ecuación 1
C=0,5(PixelIzquierdoInferior+PixelDerechoSuperior)
Luego, un valor del pixel virtual A 171 ubicado en un límite más inferior de la unidad de codificación de componente de luminancia actual cuando el pixel actual P 170 se extiende hacia abajo considerando la distancia W1 entre el pixel actual P 170 y el límite izquierdo de la unidad de codificación de componente de luminancia actual y la distancia W2 entre el pixel actual P 170 y el límite derecho de la unidad de codificación de componente de luminancia actual, se calcula usando la Ecuación 2 a continuación:
Ecuación 2
A=(C*W1+PixeNzquierdoInferior*W2)/(W1/W2);
A=(C*W1+PixelIzquierdoInferior*W2+((W1 W2))/2))/(W1 W2)
Cuando un valor de W1+W2 en la Ecuación 2 es una potencia de 2, como 2An, A=(C*W1+PixelIzquierdoInferior*W2+((W1+W2)/2))/(W1+W2) se puede calcular por operación de desplazamiento como A=(C*W1+PixelIzquierdoInferior*W2+2A(n-1))>>n sin división.
De manera similar, un valor del pixel virtual B 172 ubicado en un límite más derecho de la unidad de codificación de componente de luminancia actual cuando el pixel actual P 170 se extiende en la dirección derecha considerando la distancia hl entre el pixel actual P 170 y el límite superior de la unidad de codificación de componente de luminancia actual y la distancia h2 entre el pixel actual P 170 y el límite inferior de la unidad de codificación de componente de luminancia actual, se calcula usando la Ecuación 3 a continuación:
Ecuación 3
B=(C*h1+PixelDerechoSuperior*h2)/(h1+h2) B=(C*h1+PixenerechoSuperior*h2+((h1+h2)/2))/(h1+h2)
Cuando un valor de h1+h2 en la Ecuación 3 es una potencia de 2, como 2Am, B=(C*h1+PixelDerechoSuperior*h2+((h1+h2)/2))/(h1+h2) se puede calcular por operación de desplazamiento como B=(c*h1+PixelDerechoSuperior*h2+2A(m-1))>>m sin división.
Una vez que los valores del pixel virtual B 172 en el borde derecho y el pixel virtual A 172 en el borde inferior del pixel actual P 170 se determinan usando las Ecuaciones 1 a 3, un predictor para el pixel actual P 170 se puede determinar usando un valor promedio de A+B+D+E. En detalle, un valor promedio ponderado considerando una distancia entre el pixel actual P 170 y el pixel virtual A 171, el pixel virtual B 172, el pixel D 176, y el pixel E 177 o un valor promedio de A+B+D+E se puede usar como un predictor para el pixel actual P 170. Por ejemplo, si un valor promedio ponderado se usa y el tamaño de bloque es 16x16, un predictor para el pixel actual P se puede obtener como (h1*A+h2*D+W1*B+W2*E+16))>>5. Tal predicción bilineal se aplica a todos los pixeles en la unidad de codificación actual, y se genera una unidad de codificación de predicción de la unidad de codificación actual en un modo de predicción bilineal.
De acuerdo con una realización ejemplar, la codificación de predicción se realiza de acuerdo con diversos modos de intra predicción determinados de acuerdo con el tamaño de una unidad de codificación de componente de luminancia, permitiendo la compresión de video eficiente con base en las características de una imagen.
Puesto que un número grande de modos de intra predicción que los modos de intra predicción usados en un códec convencional se usan de acuerdo con un tamaño de una unidad de codificación de acuerdo con una realización ejemplar, la compatibilidad con el códec convencional puede llegar a ser un problema. En un arte convencional, 9 modos de intra predicción en su mayoría se pueden usar como se muestra en las figuras 14A y 14B. Por consiguiente, es necesario mapear los modos de intra predicción que tienen varias direcciones seleccionadas de acuerdo con una realización ejemplar para uno de un número menor de modos de intra predicción. Es decir, cuando un número de modos de intra predicción disponibles de una unidad de codificación actual es N1 (N1 es un entero), para hacer los modos de intra predicción disponibles de la unidad de codificación actual, compatibles con una unidad de codificación de un tamaño predeterminado que incluye N2 (N2 es un entero diferente de N1) modos de intra predicción, los modos de intra predicción de la unidad de codificación actual se pueden mapear a un modo de intra predicción que tiene una dirección más similar de entre los N2 modos intra predicción. Por ejemplo, un total de 33 modos de intra predicción están disponibles como se muestra en la Tabla 1 en la unidad de codificación actual, y se asume que un modo de intra predicción finalmente aplicado a la unidad de codificación actual es el modo 14, es decir, (dx, dy) = (4,3), que tiene una directividad de tan”-1(3/4)?36,87 (grados). En este caso, para igualar el modo de intra predicción aplicado al bloque actual a uno de los 9 modos de intra predicción como se muestran en las figuras 14A y 14B, se puede seleccionar el modo 4 (derecho inferior) que tiene una directividad muy similar a la directividad de 36,87 (grados). Es decir, el modo 14 de la Tabla 1 se puede mapear al modo 4 mostrado en la figura 14B. Igualmente, si un modo de intra predicción aplicado a la unidad de codificación actual se selecciona para ser el modo 15, es decir, (dx,dy) = (1,11), de entre los 33 modos de intra predicción disponibles de la Tabla 1, puesto que una directividad del modo de intra predicción aplicado a la unidad de codificación actual es tan”-1(11)?84,80 (grados), el modo 0 (vertical) de la figura 14B que tiene una directividad muy similar a la directividad 84,80 (grados) se puede mapear al modo 15.
Mientras tanto, para decodificar una unidad de codificación de componente de luminancia codificada vía intra predicción, la información de modo de predicción es requerida para determinar qué modo de intra predicción se usa para codificar una unidad de codificación de componente de luminancia actual. Por consiguiente, la información de modo de intra predicción de la unidad de codificación de componente de luminancia actual se agrega a una secuencia de bits cuando se codifica una imagen. En este momento, una carga general puede incrementar, disminuyendo una eficiencia de compresión si la información de modo de intra predicción de cada unidad de codificación de componente de luminancia se agrega a la secuencia de bits.
Por lo tanto, de acuerdo con una realización ejemplar, en lugar de transmitir la información de modo de intra predicción de la unidad de codificación de componente de luminancia actual, que se determina como un resultado de la codificación de la unidad de codificación de componente de luminancia actual, solamente se transmite un valor de diferencia entre un valor actual de un modo de intra predicción y un valor de predicción de un modo de intra predicción, que se predice de una unidad de codificación de componente de luminancia colindante.
La figura 18 es un diagrama para explicar un procedimiento para generar un valor de predicción de un modo de intra predicción de una unidad de codificación de componente de luminancia actual A 180, de acuerdo con una realización ejemplar.
Con referencia a la figura 18, un modo de intra predicción de la unidad de codificación de componente de luminancia actual A 180 se puede predecir de los modos de intra predicción determinados en unidades de codificación de componente de luminancia colindantes. Por ejemplo, cuando un modo de intra predicción de una unidad de codificación de componente de luminancia izquierda B 181 es el modo 3, y un modo de intra predicción de una unidad de codificación de componente de luminancia superior C 182 es el modo 4, el modo de intra predicción de la unidad de codificación de componente de luminancia actual A 180 se puede predecir que es el modo 3, el cual tiene un valor menor de entre los modos de intra predicción de la unidad de codificación de componente de luminancia superior C 182 y la unidad de codificación de componente de luminancia izquierda B 181. Si un modo de intra predicción determinado como un resultado de la codificación de intra predicción actualmente realizada en la unidad de codificación de componente de luminancia actual A 180 es el modo 4, solamente 1, es decir, un valor de diferencia con el modo 3 que constituye el modo de intra predicción predicho de la unidad de codificación de componente de luminancia colindante, se transmite como una información de modo de intra predicción. Un valor de predicción de un modo de intra predicción de una unidad de decodificación de componente de luminancia actual se genera de la misma manera durante la decodificación, y un valor de diferencia recibido a través de una secuencia de bits se agrega al valor de predicción, obteniendo información de modo de intra predicción actualmente aplicada a la unidad de decodificación de componente de luminancia actual. En la descripción anterior, solamente se usan las unidades de codificación colindantes superior e izquierda C y B 182 y 181 25 de la unidad de codificación de componente de luminancia actual A 180, pero alternativamente, el modo de intra predicción de la unidad de codificación de componente de luminancia actual A se puede predecir usando otras unidades de codificación de componente de luminancia colindantes E y D de la figura 18. Un modo de intra predicción de una unidad de codificación de componente de luminancia se puede usar para predecir un modo de intra predicción de una unidad de codificación de componente de crominancia que se describirá posteriormente.
Mientras tanto, puesto que un modo de intra predicción actualmente realizado difiere de acuerdo con los tamaños de las unidades de codificación de componente de luminancia, un modo de intra predicción predicho de las unidades de codificación de componente de luminancia colindantes no puede igualar un modo de intra predicción de una unidad de codificación de componente de luminancia actual. Por consiguiente, para predecir el modo de intra predicción de la unidad de codificación de componente de luminancia actual de las unidades de codificación de componente de luminancia colindantes que tiene diferentes tamaños, se requiere un procedimiento de mapeo para mapear diferentes modos de intra predicción de las unidades de codificación de componente de luminancia.
Las figuras 19A y 19B son unos diagramas de referencia para explicar un procedimiento de mapeo de modos intra predicción entre las unidades de codificación de componente de luminancia que tienen diferentes tamaños, útiles con una realización ejemplar.
Con referencia a la figura 19A, una unidad de codificación de componente de luminancia actual A 190 tiene un tamaño de 16x16, una unidad de codificación de componente de luminancia izquierda B 191 tiene un tamaño de 8 x 8, y una unidad de codificación de componente de luminancia superior C 192 tiene un tamaño de 4 x 4. Además, como se describe con referencia a la figura 13, los números de modos de intra predicción utilizables en las unidades de codificación de componente de luminancia que respectivamente tienen tamaños de 4 x 4 , 8x 8 , y 16 x 16 son respectivamente 9, 9, y 33. Aquí, puesto que los modos de intra predicción utilizables en la unidad de codificación de componente de luminancia izquierda B 191 y la unidad de codificación de componente de luminancia superior C 192 son diferentes de los modos de intra predicción utilizables en la unidad de codificación de componente de luminancia actual A 190, un modo de intra predicción predicho de las unidades de codificación de componente de luminancia izquierda y superior B y C 191 y 192 no puede ser adecuado para el uso como un valor de predicción del modo de intra predicción de la unidad de codificación de componente de luminancia actual A 190. Por consiguiente, en la realización ejemplar actual, los modos de intra predicción de las unidades de codificación de componente de luminancia izquierda y superior B y C 191 y 192 se cambian respectivamente al primer y segundo modos de intra predicción representativos en la dirección muy similar de entre un número predeterminado de los modos de intra predicción representativos, y uno de los primero y segundo modos de intra predicción representativos, que tiene un valor de modo menor, se selecciona como un modo de intra predicción representativo final. Luego, un modo de intra predicción que tiene la dirección más similar como el modo de intra predicción representativo final se selecciona de entre los modos de intra predicción utilizables en la unidad de codificación de componente de luminancia actual A 190 como un modo de intra predicción de la unidad de codificación de componente de luminancia actual A 190.
Alternativamente, con referencia a la figura 19B, se asume que una unidad de codificación de componente de luminancia actual A tiene un tamaño de 16 x 16, una unidad de codificación de componente de luminancia izquierda B tiene un 20 tamaño de 32 x 32, y una unidad de codificación de componente de luminancia superior C tiene un tamaño de 8x8. Además, se asume que los números de modos de intra predicción disponibles de las unidades de codificación de componente de luminancia que tienen los tamaños de 8x8, 16 x 16, y 32 x 32 son respectivamente 9, 9, y 33. Además, se asume que un modo de intra predicción de la unidad de codificación de componente de luminancia izquierda B es un modo 4, y un modo de intra predicción de la unidad de codificación de componente de luminancia superior C es un modo 31. En este caso, puesto que los modos de intra predicción de la unidad de codificación de componente de luminancia izquierda B y la unidad de codificación de componente de luminancia superior C no son compatibles entre sí, cada uno de los modos de intra predicción de la unidad de codificación de componente de luminancia izquierda B y la unidad de codificación de componente de luminancia superior C se mapea a uno de los modos de intra predicción representativos mostrados en la figura 20. Puesto que el modo 31, es decir el modo de intra predicción de la unidad de codificación de componente de luminancia izquierda B tiene una directividad de (dx,dy)=(4,- 3) como se muestra en la Tabla 1, se mapea un modo 5 que tiene una directividad más similar a tan”-1(-3/4) de entre los modos de intra predicción representativos de la figura 20, y puesto que el modo de intra predicción modo 4 de la unidad de codificación de componente de luminancia superior C tiene la misma directividad como aquella del modo 4 de entre los modos de intra predicción representativos de la figura 20, el modo 4 se mapea.
El modo 4 que tiene un valor de modo menor de entre el modo 5 que es el modo de intra predicción mapeado de la unidad de codificación de componente de luminancia izquierda B y el modo 4 que es el modo de intra predicción mapeado de la unidad de codificación de componente de luminancia superior C se pueden determinar para ser un valor de predicción de un modo de intra predicción de la unidad de codificación de componente de luminancia actual, y solamente un valor de diferencia de modo entre un modo de intra predicción actual y un modo de intra predicción predicho de la unidad de codificación de componente de luminancia actual se pueden codificar como información de modo de predicción de la unidad de codificación de componente de luminancia actual.
La figura 20 es un diagrama de referencia para explicar un procedimiento para mapear un modo de intra predicción de una unidad de codificación de componente de luminancia colindante a uno de los modos de intra predicción representativos. En la figura 20, un modo vertical 0, un modo horizontal 1, un modo DC 2, un modo diagonal izquierdo 3, un modo diagonal derecho 4, un modo vertical derecho 5, un modo horizontal inferior 6, un modo vertical izquierdo 7, y un modo horizontal superior 8 se muestran como modos de intra predicción representativos. Sin embargo, los modos de intra predicción representativos no se limitan a esto, y se puede establecer que tienen diversas direccionalidades.
Con referencia a la figura 20, se establece un número predeterminado de modos de intra predicción representativos, y un modo de intra predicción de una unidad de codificación de componente de luminancia colindante se mapea como un modo de intra predicción representativo que tiene la dirección más similar. Por ejemplo, cuando un modo de intra predicción de una unidad de codificación de componente de luminancia superior tiene una direccionalidad indicada por MODO_A 200, el modo de intra predicción MODO_A 200 de la unidad de codificación de componente de luminancia superior se mapea al modo 1 que tiene la dirección más similar de entre los modos de intra predicción representativos predeterminados 1 hasta 9. De manera similar, cuando un modo de intra predicción de una unidad de codificación de componente de luminancia izquierda tiene una direccionalidad indicada por MODO_B 201, el modo de intra predicción MODO_B 201 de la unidad de codificación de componente de luminancia izquierda se mapea al modo 5 que tiene la dirección más similar de entre los modos de intra predicción representativos predeterminados 1 hasta 9.
Luego, uno del primer y segundo modos de intra predicción representativos que tiene un valor de modo menor se selecciona como un modo de intra predicción representativo de una unidad de codificación de componente de luminancia colindante final. Un modo de intra predicción representativo que tiene un valor de modo menor se selecciona puesto que un valor de modo menor generalmente se establece para modos de intra predicción que ocurren más frecuentemente. En otras palabras, cuando diferentes modos de intra predicción se predicen con base en las unidades de codificación de componente de luminancia colindantes, un modo de intra predicción que tiene un valor de modo menor es más probable que ocurra. Por consiguiente, cuando diferentes modos de intra predicción están compitiendo entre sí, un modo de intra predicción que tiene un valor de modo menor se puede seleccionar como un predictor o un modo de intra predicción de la unidad de codificación de componente de luminancia actual. Aun cuando un modo de intra predicción representativo se selecciona con base en las unidades de codificación de componente de luminancia colindantes, el modo de intra predicción representativo seleccionado no se puede usar como un predictor de un modo de intra predicción de una unidad de codificación de componente de luminancia actual. Si la unidad de codificación de componente de luminancia actual A 190 tiene 33 modos de intra predicción, y un número de modos de intra predicción representativos es 9 como se describe con referencia a la figura 19, un modo de intra predicción de la unidad de codificación de componente de luminancia actual A 190, el cual corresponde al modo de intra predicción representativo, no existe. En este caso, igual que el mapeo de un modo de intra predicción de una unidad de codificación de componente de luminancia colindante a un modo de intra predicción representativo como se describió anteriormente, un modo de intra predicción que tiene la dirección más similar como un modo de intra predicción representativo seleccionado de entre modos de intra predicción de acuerdo con un tamaño de la unidad de codificación de componente de luminancia actual se puede seleccionar finamente como un predictor del modo de intra predicción de la unidad de codificación de componente de luminancia actual. Por ejemplo, cuando un modo de intra predicción representativo finalmente seleccionado con base en las unidades de codificación de componente de luminancia colindantes de la figura 20 es el modo 1, un modo de intra predicción que tiene la direccionalidad más similar a la direccionalidad del modo 1 se selecciona de entre los modos de intra predicción utilizables de acuerdo con el tamaño de la unidad de codificación de componente de luminancia actual como un predictor del modo de intra predicción de la unidad de codificación de componente de luminancia actual. Mientras tanto, como se describió con referencia a las figuras 16A a 16C, si un predictor para el pixel actual P se genera usando pixeles colindantes en o cercanos a la linea extendida 160, la línea extendida 160 actualmente tiene una directividad de tan-1(dy/dx). Para calcular la directividad, puesto que la división (dy/dx) es necesaria, el cálculo se hizo bajar a cifras decimales cuando se usa hardware o software, incrementando la cantidad del cálculo. Por consiguiente, un procedimiento para establecer dx y dy se usa para reducir la cantidad de cálculo cuando una dirección de predicción para seleccionar pixeles colindantes a ser usados como pixeles de referencia acerca de un pixel en una unidad de codificación se establece usando los parámetros dx y dy en una manera similar a aquella descrita con referencia a la Tabla 1.
La figura 25 es un diagrama para explicar una relación entre un pixel actual y pixeles colindantes ubicados en una línea extendida que tiene una directividad de (dy/dx), de acuerdo con una realización ejemplar.
Con referencia a la figura 25, se asume que una ubicación del pixel actual P es P(j,i), y un pixel colindante superior y un pixel colindante izquierdo B ubicado en una línea extendida 2510 que tiene una directividad, es decir, un gradiente, de tan”-1(dy/dx) y que pasa a través del pixel actual P son respectivamente A y B. Cuando se asume que las ubicaciones de pixeles colindantes superiores corresponden a un eje X en un plano de coordenadas, y las ubicaciones de pixeles colindantes corresponden a un eje y en la placa de coordenadas, el pixel colindante superior A se ubica en (j+l*dx/dy,0) y el pixel colindante izquierdo B se ubica en (0,i+j*dy/dx). Por consiguiente, para determinar cualquiera del pixel colindante superior A y el pixel colindante izquierdo B para predecir el pixel actual P, se requiere la división, tal como dx/dy o dy/dx. Tal división es muy compleja como se describió anteriormente, reduciendo una velocidad de cálculo de software o hardware.
Por consiguiente, un valor de cualquiera de dx y dy que representa una directividad de un modo de predicción para determinar pixeles colindantes se puede determinar que es una potencia de 2. Es decir, cuando n y m son enteros, dx y dy pueden ser 2An y 2Am, respectivamente.
Con referencia a la figura 25, si el pixel colindante izquierdo B se usa como un predictor para el pixel actual P y dx tiene un valor de 2An, j*dy/dx necesario para determinar (0,i+j*dy/dx) que es una ubicación del pixel colindante izquierdo B llega a ser (j*dy/(2An)), y la división usando tal potencia de 2 se obtiene fácilmente a través de la operación de desplazamiento como (j*dy)>>n, reduciendo la cantidad de cálculo.
Igualmente, si el pixel colindante superior A se usa como un predictor para el pixel actual P y dy tiene un valor de 2Am, i*dx/dy necesario para determinar (j+i*dx/dy,0) que es una ubicación del pixel colindante superior A llega a ser (i*dx)/(2Am), y la división usando tal potencia de 2 se obtiene fácilmente a través de la operación de desplazamiento como (i*dx)>>m.
La figura 26 es un diagrama para explicar un cambio en un pixel colindante ubicado en una línea extendida que tiene una directividad de (dx,dy) de acuerdo con una ubicación de un pixel actual, de acuerdo con una realización ejemplar.
Como un pixel colindante necesario para la predicción de acuerdo con una ubicación de un pixel actual, se selecciona cualquiera de un pixel colindante superior y un pixel colindante izquierdo.
Con referencia a la figura 26, cuando un pixel actual 2610 es P(j,i) y se predice usando un pixel colindante ubicado en una dirección de predicción, un pixel superior A se usa para predecir el pixel actual P 2610. Cuando el pixel actual 2610 es Q(b,a), un pixel izquierdo B se usa para predecir el pixel actual Q 2620.
Si solamente un componente dy de una dirección del eje y de entre (di, dy) que representa una dirección de predicción tiene una potencia de 2 como 2Am, mientras que el pixel superior A en la figura 26 se puede determinar a través de la operación de desplazamiento sin división tal como (j+(i*dx)>>m, 0), el pixel izquierdo B requiere la división tal como (0, a+b*2Am/dx). Por consiguiente, para excluir la división cuando se genera un predictor para todos los pixeles de un bloque actual, todos los dx y dy pueden tener un tipo de potencia de 2.
Las figuras 27 y 28 son diagramas para explicar un procedimiento para determinar una dirección de modo de intra predicción, de acuerdo con realizaciones ejemplares.
En general, existen muchos casos donde los patrones lineales mostrados en una señal de video o imagen son verticales u horizontales. Por consiguiente, cuando los modos de intra predicción que tienen varias directividades se definen usando los parámetros dx y dy, la eficiencia de codificación de imagen se puede mejorar definiendo los valores dx y dy como sigue.
En detalle, si dy tiene un valor fijo de 2Am, un valor absoluto de dx se puede establecer de modo que una distancia entre las direcciones de predicción cercana a una dirección vertical es estrecha, y una distancia entre los modos de predicción más cercana a una dirección horizontal es más amplia. Por ejemplo, con referencia a la figura 27, si dy tiene un valor de 2A4, es decir, 16, un valor de dx se puede establecer que sea 1, 2, 3, 4, 6, 9, 12, 16, 0, -1, -2, -3, -4, -6, -9, -12, y -16, de modo que una distancia entre las direcciones de predicción cercana a una dirección vertical es estrecha y una distancia entre los modos de predicción más cercana a una dirección horizontal es más amplia. Igualmente, si dx tiene un valor fijo de 2An, un valor absoluto de dy se puede establecer de modo que una distancia entre las direcciones de predicción cercana a una dirección horizontal es estrecha y una distancia entre los modos de predicción más cercana a una dirección vertical es más amplia. Por ejemplo, con referencia a la figura 28, si dx tiene un valor de 2a4, es decir, 16, un valor de dy se puede establecer que sea 1, 2, 3, 4, 6, 9, 12, 16, 0, -1, -2, -3, -4, -6, -9, -12, y -16, de modo que una distancia entre las direcciones de predicción cercana a una dirección horizontal es estrecha y una distancia entre los modos de predicción más cercana a una dirección vertical es más amplia. Además, cuando uno de los valores de dx y dy se fija, el valor restante se puede establecer que sea incrementado de acuerdo con un modo de predicción. Por ejemplo, si dy se fija, una distancia entre dx se puede establecer que sea incrementada por un valor predeterminado. Además, un ángulo de una dirección horizontal y una dirección vertical se puede dividir en unidades predeterminadas, y tal cantidad incrementada se puede establecer en cada uno de los ángulos divididos. Por ejemplo, si dy se fija, un valor de dx se puede establecer que tiene una cantidad incrementada de a en una sección menor de 15 grados, una cantidad incrementada de b en una sección entre 15 grados y 30 grados, y una anchura incrementada de c en una sección mayor que 30 grados. En este caso, para tener tal forma como se muestra en la figura 25, el valor de dx se puede establecer que satisfaga una relación de a < b < c.
Por ejemplo, los modos de predicción descritos con referencia a las figuras 25 a 28 se pueden definir como un modo de predicción que tiene una directividad de tan”'1(dy/dx) usando (dx,dy) como se muestra en las Tablas 2 a 4.
[Tabla 2]
Figure imgf000021_0001
Figure imgf000022_0001
Figure imgf000022_0002
Por ejemplo, con referencia a la Tabla 2, un modo de predicción que tiene una direccionalidad de tan-1(dy/dx) usando (dx, dy) representada como una de (-32, 32), (-26, 32), (-21, 32), (-17, 32), (-13, 32), (-9, 32), (-5, 32), (-2, 32), (0, 32), (2, 32), (5, 32), (9, 32), (13, 32), (17, 32), (21, 32), (26, 32), (32, 32), (32, -26), (32, -21), (32, -17), (32, -13), (32, -9), (32, -5), (32, -2), (32, 0), (32, 2), (32, 5), (32, 9), (32, 13), (32, 17), (32, 21), (32, 36) y (32, 32).
La figura 21 es un diagrama para explicar modos de intra predicción candidatos aplicados a una unidad de codificación de componente de crominancia, de acuerdo con una realización ejemplar.
Con referencia a la figura 21, los modos de intra predicción candidatos aplicados mientras se está intra prediciendo una unidad de codificación de componente de crominancia incluyen un modo vertical, un modo horizontal, un modo DC, un modo plano, y un modo de intra predicción finalmente determinado por una unidad de codificación de componente de luminancia correspondiente a una unidad de codificación de componente de crominancia actual como se describió anteriormente. Además, como se describió anteriormente, una unidad de codificación de componente de luminancia y una unidad de codificación de componente de crominancia, las cuales son intra predichas, pueden ser una de las señales de imagen que tienen formatos de color de 4:2:0, 4:2:2, y 4:4:4 definidos en un campo de color YCbCr (o YUV). Un modo de intra predicción que tiene un mínimo costo de entre una pluralidad de modos de intra predicción utilizables se selecciona como un modo de intra predicción de una unidad de codificación de componente de luminancia, con base en el cálculo de costo, tal como un costo R-D. Los costes de los modos de intra predicción candidatos son cada uno calculados, y un modo de intra predicción candidato que tiene un costo mínimo se selecciona como un modo de intra predicción final de la unidad de codificación de componente de crominancia.
La figura 22 es un diagrama de bloques de un aparato de intra predicción 2200 de una imagen, de acuerdo con una realización ejemplar. El aparato de intra predicción 2200 de acuerdo con la realización actual de la presente invención puede operar como un intra predictor 410 del codificador de imagen 400 de la figura 4, y el intra predictor 550 del decodificador de imagen 500 de la figura 5.
Con referencia a la figura 22, el aparato de intra predicción 2200 incluye un intra predictor de luminancia 2210 y un intra predictor de crominancia 2220. Como se describió anteriormente, el intra predictor de luminancia 2210 selecciona modos de intra predicción candidatos para ser aplicados de acuerdo con un tamaño de una unidad de codificación de componente de luminancia actual, con base en un tamaño de cada división de unidad de codificación de componente de luminancia de acuerdo con una unidad de codificación máxima y una profundidad máxima, y aplica los modos de intra predicción candidatos determinados a la unidad de codificación de componente de luminancia actual para realizar la intra predicción en la unidad de codificación de componente de luminancia actual. El intra predictor de luminancia 2210 determina un modo de intra predicción óptimo que tiene un coste mínimo como un modo de intra predicción final de la unidad de codificación de componente de luminancia actual con base en los costos de acuerdo con un valor de error entre una unidad de codificación de predicción generada vía intra predicción, y una unidad de codificación de componente de luminancia original.
El intra predictor de crominancia 2220 calcula los costes de acuerdo con un modo vertical, un modo horizontal, un modo DC, un modo plano, y el modo de intra predicción final de la unidad de codificación de componente de luminancia correspondiente a una unidad de codificación de componente de crominancia actual, y determina un modo de intra predicción que tiene un costo mínimo como un modo de intra predicción final de la unidad de codificación de componente de crominancia actual.
Mientras tanto, cuando el aparato de intra predicción 2200 de la figura 22 se aplica a un aparato de decodificación, los tamaños de las unidades de decodificación de componente de crominancia y luminancia actuales se determinan usando una unidad de codificación máxima e información de profundidad que constituye la información de división jerárquica de la unidad de codificación máxima, que se extraen de una secuencia de bits usando el decodificador de entropía 520 de la figura 5, y un modo de intra predicción que se realiza se determina usando información acerca de una información de modo de intra predicción aplicada a las unidades de decodificación de componente de crominancia y luminancia actuales. Además, el aparato de intra predicción 2200 genera una unidad de decodificación de predicción realizando la intra predicción en cada una de las unidades de decodificación de componente de crominancia y luminancia de acuerdo con el modo de intra predicción extraído. La unidad de decodificación de predicción se agrega a los datos residuales restaurados de una secuencia de bits y, por consiguiente, se decodifican las unidades de decodificación de componente de crominancia y luminancia actuales. La figura 23 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra predicción de una unidad de codificación, de acuerdo con una realización ejemplar.
Con referencia a la figura 23, un cuadro actual de un componente de luminancia se divide en al menos una unidad de codificación de componente de luminancia con base en una unidad de codificación máxima y una profundidad que constituye la información de división jerárquica de la unidad de codificación máxima, en la operación 2310. En la operación 2320, se determina un modo de intra predicción de la unidad de codificación de componente de luminancia. Como se describió anteriormente, el modo de intra predicción de la unidad de codificación de componente de luminancia se determina seleccionando modos de intra predicción candidatos que se aplican con base en un tamaño de la unidad de codificación de componente de luminancia, realizando la intra predicción en la unidad de codificación de componente de luminancia aplicando los modos de intra predicción candidatos en una unidad de codificación de componente de luminancia, y luego determinando un modo de intra predicción óptimo que tiene un costo mínimo como el modo de intra predicción de la unidad de codificación de componente de luminancia. En la operación 2330, se determinan los modos de intra predicción candidatos de una unidad de codificación de componente de crominancia, los cuales incluyen el modo de intra predicción determinado de la unidad de codificación de componente de luminancia. Como se describió anteriormente, los modos de intra predicción candidatos aplicados a la unidad de codificación de componente de crominancia incluyen, además del modo de intra predicción determinado de la unidad de codificación de componente de luminancia, un modo vertical, un modo horizontal, un modo CC, y un modo plano.
En la operación 2340, los costes de la unidad de codificación de componente de crominancia de acuerdo con los modos de intra predicción candidatos determinados se comparan para determinar un modo de intra predicción que tiene un costo mínimo.
La figura 24 es un diagrama de flujo que ilustra un procedimiento para determinar un modo de intra predicción de una unidad de decodificación, para su uso con la invención.
Con referencia a la figura 24, una unidad de codificación máxima y una profundidad que constituye la información de división jerárquica de la unidad de codificación máxima se extraen de una secuencia de bits, en la operación 2410. En la operación 2420, un cuadro actual a ser decodificado se divide en una unidad de decodificación de componente de luminancia y una unidad de decodificación de componente de crominancia, con base en la profundidad y unidad de codificación máxima extraída.
En la operación 2430, la información acerca de los modos de intra predicción aplicados a las unidades de decodificación de componente de crominancia y luminancia se extrae de la secuencia de bits.
En la operación 2440, la intra predicción se realiza en las unidades de decodificación de componente de crominancia y luminancia de acuerdo con los modos de intra predicción extraídos, decodificando las unidades de decodificación de componente de crominancia y luminancia.
De acuerdo con las realizaciones ejemplares, agregando el modo de intra predicción de la unidad de codificación de componente de luminancia que tiene diversa direccionalidad como el modo de intra predicción de la unidad de codificación de componente de crominancia, la eficiencia de predicción de una imagen de un componente de crominancia, y la eficiencia de predicción de una imagen completa se puede incrementar sin tener que incrementar un rendimiento.
Las realizaciones ejemplares se pueden incluir como programas de computadora y se pueden implementar en computadoras digitales de uso general que ejecutan los programas usando un medio de grabación leíble por computadora. Los ejemplos del medio de grabación legible por ordenador incluyen medios de almacenamiento magnéticos (por ejemplo, ROM, discos flexibles, discos duros, etc.), medios de grabación ópticos (por ejemplo, CD-ROMs, o DVDs), y medios de almacenamiento.
Los aparatos de las realizaciones ejemplares pueden incluir un bus acoplado a cada unidad del aparato o codificador, al menos un procesador que se conecta al bus, el procesador para ejecutar comandos, y una memoria conectada al bus para almacenar los comandos, mensajes recibidos, y mensajes generados.

Claims (3)

REIVINDICACIONES
1. Un procedimiento para codificar una imagen, comprendiendo el procedimiento:
dividir una imagen actual en una pluralidad de unidades de codificación máximas, teniendo cada unidad de codificación un tamaño máximo de acuerdo con la información sobre un tamaño máximo de la unidad de codificación, en el que una unidad de codificación máxima se divide en una pluralidad de unidades de codificación usando una información de profundidad que indica el número de veces que la unidad de codificación se divide espacialmente de la unidad de codificación máxima;
dividir una unidad de codificación máxima del componente de luminancia y una unidad de codificación máxima del componente de crominancia de la imagen actual en una o varias unidades de codificación del componente de luminancia y una o varias unidades de codificación del componente de crominancia, respectivamente de acuerdo con la información dividida;
realizar predicciones intra en una unidad de predicción de componentes de luminancia y una unidad de predicción de componentes de crominancia;
determinar una primera información del modo de predicción intra que indica un modo de predicción intra aplicado a la unidad de predicción del componente de luminancia incluida en una unidad de codificación del componente de luminancia;
determinar una segunda información del modo de predicción intra que indica un modo de predicción intra aplicado a la unidad de predicción del componente de crominancia correspondiente a la unidad de predicción del componente de luminancia, el modo de predicción intra aplicado a la unidad de predicción del componente de crominancia se determina entre los modos de predicción intra candidatos que incluyen el modo de predicción intra determinado aplicado a la unidad de predicción del componente de luminancia; y
codificar la primera información del modo predicción intra y la segunda información del modo predicción intra, en el que el modo de predicción intra indica una dirección particular entre una pluralidad de direcciones, la dirección particular se indica mediante el número dx en una dirección horizontal y el número dy en la dirección vertical, en el que dx número y número dy son enteros, y
en el que, cuando el modo de predicción intra de la unidad de predicción del componente de crominancia es igual al modo de predicción intra de la unidad de predicción del componente de luminancia, la segunda información del modo de predicción intra se establece para indicar que el modo de predicción intra de la unidad de predicción del componente de crominancia es igual al modo de predicción intra de la unidad de predicción del componente de luminancia.
2. Un aparato para codificar una imagen, comprendiendo el aparato:
un divisor configurado para dividir una imagen actual en una pluralidad de unidades de codificación máximas, teniendo cada unidad de codificación un tamaño máximo de acuerdo con la información sobre un tamaño máximo de la unidad de codificación, en el que una unidad de codificación máxima se divide en una pluralidad de unidades de codificación usando una información de profundidad que indica el número de veces que la unidad de codificación se divide espacialmente de la unidad de codificación máxima, y configurado para dividir una unidad de codificación máxima del componente de luminancia y una unidad de codificación máxima del componente de crominancia de la imagen actual en una o varias unidades de codificación del componente de luminancia y una o varias unidades de codificación del componente de crominancia, respectivamente de acuerdo con la información dividida;
un predictor intra configurado para realizar predicciones intra en una unidad de predicción de componentes de luminancia y una unidad de predicción de componentes de crominancia y para determinar una primera información del modo de predicción intra que indica un modo de predicción intra aplicado a la unidad de predicción de componentes de luminancia incluida en una unidad de codificación de componentes de luminancia, y una segunda información del modo de predicción intra que indica un modo de predicción intra aplicado a la unidad de predicción del componente de crominancia correspondiente a la unidad de predicción del componente de luminancia, el modo de predicción intra aplicado a la unidad de predicción del componente de crominancia se determina entre los modos de predicción intra candidatos que incluyen el modo de predicción intra determinado aplicado a la unidad de predicción del componente de luminancia; y
un codificador de entropía configurado para codificar la primera información del modo predicción intra y la segunda información del modo predicción intra,
en el que el modo de predicción intra indica una dirección particular entre una pluralidad de direcciones, la dirección particular se indica mediante el número dx en una dirección horizontal y el número dy en la dirección vertical, en el que dx número y número dy son enteros, y
en el que, cuando el modo de predicción intra de la unidad de predicción del componente de crominancia es igual al modo de predicción intra de la unidad de predicción del componente de luminancia, la segunda información del modo de predicción intra se establece para indicar que el modo de predicción intra de la unidad de predicción del componente de crominancia es igual al modo de predicción intra de la unidad de predicción del componente de luminancia.
3. Un medio de almacenamiento legible por ordenador que almacena un flujo de bits que comprende: datos codificados generados mediante la realización de una predicción intra en un bloque de componente de luminancia y un bloque de componente de crominancia correspondiente al bloque de componente de luminancia; una primera información del modo de predicción intra que indica el modo de predicción intra aplicado a un bloque componente de luminancia; y una segunda información del modo de predicción intra que indica un modo de predicción intra del bloque del componente de crominancia correspondiente al bloque del componente de luminancia, el modo de predicción intra aplicado a la unidad de predicción del componente de crominancia se determina entre los modos de predicción intra candidatos que incluyen el modo de predicción intra aplicado a la unidad de predicción del componente de luminancia, en el que una imagen actual se divide en una pluralidad de unidades de codificación máximas de acuerdo con la información sobre un tamaño máximo de una unidad de codificación, una unidad de codificación máxima del componente de luminancia y una unidad de codificación máxima del componente de crominancia de la imagen actual se dividen en una o varias unidades de codificación del componente de luminancia de profundidades y una o varias unidades de codificación del componente de crominancia, respectivamente de acuerdo con la información dividida,
en el que el modo de predicción intra indica una dirección particular entre una pluralidad de direcciones, la dirección particular se indica mediante el número dx en una dirección horizontal y el número dy en la dirección vertical, en el que dx número y número dy son enteros,
en el que, cuando el modo de predicción intra del bloque de componente de luminancia es igual al modo de predicción intra del bloque de componente de luminancia, la segunda información del modo de predicción intra se establece para indicar que el modo de predicción intra del bloque de crominancia es igual al modo de predicción intra del bloque del componente de luminancia.
ES17188268T 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen Active ES2744279T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100031145A KR101503269B1 (ko) 2010-04-05 2010-04-05 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2744279T3 true ES2744279T3 (es) 2020-02-24

Family

ID=44709661

Family Applications (6)

Application Number Title Priority Date Filing Date
ES15160768.6T Active ES2644037T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES11766126.4T Active ES2572640T3 (es) 2010-04-05 2011-04-05 Procedimiento de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160770.2T Active ES2644039T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160767.8T Active ES2644036T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES17188268T Active ES2744279T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160769.4T Active ES2640629T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen

Family Applications Before (4)

Application Number Title Priority Date Filing Date
ES15160768.6T Active ES2644037T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES11766126.4T Active ES2572640T3 (es) 2010-04-05 2011-04-05 Procedimiento de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160770.2T Active ES2644039T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES15160767.8T Active ES2644036T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES15160769.4T Active ES2640629T3 (es) 2010-04-05 2011-04-05 Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen

Country Status (24)

Country Link
US (8) US8619858B2 (es)
EP (6) EP2905962B1 (es)
JP (7) JP5883846B2 (es)
KR (1) KR101503269B1 (es)
CN (8) CN107426569B (es)
AU (1) AU2011239130C1 (es)
BR (5) BR112012025310B1 (es)
CA (5) CA2884486C (es)
CY (5) CY1117535T1 (es)
DK (5) DK2545713T3 (es)
ES (6) ES2644037T3 (es)
HR (5) HRP20160526T1 (es)
HU (6) HUE029176T2 (es)
LT (4) LT2903275T (es)
MX (1) MX2012011563A (es)
MY (6) MY186576A (es)
PL (6) PL2903273T3 (es)
PT (4) PT2903274T (es)
RS (5) RS56437B1 (es)
RU (6) RU2542884C2 (es)
SI (5) SI2903275T1 (es)
SM (1) SMT201600140B (es)
WO (1) WO2011126275A2 (es)
ZA (6) ZA201208296B (es)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503269B1 (ko) 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
CA2813191A1 (en) * 2010-10-01 2012-04-05 Samsung Electronics Co., Ltd. Image intra prediction method and apparatus
KR101789478B1 (ko) 2011-03-06 2017-10-24 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
US20140044347A1 (en) * 2011-04-25 2014-02-13 Sharp Kabushiki Kaisha Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
KR101753551B1 (ko) * 2011-06-20 2017-07-03 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램을 저장한 기록매체
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
ES2961936T3 (es) 2011-06-24 2024-03-14 Mitsubishi Electric Corp Aparato de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
PL2728861T3 (pl) * 2011-07-02 2017-12-29 Samsung Electronics Co., Ltd. Sposób i urządzenie do multipleksowania i demultipleksowania danych wideo w celu identyfikowania stanu odtwarzania danych wideo
WO2013023518A1 (en) * 2011-08-17 2013-02-21 Mediatek Singapore Pte. Ltd. Method and apparatus for intra prediction using non-square blocks
US9787982B2 (en) 2011-09-12 2017-10-10 Qualcomm Incorporated Non-square transform units and prediction units in video coding
JP5869681B2 (ja) * 2011-10-07 2016-02-24 パンテック カンパニー リミテッド 候補画面内予測モードを利用した画面内予測モードの符号化/復号化方法及び装置
US9699457B2 (en) 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
JP6034010B2 (ja) * 2011-10-24 2016-11-30 ソニー株式会社 符号化装置、符号化方法、およびプログラム
US9247254B2 (en) * 2011-10-27 2016-01-26 Qualcomm Incorporated Non-square transforms in intra-prediction video coding
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
CN110809157B (zh) * 2012-01-18 2023-05-02 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
US11039138B1 (en) 2012-03-08 2021-06-15 Google Llc Adaptive coding of prediction modes using probability distributions
US20130251028A1 (en) * 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
WO2013152736A1 (en) * 2012-04-12 2013-10-17 Mediatek Singapore Pte. Ltd. Method and apparatus for block partition of chroma subsampling formats
US9912944B2 (en) * 2012-04-16 2018-03-06 Qualcomm Incorporated Simplified non-square quadtree transforms for video coding
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9426466B2 (en) * 2012-06-22 2016-08-23 Qualcomm Incorporated Transform skip mode
US9774856B1 (en) 2012-07-02 2017-09-26 Google Inc. Adaptive stochastic entropy coding
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
CN103634603B (zh) 2012-08-29 2017-07-07 中兴通讯股份有限公司 视频编解码方法、装置及系统
KR102134367B1 (ko) 2012-09-10 2020-07-15 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호화 방법, 화상 부호화 장치, 화상 복호화 장치, 및 화상 부호화 복호화 장치
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
JP6137817B2 (ja) * 2012-11-30 2017-05-31 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
CN103929650B (zh) * 2013-01-10 2017-04-12 乐金电子(中国)研究开发中心有限公司 一种深度编码单元编码方法、解码方法、编码器及解码器
KR101475286B1 (ko) * 2013-01-18 2014-12-23 연세대학교 산학협력단 인트라 예측 방법 및 장치, 그리고 영상 처리 장치
KR101436949B1 (ko) * 2013-01-18 2014-09-03 연세대학교 산학협력단 영상 인코딩 방법 및 장치, 그리고 영상 처리 장치
US9509998B1 (en) 2013-04-04 2016-11-29 Google Inc. Conditional predictive multi-symbol run-length coding
US9774872B2 (en) * 2013-04-05 2017-09-26 Mitsubishi Electric Corporation Color image encoding device, color image decoding device, color image encoding method, and color image decoding method
US10003792B2 (en) * 2013-05-27 2018-06-19 Microsoft Technology Licensing, Llc Video encoder for images
US20150016516A1 (en) * 2013-07-15 2015-01-15 Samsung Electronics Co., Ltd. Method for intra prediction improvements for oblique modes in video coding
US9392288B2 (en) 2013-10-17 2016-07-12 Google Inc. Video coding using scatter-based scan tables
US9179151B2 (en) 2013-10-18 2015-11-03 Google Inc. Spatial proximity context entropy coding
KR101519557B1 (ko) * 2013-12-27 2015-05-13 연세대학교 산학협력단 고속 화면 내 예측 부호화 방법 및 그 장치
WO2015100731A1 (en) * 2014-01-03 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for determining the prediction partitions
CN105359531B (zh) 2014-03-17 2019-08-06 微软技术许可有限责任公司 用于针对屏幕内容编码的编码器侧判定的方法和系统
JP6330507B2 (ja) * 2014-06-19 2018-05-30 ソニー株式会社 画像処理装置及び画像処理方法
WO2015200822A1 (en) * 2014-06-26 2015-12-30 Huawei Technologies Co., Ltd Method and device for reducing a computational load in high efficiency video coding
CN105812795B (zh) * 2014-12-31 2019-02-12 浙江大华技术股份有限公司 一种最大编码单元的编码模式的确定方法和装置
WO2016123792A1 (en) 2015-02-06 2016-08-11 Microsoft Technology Licensing, Llc Skipping evaluation stages during media encoding
CN104853192B (zh) 2015-05-08 2018-02-13 腾讯科技(深圳)有限公司 预测模式选择方法及装置
US10038917B2 (en) 2015-06-12 2018-07-31 Microsoft Technology Licensing, Llc Search strategies for intra-picture prediction modes
US10009620B2 (en) 2015-06-22 2018-06-26 Cisco Technology, Inc. Combined coding of split information and other block-level parameters for video coding/decoding
US10003807B2 (en) * 2015-06-22 2018-06-19 Cisco Technology, Inc. Block-based video coding using a mixture of square and rectangular blocks
US10136132B2 (en) 2015-07-21 2018-11-20 Microsoft Technology Licensing, Llc Adaptive skip or zero block detection combined with transform size decision
CN107306353B (zh) * 2016-04-19 2020-05-01 广州市动景计算机科技有限公司 图像空间预测模式选择方法及装置、图像压缩方法及设备
JP6669622B2 (ja) * 2016-09-21 2020-03-18 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
CN117395408A (zh) * 2016-10-04 2024-01-12 韩国电子通信研究院 对图像进行编码/解码的方法和设备以及记录介质
EP3306922A1 (en) * 2016-10-05 2018-04-11 Thomson Licensing Method and apparatus for encoding a picture using rate-distortion based block splitting
EP3316578A1 (en) * 2016-10-25 2018-05-02 Thomson Licensing Method and apparatus for encoding and decoding a picture
WO2018124686A1 (ko) * 2016-12-26 2018-07-05 에스케이텔레콤 주식회사 인트라 예측을 이용한 영상의 부호화 및 복호화
WO2018131838A1 (ko) * 2017-01-11 2018-07-19 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
KR102310730B1 (ko) * 2017-03-22 2021-10-12 한국전자통신연구원 블록 형태에 기반한 예측 방법 및 장치
CN107071417B (zh) * 2017-04-10 2019-07-02 电子科技大学 一种用于视频编码的帧内预测方法
KR20190045885A (ko) 2017-10-24 2019-05-03 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치
WO2019126163A1 (en) * 2017-12-18 2019-06-27 Arris Enterprises, Inc. System and method for constructing a plane for planar prediction
CN117834856A (zh) 2018-04-24 2024-04-05 三星电子株式会社 视频编码方法和装置以及视频解码方法和装置
CN108737819B (zh) * 2018-05-20 2021-06-11 北京工业大学 一种基于四叉树二叉树结构的灵活编码单元划分方法
TWI829721B (zh) * 2018-07-15 2024-01-21 大陸商北京字節跳動網絡技術有限公司 跨分量幀內預測模式導出
CA3112936A1 (en) * 2018-09-07 2020-03-12 Ki Baek Kim Image encoding/decoding method and device
CN113170126A (zh) 2018-11-08 2021-07-23 Oppo广东移动通信有限公司 视频信号编码/解码方法以及用于所述方法的设备
EP3881549B1 (en) * 2018-12-21 2024-03-06 Huawei Technologies Co., Ltd. Method and apparatus of mode- and size-dependent block-level restrictions
WO2020135206A1 (en) * 2018-12-29 2020-07-02 Zhejiang Dahua Technology Co., Ltd. Systems and methods for intra prediction
CN116647678A (zh) 2018-12-29 2023-08-25 浙江大华技术股份有限公司 帧内预测方法、编码器及存储装置
KR20210108389A (ko) 2019-01-02 2021-09-02 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 크로마 인트라 예측 방법, 장치 및 컴퓨터 저장 매체
CN110213586B (zh) * 2019-06-10 2021-03-05 杭州电子科技大学 一种vvc帧内预测角度模式快速选择方法
WO2020262963A1 (ko) * 2019-06-24 2020-12-30 엘지전자 주식회사 크로마 블록의 최대 변환 크기 설정을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN115767087A (zh) 2019-08-14 2023-03-07 Lg电子株式会社 图像编解码方法、发送比特流的方法和记录介质
US11962784B2 (en) 2020-09-23 2024-04-16 Ofinno, Llc Intra prediction
WO2023050370A1 (zh) * 2021-09-30 2023-04-06 Oppo广东移动通信有限公司 帧内预测的方法、解码器、编码器和编解码系统
CN114885164B (zh) * 2022-07-12 2022-09-30 深圳比特微电子科技有限公司 确定帧内预测模式的方法、装置及电子设备和存储介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830959B2 (en) 2003-12-26 2010-11-09 Electronics And Telecommunications Research Institute Apparatus and method for performing intra prediction for image decoder
EP1558040A1 (en) * 2004-01-21 2005-07-27 Thomson Licensing S.A. Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding
US8082419B2 (en) * 2004-03-30 2011-12-20 Intel Corporation Residual addition for video software techniques
KR100813958B1 (ko) * 2004-06-07 2008-03-14 세종대학교산학협력단 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치
US7430238B2 (en) * 2004-12-10 2008-09-30 Micronas Usa, Inc. Shared pipeline architecture for motion vector prediction and residual decoding
US7970219B2 (en) * 2004-12-30 2011-06-28 Samsung Electronics Co., Ltd. Color image encoding and decoding method and apparatus using a correlation between chrominance components
US8290057B2 (en) * 2005-02-18 2012-10-16 Mediatek Incorporation Method of decoding a digital video sequence and related apparatus
KR100763178B1 (ko) * 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP4050754B2 (ja) * 2005-03-23 2008-02-20 株式会社東芝 ビデオエンコーダ及び動画像信号の符号化方法
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
EP1753242A2 (en) * 2005-07-18 2007-02-14 Matsushita Electric Industrial Co., Ltd. Switchable mode and prediction information coding
KR101441269B1 (ko) * 2005-09-26 2014-09-18 미쓰비시덴키 가부시키가이샤 동화상 복호 장치 및 동화상 복호 방법
KR100727991B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR20070077609A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
CN101385356B (zh) * 2006-02-17 2011-01-19 汤姆森许可贸易公司 采用帧内预测模式的图像编码方法
KR101330630B1 (ko) 2006-03-13 2013-11-22 삼성전자주식회사 최적인 예측 모드를 적응적으로 적용하여 동영상을부호화하는 방법 및 장치, 동영상을 복호화하는 방법 및장치
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
US20080170624A1 (en) * 2007-01-12 2008-07-17 Mitsubishi Electric Corporation Image encoding device and image encoding method
US8630346B2 (en) * 2007-02-20 2014-01-14 Samsung Electronics Co., Ltd System and method for introducing virtual zero motion vector candidates in areas of a video sequence involving overlays
US8995522B2 (en) * 2007-04-13 2015-03-31 Apple Inc. Method and system for rate control
US20080285652A1 (en) * 2007-05-14 2008-11-20 Horizon Semiconductors Ltd. Apparatus and methods for optimization of image and motion picture memory access
KR101362757B1 (ko) * 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
KR101291196B1 (ko) * 2008-01-25 2013-07-31 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
JP2010035137A (ja) * 2008-07-01 2010-02-12 Sony Corp 画像処理装置および方法、並びにプログラム
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8275208B2 (en) * 2008-07-02 2012-09-25 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using image separation based on bit location
JP5639056B2 (ja) * 2008-08-19 2014-12-10 トムソン ライセンシングThomson Licensing 輝度評価
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101503269B1 (ko) 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
KR101753551B1 (ko) * 2011-06-20 2017-07-03 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램을 저장한 기록매체
JP6070692B2 (ja) * 2012-03-30 2017-02-01 ソニー株式会社 画像処理装置および方法、並びに、プログラム
WO2014003423A1 (ko) * 2012-06-29 2014-01-03 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US9374592B2 (en) * 2012-09-08 2016-06-21 Texas Instruments Incorporated Mode estimation in pipelined architectures

Also Published As

Publication number Publication date
RU2014153748A (ru) 2016-07-20
CY1119623T1 (el) 2018-04-04
DK2903274T3 (en) 2017-10-02
CN104811701A (zh) 2015-07-29
CY1119621T1 (el) 2018-04-04
US20150117533A1 (en) 2015-04-30
ES2644039T3 (es) 2017-11-27
CA2795475C (en) 2017-02-14
EP2903273B1 (en) 2017-10-11
DK2905962T3 (en) 2017-10-30
CN102934446A (zh) 2013-02-13
US10432948B2 (en) 2019-10-01
RU2595947C2 (ru) 2016-08-27
LT2903273T (lt) 2017-11-10
AU2011239130B2 (en) 2014-11-06
SMT201600140B (it) 2016-07-01
PL2903275T3 (pl) 2017-12-29
WO2011126275A2 (en) 2011-10-13
RU2014153752A (ru) 2016-07-20
US20170374370A1 (en) 2017-12-28
ZA201500719B (en) 2016-01-27
KR101503269B1 (ko) 2015-03-17
MY186589A (en) 2021-07-29
CY1119617T1 (el) 2018-04-04
JP2018157580A (ja) 2018-10-04
CA2884205C (en) 2017-12-12
CN104767996A (zh) 2015-07-08
HUE036050T2 (hu) 2018-06-28
LT2903275T (lt) 2017-11-10
MY186574A (en) 2021-07-27
EP2905962B1 (en) 2017-10-11
JP2015180090A (ja) 2015-10-08
EP2903275A1 (en) 2015-08-05
CN104780365A (zh) 2015-07-15
EP2545713B1 (en) 2016-05-18
PL2545713T3 (pl) 2016-10-31
RU2595949C2 (ru) 2016-08-27
EP2903274A1 (en) 2015-08-05
SI2905962T1 (sl) 2017-11-30
JP5883846B2 (ja) 2016-03-15
EP2545713A4 (en) 2013-08-07
US20150117532A1 (en) 2015-04-30
ZA201500715B (en) 2016-01-27
CN104768002B (zh) 2017-09-22
ZA201500716B (en) 2016-01-27
US20170223364A1 (en) 2017-08-03
US20130329793A1 (en) 2013-12-12
CA2884537A1 (en) 2011-10-13
SI2903275T1 (sl) 2017-11-30
CN104780365B (zh) 2018-09-18
AU2011239130C1 (en) 2015-04-16
CN104768002A (zh) 2015-07-08
CN104780366B (zh) 2018-09-18
PL2905962T3 (pl) 2017-12-29
BR122020016354B1 (pt) 2022-02-15
JP2015180088A (ja) 2015-10-08
PT2905962T (pt) 2017-10-23
MY186587A (en) 2021-07-28
RU2014153849A (ru) 2016-07-20
PL2903273T3 (pl) 2018-01-31
MX2012011563A (es) 2012-12-17
PL3280140T3 (pl) 2019-11-29
DK2545713T3 (da) 2016-05-30
HRP20171545T1 (hr) 2017-11-17
MY164324A (en) 2017-12-15
PT2903274T (pt) 2017-09-22
CN104767996B (zh) 2018-06-05
JP2015180087A (ja) 2015-10-08
SI2903274T1 (sl) 2017-10-30
JP2017063507A (ja) 2017-03-30
RU2595946C2 (ru) 2016-08-27
WO2011126275A3 (en) 2012-01-26
ES2572640T3 (es) 2016-06-01
BR122020016355B1 (pt) 2022-02-08
AU2011239130A1 (en) 2012-11-01
US9794577B2 (en) 2017-10-17
HUE029176T2 (en) 2017-02-28
CY1117535T1 (el) 2017-04-26
HUE046784T2 (hu) 2020-03-30
RU2595950C2 (ru) 2016-08-27
CA2884537C (en) 2017-08-22
SI2545713T1 (sl) 2016-08-31
EP2545713A2 (en) 2013-01-16
CN104780366A (zh) 2015-07-15
CA2884486A1 (en) 2011-10-13
US9667974B2 (en) 2017-05-30
DK2903273T3 (en) 2017-10-30
PT2903275T (pt) 2017-10-23
RU2014153750A (ru) 2016-07-20
CA2884205A1 (en) 2011-10-13
RS56358B1 (sr) 2017-12-29
RU2014153851A (ru) 2015-06-10
JP2013524675A (ja) 2013-06-17
EP2903275B1 (en) 2017-10-11
ES2640629T3 (es) 2017-11-03
CN104780364B (zh) 2019-04-05
HRP20171387T1 (hr) 2017-11-03
HUE035945T2 (hu) 2018-06-28
RS56438B1 (sr) 2018-01-31
US8619858B2 (en) 2013-12-31
BR112012025310A2 (pt) 2016-06-28
EP3280140A1 (en) 2018-02-07
SI2903273T1 (sl) 2017-11-30
HRP20160526T1 (hr) 2016-06-17
RU2542884C2 (ru) 2015-02-27
JP6673976B2 (ja) 2020-04-01
CA2884486C (en) 2017-03-14
KR20110111854A (ko) 2011-10-12
DK2903275T3 (da) 2017-11-06
EP2903274B1 (en) 2017-09-13
CA2884540A1 (en) 2011-10-13
ES2644036T3 (es) 2017-11-27
MY186586A (en) 2021-07-28
HUE035944T2 (hu) 2018-06-28
LT2903274T (lt) 2017-09-25
HRP20171546T1 (hr) 2017-11-17
PT2903273T (pt) 2017-10-24
BR112012025310B1 (pt) 2022-02-15
CA2795475A1 (en) 2011-10-13
CA2884540C (en) 2017-03-14
BR122021005439B1 (pt) 2022-02-08
BR122021005440B1 (pt) 2022-02-08
ZA201500717B (en) 2016-02-24
US9967572B2 (en) 2018-05-08
RS56437B1 (sr) 2018-01-31
RU2012146757A (ru) 2014-06-20
ZA201500718B (en) 2017-04-26
RS54757B1 (sr) 2016-10-31
LT2905962T (lt) 2017-11-10
US8964840B2 (en) 2015-02-24
CN107426569B (zh) 2020-07-28
MY186576A (en) 2021-07-27
CN104811701B (zh) 2018-11-23
CN107426569A (zh) 2017-12-01
HRP20171544T1 (hr) 2017-12-01
CY1119347T1 (el) 2018-02-14
JP6343038B2 (ja) 2018-06-13
PL2903274T3 (pl) 2017-11-30
CN104780364A (zh) 2015-07-15
HUE036255T2 (hu) 2018-06-28
EP3280140B1 (en) 2019-08-14
EP2905962A1 (en) 2015-08-12
RS56439B1 (sr) 2018-01-31
EP2903273A1 (en) 2015-08-05
US20180227583A1 (en) 2018-08-09
ES2644037T3 (es) 2017-11-27
US20150124881A1 (en) 2015-05-07
ZA201208296B (en) 2015-06-24
RU2608397C2 (ru) 2017-01-18
US20110243225A1 (en) 2011-10-06
JP2015180089A (ja) 2015-10-08
CN102934446B (zh) 2017-09-12

Similar Documents

Publication Publication Date Title
ES2744279T3 (es) Modo de intra predicción determinante de unidad de codificación de imagen y unidad de decodificación de imagen
ES2863416T3 (es) Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES2780126T3 (es) Procedimiento de decodificación de una imagen, aparato de codificación de una imagen y medio legible por ordenador para almacenar datos asociados con un vídeo
ES2533305T3 (es) Aparato de decodificación de imagen