MX2013007314A - Metodo y aparato de codificacion de modo de intra-prediccion para unidad de prediccion de imagen, metodo y aparato de decodificacion de modo de intra-prediccion para unidad de prediccion de imagen. - Google Patents

Metodo y aparato de codificacion de modo de intra-prediccion para unidad de prediccion de imagen, metodo y aparato de decodificacion de modo de intra-prediccion para unidad de prediccion de imagen.

Info

Publication number
MX2013007314A
MX2013007314A MX2013007314A MX2013007314A MX2013007314A MX 2013007314 A MX2013007314 A MX 2013007314A MX 2013007314 A MX2013007314 A MX 2013007314A MX 2013007314 A MX2013007314 A MX 2013007314A MX 2013007314 A MX2013007314 A MX 2013007314A
Authority
MX
Mexico
Prior art keywords
prediction
intra
mode
unit
prediction mode
Prior art date
Application number
MX2013007314A
Other languages
English (en)
Inventor
Tammy Lee
Jianle Chen
Vadim Seregin
Sun-Il Lee
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2013007314A publication Critical patent/MX2013007314A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Se describe un método y un aparato para codificar y decodificar, de manera eficiente, un modo de intra-predicción para una unidad de predicción de un componente de crominancia utilizando un modo de intra-predicción para una unidad de predicción de un componente de luminancia. De acuerdo con una modalidad de la presente invención, un método de codificación de un modo de intra-predicción permite: que grupos candidatos de modo de intra-predicción de una unidad de predicción de un componente de crominancia sean reconfigurados mediante la exclusión de los grupos candidatos de modo de intra-predicción, de un modo de intra-predicción de la unidad de predicción del componente de crominancia, que es superpuesto con un modo de intra-predicción de una unidad de predicción de un componente de luminancia, o reemplazando el modo de intra-predicción con otro modo de intra-predicción, dependiendo si el modo de intra-predicción para la unidad de predicción del componente de luminancia es el mismo que los modos predeterminados de intra-predicción entre los grupos candidatos de modo de intra-predicción que puede ser utilizados para la unidad de predicción del componente de crominancia; y el modo de intra-predicción de la unidad de predicción del componente de crominancia que será codificado utilizando los grupos candidatos reconfigurados de modo de intra-predicción.

Description

METODO Y APARATO DE CODIFICACION DE MODO DE INTRA-PREDICCION PARA UNIDAD DE PREDICCION DE IMAGEN, METODO Y APARATO DE DECODIFICACION DE MODO DE INTRA-PREDICCION PARA UNIDAD DE PREDICCION DE IMAGEN Campo de la Invención La presente invención se refiere a la codificación y decodificación de una imagen, y de manera más particular, se refiere a un método y aparato para la codificación de un modo de intra-predicción de una unidad de predicción de imagen que podría codificar, de manera eficiente, un modo de intra-predicción de un componente de crominancia en función de la correlación entre un modo de intra-predicción determinado por una unidad de predicción de imagen de un componente de luminancia y el modo de intra-predicción del componente de crominancia, y se refiere a método y aparato : para la decodificación de un modo de intra-predicción de una unidad de predicción de imagen.
Antecedentes de la Invención En un método de compresión de imagen, tai como el Grupo de Expertos de Imagen en Movimiento (MPEG, por sus siglas en inglés) - 1 , MPEG- 2 , MPEG- 4 , o la Codificación Avanzada de Video H.264/MPEG- 4 (AVC, por sus siglas, en inglés) , una imagen es dividida en macrobloques con el propósito de codificar una imagen. Cada uno'' de ' los Ref. 242200 macrobloques es codificado en todos los modos de codificación que pueden ser utilizados en la inter-predicción o en la intra-predicción, y posteriormente, es codificado en un modo de codificación que es seleccionado de acuerdo con la velocidad de bits utilizada para codificar el macrobloque y el grado de distorsión de un macrobloque de codificado basado en el macrobloque original.
Puesto que el hardware para, la reproducción y almacenamiento del contenido de video de alta resolución o alta calidad está siendo desarrollado y suministrado, existe un incremento en la necesidad de un codee de video capaz de codificar o decodificar, de manera efectiva, el contenido de video de alta resolución o alta calidad. En un códec convencional de video, un video es codificado en un modo limitado de predicción en función de los macrobloques, cada uno de los cuales tiene un tamaño predeterminado.
Breve Descripción Detallada de la Invención Problema Técnico La presente invención proporciona métodos y aparatos para la codificación y decodificación, de manera eficiente, de un modo de intra-predicción de una unidad de predicción de componente de imagen de crominancia a una üíidad; de predicción de componente de imagen de luminancia en función de un modo de intra-predicción determinado por la unidad de predicción de componente de imagen de luminancia.
Solución Técnica De acuerdo con un aspecto de la presente invención, un modo de intra-predicción de una unidad de predicción de un componente de crominancia es codificado y de codificado, de manera eficiente, reconstruyendo un grupo de candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia de acuerdo con sí ;un modo de intra-predicción de un componente de luminancia es el mismo que el modo de intra-predicción del componente de crominancia. r Efectos Ventajosos De acuerdo con las modalidades de la présente invención, podría ser eliminada la redundancia entre un modo de intra-predicción de una unidad de predicción de un componente de imagen de luminancia y un modo de intra-predicción de una unidad de predicción de un componente de imagen de crominancia, y el modo de intra-predicción de la unidad de predicción del componente de imagen de crominancia podría ser expresado, de manera eficiente, en función del modo de intra-predicción de la unidad de predicción del componente de imagen de luminancia. Asimismo, podría1 ser reducido el número de bits utilizados para señalizar ; el i modo de intra-predicción de la unidad de predicción del Componente de imagen de crominancia.
Breve Descripción de las Figuras La Figura l es un diagrama de bloque que ilustra un aparato para la codificación de un video, de acuerdo con una modalidad de la presente invención.
La Figura 2 es un diagrama de bloque que ilustra un aparato para la decodificacióh de un video, de acuerdo con una modalidad de la presente invención.
La Figura 3 es un diagrama que describe un concepto de unidades de codificación, de acuerdo con una modalidad de la presente invención.
La Figura 4 es un diagrama de bloque que ilustra un codificador de imagen basado en una unidad de codificación, de acuerdo con una modalidad de la presente invención.
La Figura 5 es un diagrama de bloque que ilustra un decodificador de imagen basado en una unidad de codificación, de acuerdo con una modalidad de la presente invención.
La Figura 6 es un diagrama que ilustra las unidades de codificación más profunda de acuerdo con las profundidades y particiones, de acuerdo con una modalidad de la; presente invención.
La Figura 7 es un diagrama que describe una relación entre una unidad de codificación y una unidad; de transformación, de acuerdo con una modalidad de la presente invención . '· La Figura 8 es un diagrama que describe' la información de las unidades de codificación de acuerdo con las profundidades, de acuerdo con una modalidad de la presente invención.
La Figura 9 es un diagrama que ilustra las unidades de codificación de acuerdo con las profundidades, de acuerdo con una modalidad de la presente invención.
Las Figuras 10, 11, y 12 son diagramas que describen una relación entre las unidades de codificación, las unidades de predicción y las unidades de transformación de frecuencia, de acuerdo con una modalidad de la presente invención.
La Figura 13 es un diagrama que ilustra una relación entre una unidad de codificación, una unidad de predicción, y una unidad de transformación de acuerdo con la información del modo de codificación de la Tabla 1, de acuerdo con una modalidad de la presente invención.
Las Figuras 14A-14C son diagramas que ilustran los formatos de las unidades de predicción de un compónente de luminancia y un componente de crominancia, de acuerdo con las modalidades de la presente invención.
La Figura 15 es una tabla que ilustra el úmero de los modos de intra-predicción de acuerdo con los tamaños de las unidades de predicción de componente de luminancia, de acuerdo con una modalidad de la presente invención.
La Figura 16A es un diagrama que muestra un modo de intra-predicción aplicable a una unidad de predicción de componente de luminancia que tiene un tamaño predeterminado, de acuerdo con una modalidad de la presente invención.
La Figura 16B es un diagrama que ilustra las direcciones de los modos de intra-predicción de la Figura 16A.
La Figura 16C es un diagrama que describe un método de realización de la intra-predicción en una unidad de predicción de componente de luminancia utilizando los modos de intra-predicción de la Figura 16A, de acuerdo con una modalidad de la presente invención.
La Figura 17 es un diagrama que describe un modo de intra-predicción aplicado a una unidad de predicción de componente de luminancia que tiene un tamaño predeterminado, de acuerdo con otra modalidad de la presente invención.
Las Figuras 18A-18C son diagramas de referencia que describen los modos de intra-predicción que tienen diferentes direccionalidades, de acuerdo con una modalidad de la presente invención. , La Figura 19 es un diagrama de referencia que describe un modo bi-lineal de acuerdo con una modalidad dé la presente invención.
La Figura 20 es una gráfica que describe la; relación entre un píxel actual y un píxel periférico localizados en una línea que tiene una direccionalidad de (dx, dy),. de acuerdo con una modalidad de la presente invención.
La Figura 21 es una gráfica que describe un cambio en un píxel vecino localizado en una línea que tiene una direccionalidad de (dx, dy) de acuerdo con la ubicación del píxel actual, de acuerdo con una modalidad de la presente invención.
Las Figuras 22 y 23 son diagramas que describen un método de determinación de una dirección de modo de intra-predicción, de acuerdo con una modalidad de la presente invención.
La Figura 24 es un diagrama de referencia que describe un modo disponible de intra-predicción dé acuerdo con una modalidad de la presente invención.
Las Figuras 25A y 25B son diagramas de referencia que describen un modo de intra-predicción de acuerdó con otra modalidad de la presente invención.
La Figura 26 es un diagrama de bloque que ilustra un aparato para la codificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la'^presente invención .
La Figura 27 es un diagrama de flujo que ilustra un método de codificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención .
La Figura 28 es un diagrama de flujo que ilustra un proceso de codificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención.
La Figura 29 es un diagrama de bloque que ilustra un aparato de decodificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención.
La Figura 30 es un diagrama de flujo que ilustra un método de decodificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención.
La Figura 31 es un diagrama de flujo que ilustra un proceso de decodificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención.
Descripción Detallada de la Invención De acuerdo con un aspecto de la presente invención, se proporciona un método de codificación de un modo de in ra-predicción de una imagen, el método comprende: determinar un modo de intra-predicción de una unidad de predicción de un primer componente de imagen que constituye G¾ imagen utilizando un primer grupo candidato de modo dé intra-predicción que comprende una pluralidad de modos de intra-predicción; determinar un modo de intra-predicción de una unidad de predicción de un segundo componente de imagen que corresponde con la unidad de predicción del primer componente de imagen utilizando un segundo grupo candidato de modo de intra-predicción que comprende una pluralidad de modos de intra-predicción; cuando el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el segundo grupo candidato de modo de intra-predicción, se reconstruye el segundo grupo candidato de modo de intra-predicción para remover la redundancia de un modo de intra-predicción que es incluido en el segundo grupo candidato de modo de intra-predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen; y codificar el modo determinado de intra-predicción de la unidad de predicción del segundo componente de imagen en función del segundo grupo candidato reconstruido de modo de intra-predicción.
De acuerdo con otro aspecto de la presente invención, se proporciona un aparato para la codificación: de un modo de intra-predicción de una imagen, el aparato incluye: un primer determinador de modo de intra-predicción que determina un modo de intra-predicción de una unidad ; de predicción de un primer componente de imagen que constituye la imagen utilizando un primer grupo candidato de · :modo ' de intra-predicción que incluye una pluralidad de modos de intra-predicción; un segundo determinador de modo de intra- predicción que determina un modo de intra-predicción de una unidad de predicción de un segundo componente de imagen que corresponde con la unidad de predicción del primer componente de imagen utilizando un segundo grupo candidato de modo de intra-predicción que incluye una pluralidad de modos de intra-predicción; y un codificador de modo dé intra-predicción que cuando el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el segundo grupo candidato de modo de intra-predicción, reconstruye el segundo grupo candidato de modo de intra-predicción para eliminar la redundancia de un modo de intra-predicción incluido en el segundo grupo candidato de modo de intra-predicción que es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen, y codifica el modo determinado de intra-predicción de la unidad : de predicción del segundo componente de imagen en función del grupo candidato reconstruido de modo de intra-predicción.
De acuerdo con otro aspecto de la presente invención, se proporciona un método de decodificacion de un modo de intra-predicción de una imagen, el método comprende: obtener la información del modo de intra-predicción de una unidad de predicción de un primer componente de imagen ique constituye la imagen de un flujo de bits; cuando un¡ modo de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en un segundo grupo candidato de modo de intra-predicción aplicable a una unidad de predicción de un segundo componente de imagen, se reconstruye el segundo grupo candidato de modo de intra-predicción para remover la redundancia de un modo de intra-predicción incluido en el segundo grupo candidato dé modo de intra-predicción que es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen; y decodificar un modo de intra-predicción de la unidad de predicción del segundo componente de imagen en función del segundo grupo candidato reconstruido de modo de intra-predicción. De acuerdo con otro aspecto de la presente invención, se proporciona un aparató de decodificación de un modo de intra-predicción de una imagen, el aparato comprende: un obtenedor de modo de intra-predicción que obtiene la información del modo de intra-predicción de una unidad de predicción de uri primer componente de imagen que constituye la imagen de un! flujo de bits, cuando se determina que un modo de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en un segundo grupo candidato de modo de intra-predicción aplicable a una unidad de predicción de un segundo componente de imagen, reconstruye el segundo grupo candidato de modo de intra-predicción para eliminar la redundancia de un modo de intra-predicción que es incluido en el segundo grupo candidato de modo de intra-predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen, y determina un modo de intra-predicción de la unidad de predicción del segundo componente de imagen en función del segundo grupo candidato reconstruido de modo de intra-predicción; un primer realizador de intra-predicción que realiza la intra-predicción en la unidad de predicción del primer componente de imagen en función del modo de intra-predicción de la unidad de predicción del primer componente de imagen que es obtenido a partir del flujo de bits y un segundo realizador de intra-predicción que realiza la intra-predicción en la unidad de predicción del segundo cómpoñénte de imagen en función del modo determinado de intra-predicción de la unidad de predicción del segundo componente de imagen.
Modo de la Invención A continuación, la presente invención será descrita de manera más completa con referencia a las figuras que la acompañan, en las cuales las modalidades de ejemplo son mostradas .
La Figura 1 es un diagrama de bloque que ilustra' un aparato 100 para la codificación de un video, de acuerdo con una modalidad de la presente invención.
El aparato 100 incluye un divisor de unidad de codificación máxima 110, un determinador de unidad de codificación 120, y una unidad de salida 130.
El divisor de unidad de codificación máxima 110 podría dividir una imagen actual basada en una unidad de codificación máxima la cual es una unidad de codificación que tiene un tamaño máximo para la imagen actual de una imagen. Si la imagen actual es más grande que la unidad de codificación máxima, los datos de imagen de la imagen actual podrían ser divididos al menos en una unidad de codificación máxima. La unidad de codificación máxima podría ser una unidad de datos que tiene un tamaño de 32x32, 64x64, 128x128, o 256x256, y la forma de la unidad de datos podría ser un cuadrado que tiene un ancho y longitud en cuadros de 2 más grande que 8. Los datos de imagen podrían ser salidos' Hacia el determinador de unidad de codificación 120 de acuerdo con al menos con la unidad de codificación máxima.
Una unidad de codificación podría ser caracterizada por un tamaño máximo y una profundidad. La profundidad denota el número de veces que la unidad de codificación es dividida, en forma espacial, a partir de la unidad de codificación máxima, y a medida que la profundidad se profundiza, las unidades de codificación más profunda de acuerdo ; ¡con las profundidades podrían ser divididas de la unidad : de codificación máxima en una unidad de codificación mínima. La profundidad de la unidad de codificación máxima es la profundidad más superior y la profundidad de la Unidad de codificación máxima es la profundidad más inferior. Debido a que el tamaño de una unidad de codificación que corresponde con cada profundidad disminuye a medida que se profundiza la profundidad de la unidad de codificación máxima, una unidad de codificación que corresponde con una profundidad superior podría incluir una pluralidad de unidades de codificación que corresponden con las profundidades inferiores.
Como se describe con anterioridad, los datos de imagen de la imagen actual son divididos en las unidades de codificación máxima de acuerdo con un tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máxima podría incluir las unidades de codificación más profunda que son divididas de acuerdo con las profundidades. Debido a que la unidad de codificación máxima es dividida de acuerdo con las profundidades, los datos de imagen de un dominio espacial incluido en l unidad de codificación máxima podrían ser clasificados, en forma jerárquica, de acuerdo con las profundidades.
La profundidad máxima y el tamaño máximo : de una unidad de codificación, que limitan el número total de veces que la altura y el ancho de la unidad de codificación máxima son jerárquicamente divididos, podrían ser preestablecidos.
El deterrainador de unidad de codificación 120 codifica al menos una región dividida que es obtenida al dividir una región de la unidad de codificación máxima de acuerdo con las profundidades y determina la profundidad en la cual los resultados finales de la codificación serán salidos de acuerdo al menos con una región dividida. Es decir, el determinador de unidad de codificación 120 codifica los datos de imagen de acuerdo con las unidades de codificación más profunda de acuerdo con las profundidades para cada unidad de codificación máxima de la imagen actual, y selecciona una profundidad que tiene un error de codificación mínima como una profundidad codificada. La profundidad codificada determinada y los datos de imagen de acuerdo con las unidades de codificación máxima son salidos hacia la unidad de salida 130.
Los datos de imagen en la unidad de codificación máxima son codificados en función de las unidades ! de codificación más profunda que corresponden al menos con una profundidad igual o por debajo de la profundidad máxima, y los resultados de la codificación de los datos de imagen son comparados en función de cada una de las unidades de codificación más profunda. Una profundidad que tiene el error de codificación mínima podría ser seleccionada después de. la comparación de los errores de codificación de las unidades de codificación más profunda. Al menos una profundidad codificada podría ser seleccionada para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima es dividido a medida que una unidad de codificación es jerárquicamente dividida de acuerdo con las profundidades, y a medida que se incrementa el número de las unidades de codificación. Asimismo, incluso si las unidades de codificación corresponden con la misma profundidad en una unidad de codificación máxima, si es determinado que la división de cada una de las unidades de codificación corresponde con la misma profundidad que una profundidad más baja al medir un error de codificación de los datos de imagen de cada unidad de codificación, por separado. En consecuencia, aun cuando los datos de imagen son incluidos en una unidad de codificación máxima, debido a que los errores de codificación podrían diferir de acuerdo con las': : regiones en la unidad de codificación máxima, las profundidades codificadas podrían diferir de acuerdo con las regiones en los datos de imagen. De esta manera, una o más: de las profundidades codificadas podrían determinarse en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima podrían ser divididos de acuerdo1 con las unidades de codificación al menos de una profundidad codificada.
En consecuencia, el determinador de unidad ; de codificación 120 podría determinar las unidades de codificación que tienen una estructura de árbol incluidas en una unidad actual de codificación máxima. Las * unidades de codificación que tienen la estructura de árbol' incluyen las unidades de codificación que tienen una profundidad determinada como una profundidad codificada de entre todas las unidades de codificación más profunda incluidas en la unidad actual de codificación máxima. Las unidades de codificación de la profundidad codificada podrían ser jerárquicamente determinadas de acuerdo con las profundidades en la misma región en la unidad de codificación máxima , y podrían ser independientemente determinadas en otras regiones. Del mismo modo, una profundidad codificada de una región actual podría ser independientemente determinada de las profundidades codificadas de otras regiones.
La profundidad máxima es un índice relaciónádó ; con el número de divisiones de una unidad de codificación máxima con una unidad de codificación mínima. Una ! primera profundidad máxima podría indicar el número total de divisiones de una unidad de codificación máxima j con 'una unidad de codificación mínima. Una segunda profundidád máxima podría indicar el número total de niveles de profundidad de la unidad de codificación máxima a la unidad de codificación máxima. Por ejemplo, cuando la profundidad de una unidad de codificación máxima es 0, la profundidad de una unidad de codificación obtenida dividiendo la unidad de codificación máxima una vez podría ser establecida en 1, y la prófundidad de una unidad de codificación obtenida dividiendo la unidad de codificación máxima dos veces podría ser establecida én 2. En este caso, cuando una unidad de codificación obtenida dividiendo la unidad de codificación máxima cuatro veces es una unidad de codificación mínima, debido a que existen los niveles de profundidad de las profundidades 0, 1, 2 , 3, y 4, una primera profundidad máxima podría ser establecida en 4 y una segunda profundidad máxima podría ser establecida en 5 .
La codificación de predicción y la transformación de frecuencia podrían ser realizadas en la unidad de codificación máxima. La codificación de predicción y la transformación de frecuencia son realizadas en las unidades de codificación más profunda de acuerdo con las profundidades iguales o menores a una profundidad máxima para cada unidad de codificación máxima. Debido a que el número de las unidades de codificación más profunda de acuerdo · con ; las profundidades se incrementa a medida que la Unidad' de codificación máxima es dividida de acuerdo . : con ¦ ; las profundidades, la codificación que incluye la codificación de predicción y la transformación de frecuencia tiene; que ser realizada en todas las unidades de codificación más' p ófünda generadas a medida que las profundidades se profundiza. La codificación de predicción y la transformación de frecuencia serán explicadas en función de una unidad de codificación de la profundidad actual de entre una o más de las unidades de codificación máxima por conveniencia de la explicación.
El aparato 100 podría seleccionar, en forma variada, el tamaño o la forma de una unidad de datos para la codificación de los datos de imagen. Con el propósito de decodificar los datos de imagen, son realizadas las operaciones tales como la codificación de predicción, la transformación de frecuencia, y la codificación de entropía. La misma unidad de datos podría ser utilizada para todas las operaciones, o diferentes unidades de datos podrían ser utilizadas para diferentes operaciones.
Por ejemplo, el aparato 100 podría seleccionar no sólo una unidad de codificación para la codificación de los datos de imagen, sino también una unidad de datos, que es diferente de la unidad de codificación, con el propósito de realizar la codificación de predicción en los datos de imagen en la unidad de codificación. Con el propósito de realizar la codificación de predicción en una unidad de codificación máxima, la codificación de predicción podría ser realizada en función de una unidad de codificación de una profundidad codificada, es decir, - una unidad de codificación querva no es más dividida. La unidad de codificación que ya no es más dividida y se convierte en una unidad de base para la codificación de predicción es referida como una '.unidad de predicción' . Una partición obtenida dividiendo la Unidad de predicción podría incluir una unidad de predicción y una unidad de datos obtenida al dividir al menos una de la altura y la profundidad de la unidad de predicción.
Por ejemplo, cuando una unidad de codificación que tiene un tamaño de 2Nx2N (N es un entero positivo) ya no es más dividida, una unidad de predicción podría tener un tamaño de 2Nx2N y una partición podría tener un tamaño de 2Nx2N, NxN, Nx2N, o NxN. Los ejemplos de un tipo de partición podrían incluir las particiones simétricas obtenidas al dividir, en forma simétrica, la altura o el ancho de la unidad de predicción, las particiones obtenidas al dividir, en forma asimétrica, la altura o el ancho de la unidad de predicción tal como l:n o n:l, las particiones obtenidas al dividir, en forma geométrica, la unidad de predicción, y las particiones que tienen formas arbitrarias.
Un modo de predicción de la unidad de podría ser al menos uno de un intra-modo, un inter-modo, y un > modo de salto. Por ejemplo, el intra-modo y el inter-modo podrían ser realÍ2ados en la partición que tiene un tamaño de 2Nx2N, 2NxN, Nx2N, o NxN. Asimismo, el modo de salto sólo podría ser realizado en la partición que tiene un tamaño de 2Nx2N. la codificación podría ser realizada, de manera independiente, en una unidad de predicción, en" una unidad de codificación y podría ser seleccionado un modo de predicción que tiene un error de codificación mínima.
Asimismo, el aparato 100 también podría realizar la transformación de frecuencia en los datos de imagen en una unidad de codificación en función no sólo de la unidad de codificación para la codificación de los datos de imagen sino también de una unidad de datos diferente de la unidad de codificación .
Con el propósito de realizar la transformación de frecuencia en la unidad de codificación, la transformación de frecuencia podría ser realizada en función de una unidad de datos que tiene un tamaño igual o menor que el tamaño de la unidad de codificación. Por ejemplo, la unidad de datos para la transformación de frecuencia podría incluir una unidad de datos para un inter-modo y una unidad de datos para un intra-modo .
Una unidad de datos que se convierte en una: base de la transformación de frecuencia podría ser referida como una 4unidad de transformación' . En forma similar a la unidad de codificación, una unidad de transformación en una unidad de codificación podría ser dividida, en forma recursiva,; en. una unidad de transformación que tiene un tamaño más pequeño, y los datos residuales de la unidad de codificación podrían ser divididos de acuerdo con las unidades de transformación que tienen una estructura de árbol de acuerdo con una profundidad de transformación.
La profundidad de transformación que indica el número de divisiones para alcanzar la unidad de transformación al dividir la altura y el ancho de la unidad de codificación también podría ser establecida en la unidad de transformación. Por ejemplo, el tamaño de una unidad de transformación de una unidad de codificación actual que tiene un tamaño de 2Nx2N es 2Nx2N, la profundidad de transformación podría ser establecida en 0, cuando el tamaño de una unidad de transformación sea de Nx , la profundidad de transformación podría ser establecida en 1, y cuando el tamaño de una unidad de transformación sea de N/2xN/2, la profundidad de transformación podría ser establecida en 2. Es decir, las unidades de transformación que tienen una estructura de árbol podrían establecerse de acuerdo con las profundidades de transformación.
La información acerca de las unidades de codificación más profunda de acuerdo con las profundidades utiliza la información acerca de una profundidad codificada, la información relacionada con la predicción, y la información relacionada con .la transformación de frecuencia. En consecuencia, el determinador de unidad de codificación 120 podría determinar no sólo una profundidad codificada que genera un error- de codificación mínima, sino también un tipo de partición mediante el cual una unidad de predicción es dividida en particiones, un modo de predicción de acuerdo con cada unidad de predicción, y el tamaño de una unidad de transformación para la transformación de frecuencia.
Un método de determinación de una partición y las unidades de codificación que tienen una estructura : de árbol de una unidad de codificación máxima será explicado en detalle con referencia a las Figuras 3-12.
El determinador de unidad de codificación 120 podría medir un error de codificación de las unidades de codificación más profunda de acuerdo con las prof ndidades utilizando la optimización de distorsión de velocidad basada en los multiplicadores de LaGrange .
La unidad de salida de datos de imagen 130 da salida a los datos de imagen de la unidad de codificación máxima, los cuales son codificados en función al menos de una profundidad codificada determinada por el determinador de unidad de codificación 120 y la información acerca del modo de codificación de acuerdo con la profundidad codificada, los flujos de bits .
Los datos codificados de imagen podrían, ; ser resultados obtenidos mediante la codificación de los datos residuales de la imagen. ' '.
La información acerca del modo de codificación de acuerdo con la profundidad codificada podría incluir, la información acerca de la profundidad codificada, la información acerca del tipo de partición en la unidad, de predicción, la información acerca del modo de predicción, y la información acerca del tamaño de la unidad de transformación .
La información acerca de la profundidad codificada podría ser definida utilizando la información dividida de acuerdo con cada profundidad que indica si la codificación es realizada en las unidades de codificación de una profundidad más baja en lugar de la profundidad actual. Cuando la profundidad actual de la unidad de codificación actual es la profundidad codificada, debido a que son codificados los datos de imagen en la unidad de codificación actual, la información dividida podría ser definida no sólo para dividir la unidad de codificación actual en una profundidad más baja. En forma alterna, cuando la profundidad actual de la unidad de codificación actual no es la profundidad codificada, debido a que la codificación es realizada en una úhidad; de codificación de una profundidad más baja, la información dividida podría ser definida para dividir la unidad¦ de codificación actual a fin de obtener las unidades de codificación de una profundidad más baja.
Cuando la profundidad actual no es la profundidad codificada, la codificación es realizada en una nidad · de codificación la cual es dividida en las unidades de codificación de una profundidad más baja. Debido a que existe una o más de las unidades de codificación de profundidad más baja en una unidad de codificación de la profundidad actual, la codificación podría ser realizada, en forma repetida, en cada unidad de codificación de la profundidad más baja, y de esta manera, la codificación podría ser realizada, en forma recursiva, para las unidades de codificación de la misma profundidad .
Debido a que las unidades de codificación que tienen una estructura de árbol tiene que ser determinadas en una unidad de codificación máxima y la información al menos acerca de un modo de codificación tiene que ser determinada para cada unidad de codificación de una profundidad codificada, la información al menos acerca de un modo de codificación podría determinarse para una unidad de codificación máxima. Asimismo, debido a que los datos de imagen de la unidad de codificación máxima podrían ser jerárquicamente divididos de acuerdo con las profundidades y de esta manera, las profundidades codificadas podrían diferir de acuerdo con las regiones, la información acerca de un modo de codificación y de la profundidad codificada podría establecerse para los datos de imagen.
En consecuencia, la unidad de salida 130 podría asignar la información de codificación acerca de una correspondiente profundidad codificada y un modo : de codificación al menos a una de la unidad de codificación,, la unidad de predicción, y una unidad mínima incluida en la unidad de codificación máxima. La unidad mínima podría ser una unidad cuadrada de datos que tiene un tamaño obtenido al dividir entre 4 una unidad de codificación mínima que constituye la profundidad más inferior, y podría ser una unidad cuadrada de datos que tiene un tamaño máximo que podría ser incluida en todas las unidades de codificación, las unidades de predicción, y las unidades de transformación incluidas en la unidad de codificación máxima.
Por ejemplo, la información de codificación que es salida a través de la unidad de salida 130 podría ser clasificada en la información de codificación de acuerdo con las unidades de codificación más profunda de acuerdo con las profundidades y la información de codificación de acuerdo con las unidades de predicción. La información de codificación de acuerdo con las unidades de codificación más profunda de acuerdo con las profundidades podría incluir la información acerca de un modo de predicción y la información acerca de los tamaños de las particiones. La información .de codificación acerca de las unidades de predicción podría incluir la información acerca de la dirección estimada de : un inter-modo, la información acerca de un índice de imagen de referencia del inter-modo, la información acerca de un vector de movimiento, la información acerca de un componente de crominancia de un intra-modo, y la información acerca de un método de interpolación del intra-modo. Asimismo, la información acerca de un tamaño máximo de una unidad de codificación que es definida de acuerdo con imágenes, rebanadas, o GOPs y la información acerca de una profundidad máxima podrían ser insertadas en un encabezado de un flujo de bits.
De acuerdo con el aparato 100 que tiene una estructura más simple, una unidad de codificación más profunda es una unidad de codificación que es obtenida al dividir entre dos la altura o el ancho de una unidad de codificación de una profundidad más alta, que es de una capa por encima, . Es decir, cuando el tamaño de una unidad de codificación de la profundidad actual es 2Nx2N, el tamaño de una unidad de codificación de una profundidad más baja es NxN. Asimismo, cuando la unidad de codificación de la profundidad actual tiene un tamaño de 2Nx2N, el tamaño de la unidad de codificación de la profundidad más baja es NxN. Asimismo, la unidad de codificación de la profundidád . actual que tiene el tamaño de 2Nx2N podrían incluir un máximo de 4 de la unidad de codificación de la profundidad más baja.
En consecuencia, el aparato 100 podría formar las unidades de codificación que tienen una estructura de árbol al determinar una unidad de codificación que tiene una forma óptima y un tamaño óptimo para cada unidad de codificación máxima, en función del tamaño de la unidad de codificación máxima y una profundidad máxima determinada considerando las características de una imagen actual. Asimismo, debido a que la codificación podría ser realizada en cada unidad de codificación máxima utilizando cualquiera de los distintos modos de predicción y los modos de transformación de frecuencia, un modo de codificación óptima podría determinarse considerando las características de las unidades de codificación que tienen varios tamaños de imagen.
De esta manera, si una imagen que tiene una alta resolución o una gran cantidad de datos es codificada en un macrobloque convencional, el número de macrobloques por imagen se incrementa, en forma excesiva. En consecuencia, se incrementa el número de piezas de la información comprimida que es generada para cada macrobloque, y de esta manera, es difícil transmitir la información comprimida y disminuye la eficiencia de compresión de datos. Sin embargo, utilizando el aparato 100, la eficiencia de la compresión de imagen podría ser incrementada debido a que una unidad de codificación es ajustada mientras se consideran las características de una imagen, mientras se incrementa el tamaño máximo de -una unidad de codificación, mientras se considera el tamañp de la imagen.
La Figura 2 es un diagrama de bloque de un aparato 200 para la decodificación de un video, de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 2, el aparato 200 incluye un receptor 210, un extractor de información de codificación y datos de imagen 220, y un decodificador de datos de imagen 230. Las definiciones de los términos tales como una unidad de codificación, una profundidad, una unidad de predicción, una unidad de transformación, y la información acerca de varios modos de codificación para varios procesos del aparato 200 son las mismas que aquellas descritas con referencia a la Figura 1 y el aparato 100.
El receptor 210 recibe y analiza un flujo de bits para un video codificado. El extractor de información de codificación y datos de imagen 220 extrae los datos codificados de imagen para cada unidad de codificación de acuerdo con las unidades de codificación que tienen una estructura de árbol de acuerdo con las unidades de codificación máxima a partir del flujo analizado de bits, y da salida a los datos codificados y extraídos de imagen hacia el decodificador de datos de imagen 230. El extractor de información de codificación y datos de imagen 220 podría extraer la información de un tamaño máximo de una unidad de codificación de una imagen actual de un encabezado de la imagen actual .
Asimismo, el extractor de información ¦ de codificación y datos de imagen 220 extrae la información acerca de una profundidad codificada y un '. modo de codificación para las unidades de codificación que tienen la estructura de árbol de acuerdo con las unidades de codificación máxima a partir del flujo analizado de bits. La información extraída acerca de la profundidad codificada y el modo de codificación es salida hacia el decodificador de datos de imagen 230. Es decir, el decodificador de datos de imagen 230 podría decodificar los datos de imagen para cada unidad de codificación máxima dividiendo los datos de imagen de una cadena de bits de acuerdo con las unidades de codificación máxima.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima podría establecerse para una o más piezas de la información de profundidad codificada, y la información acerca de los modos de codificación de acuerdo con las profundidades codificadas podrían incluir la información acerca de un tipo de partición de una unidad correspondiente de codificación, la información acerca de un modo, de predicción, y la información acerca del tamaño de una unidad de transformación. Asimismo, la información dividida de acuerdo con las profundidades podría ser extraída: como la información acerca de la profundidad codificada.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima extraída por el extractor de información de codificación y datos de imagen 220 es la información acerca de una profundidad codificada y un modo de codificación determinado por tener un error de codificación mínima al realizar en forma repetida la codificación en las unidades de codificación más profunda de acuerdo con las unidades de codificación máxima en un lado de codificación tal como el aparato 100. En consecuencia, el aparato 200 podría restaurar una imagen mediante la decodificación de los datos de acuerdo con un método de codificación que genera un error de codificación mínima.
Debido a que la información de codificación acerca de una profundidad codificada y un modo de codificación podría ser asignada a una unidad predeterminada de datos de entre una unidad correspondiente de codificación, una unidad de predicción, y una unidad mínima, el extractor de información de codificación y datos de imagen 220 podría extraer la información acerca de una profundidad codificada y un modo de codificación de acuerdo con las : unidades predeterminadas de datos. Cuando la información acerca de, una profundidad codificada y un modo de codificación de una correspondiente unidad de codificación máxima es grabada de acuerdo con las unidades predeterminadas de datos, .las unidades predeterminadas de datos que tienen la misma información acerca de la profundidad codificada y el modo de codificación podrían ser derivadas como una unidad de datos incluida en la misma unidad de codificación máxima.
El decodificador de datos de imagen 230 restaura una imagen actual mediante la decodificación de los datos de imagen en cada unidad de codificación máxima en función de la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima. Es decir, el decodificador de datos de imagen 230 podría decodificar los datos codificados de imagen en función de la información leída acerca de un tipo de partición, un l , „ modo de predicción, y una unidad de transformación, para cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol incluida en cada unidad de codificación máxima. La decodificación podría incluir un proceso de predicción que incluye la intra-predicción y la compensación de movimiento, y un proceso de transformación inversa de frecuencia. El decodificador de datos de imagen 230 podría realizar la intra-predicción, la compensación de movimiento de acuerdo con cada partición y el modo de predicción para cada unidad de codificación en función de la información acerca de un tipo de partición y un modo de predicción de una unidad de predicción de las unidades de codificación de acuerdo con las profundidades codificadas.
Asimismo, el decodificador de datos de imagen 230 podría realizar la transformación inversa de frecuencia de acuerdo con cada unidad de transformación en la unidad , de codificación, en función de la información de tamañó de üna unidad de transformación de las unidades de codificación de acuerdo con las profundidades codificadas, para la transformación inversa de frecuencia de acuerdo con las unidades de codificación máxima.
El decodificador de datos de imagen 230 podría determinar una profundidad codificada de una unidad actual de codificación máxima utilizando la información dividida de acuerdo con cada profundidad. Si la información' '¦ dividida indica que los datos de imagen ya no son más divididos en la profundidad actual, la profundidad actual es la profundidad codificada. En consecuencia, el decodificador de datos de imagen 230 podría decodificar una unidad de codificación de la profundidad actual para los datos de imagen de la unidad actual de codificación máxima utilizando la información acerca de un tipo de partición de una unidad de predicción, un modo de predicción, y el tamaño de una unidad ' de transformación.
Es decir, las unidades de datos que contiene, la información de codificación que incluye la misma información dividida podrían ser reunidas al observar la información de codificación establecida que es asignada para una unidad predeterminada de datos de entre una unidad de codificación, una unidad de predicción, y una unidad mínima, y podría considerarse que las unidades de datos reunidas ¡son una unidad de datos que será de codificada por el decodificador de datos de imagen 230 en el mismo modo de codificación.
El aparato 200 podría obtener la información acerca de una unidad de codificación que genera un error de codificación mínima al realizar la codificación, en forma recursiva, para cada unidad de codificación máxima y podría utilizar la información para decodificar una imagen actual. Es decir, podrían ser decodificados los datos codificados de imagen de las unidades de codificación que tienen una estructura de árbol determinada para cada unidad de codificación máxima.
En consecuencia, incluso en una imagen que tiené una alta resolución o una gran cantidad de datos, los datos de imagen podrían ser decodificados y restaurados, de manera eficiente, de acuerdo con el tamaño de una unidad de codificación y un modo de codificación los cuales son determinados, de manera adaptiva, para las características de una imagen utilizando la información acerca de uní modo' de codificación óptima transmitido a partir de un lado de codificación.
Un método de determinación de las unidades de codificación que tienen una estructura de árbol, una unidad de predicción, y una unidad de transformación será explicado en detalle con referencia a las Figuras 3-13.
La Figura 3 es un diagrama que describe un; concepto de unidades jerárquicas de codificación, de acuerdo ; con; una modalidad de la presente invención.
El tamaño de una unidad de codificación podría ser expresado en ancho x altura, y los ejemplos del tamaño podrían incluir 64x64, 32x32, 16x16, y 8x8. Una unidad de codificación que tiene un tamaño de 64x64 podría ser dividida en particiones que tienen tamaños de 64x64, 64x32, 32x64, y 32x32, una unidad de codificación que tiene un tamaño de 32x32 podría ser dividida en particiones que tienen tamaños de 32x32, 32x16, 16x32, y 16x16, una unidad de codificación que tiene un tamaño de 16x16 podría ser dividida en particiones que tienen tamaños de 16x16, 16x8, 8x16, y 8x8, y una unidad de codificación que tiene un tamaño de 8x8 podría ser dividida en particiones que tienen tamaños de 8x8, 8x4, 4x8 , y 4x4.
En los datos de video 310, la resolución es de 1920x1080, el tamaño máximo de una unidad de codificación es de 64, y la profundidad máxima es de 2. En los datos de video 320, la resolución es de 1920x1080, el tamaño máximo de una unidad de codificación es de 64, y la profundidad máxima es de 4. En los datos de video 330, la resolución es de 352x288, el tamaño máximo de una unidad de codificación es de 16, y la profundidad máxima es de 2. Una profundidad máxima en; la Figura 3 indica el número total de divisiones de una unidad de codificación máxima a una unidad de codificación mínima.
Si la resolución es de altura o es grande la cantidad de datos, el tamaño máximo de una unidad de codificación podría ser grande no sólo para incrementar la eficiencia de la codificación sino también para reflejar, en forma precisa, las características de una imagen. En consecuencia, el tamaño máximo de la unidad de codificación de los datos de video 310 y 320 que tiene una resolución más alta que los datos de video 330 podría ser de 64.
Debido a que la profundidad máxima de los datos de video 310 es 2, las unidades de codificación 315 de los datos de video 310 podrían incluir una unidad de codificación máxima que tiene un tamaño deje largo de 64, y las unidades de codificación que tienen tamaños de eje largo de 32 y 16 debido a que las profundidades son profundizadas entre las dos capas dividiendo la unidad de codificación máxima dos veces. Mientras tanto, debido a que la profundidad máxima de los datos de video 330 es 1, las unidades de codificación 335 de los datos de video 330 podrían incluir una unidad de codificación máxima que tiene un tamaño deje largo de 16, y las unidades de codificación que tienen un tamaño deje largo de 8 debido a que las profundidades son profundizadas por una capa dividiendo la unidad de codificación máxima una vez.
Debido a que la profundidad máxima de los datos de video 320 es 3, las unidades de codificación 325 de los datos de video 320 podrían incluir una unidad de codificación máxima que tiene un tamaño deje largo de 64, y las unidades de codificación que tienen tamaños de eje largo de 32, 16, y 8 debido a que las profundidades son profundizadas por 3 capas dividiendo la unidad de codificación máxima tres veces. A medida que la profundidad se profundiza, la información detallada podría ser expresada, en forma precisa.
La Figura 4 es un diagrama de bloque de un codificador de imagen 400 basado en una unidad, de codificación, de acuerdo con una modalidad de la presente invención.
El codificador de imagen 400 realiza las operaciones del determinador de unidad de codificación 120 del aparato 100 para codificar los datos de imagen. Es decir, un intra-predictor 410 realiza la intra-predicción en las unidades de codificación en un intra-modo, de entre un cuadro actual 405, y un estimador de movimiento 420 y un compensador de movimiento 425 realiza la inter-estimación y la compensación de movimiento utilizando un cuadro de referencia 495 y el cuadro actual 405 de un inter-modo.
Los datos salidos a partir del intra-predictor 410, el estimador de movimiento 420, y el compensador, de movimiento 425 son salidos como un coeficiente cuántificado de transformación a través de un transformador de frecuencia 430 y un cuantificador 440. El coeficiente cuántificado de transformación es restaurado como los datos en el dominio espacial a través de un cuantificador inverso 460 y un transformador inverso 470, y los datos restaurados en el dominio espacial son salidos como el cuadro de referencia 495 después de ser posteriormente procesados a través dé una unidad de desbloqueo 480 y una unidad de filtrado de circuito 490. El coeficiente cuantificado de transformación podría ser salido como un flujo de bits 455 a través de un codificador de entropía 450. Con el propósito que el codificador de imagen 400 sea aplicado en el aparato 100, todos los elementos del codificador de imagen 400, es decir, el ihtra-predictor 410, el estimador de movimiento 420, el compensador de movimiento 425, el transformador de frecuencia. 430, el cuantificador 440, el codificador de entropía 450, el cuantificador inverso 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtrado dé circuito 490 tienen que realizar las operaciones basadas : en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol en consideración ;dé ; una profundidad máxima para cada unidad de codificación máxima.
De manera específica, el intra-predicto : 410,. el estimador de movimiento 420, y el compensador de movimiento 425 determinan una unidad de predicción y las particiones de cada unidad de codificación de entre las unidades: de codificación que tienen una estructura de árbol en consideración de una profundidad máxima y un tamaño máximo de una unidad actual de codificación máxima, y el transformador de frecuencia 430 tiene que determinar el tamaño dé una unidad de transformación en cada unidad de codificación de entre las unidades de codificación que tienen la estructura de árbol .
La Figura 5 es un diagrama de bloque de un decodificador de imagen 500 en función de una Unidad de codificación, de acuerdo con una modalidad de lá presente invención.
Con referencia a la Figura 5, un analizador 510 analiza los datos codificados de imagen que serán decodificados y la información acerca de la codificación utilizada para la decodificación de un flujo de bits 505. Los datos codificados de imagen son salidos como los datos cuantificados inversos a través de un decodificador de entropía 520 y un cuantificador inverso 530, y los datos cuantificados inversos son restaurados en los datos de imagen en el dominio espacial a través de un transformador inverso 540.
Un intra-predictor 550 realiza la intra-predicción en las unidades de codificación en un intra-modo con respecto a los datos de imagen en el dominio espacial, y¦ un compensador de movimiento 560 realiza la compensación de movimiento en las unidades de codificación en un inter-modo utilizando un cuadro de referencia 585.
Los datos de imagen en el dominio espacial, que pasaron a través del intra-predictor 550 y el compensador de movimiento 560, podrían ser salidos como un cuadro restaurado 595 después de ser posteriormente procesados a través de una unidad de desbloqueo 570 y una unidad de filtrado de circuito 580. Asimismo, los datos de imagen que son posteriormente procesados a través de la unidad de desbloqueo 570 y la unidad de filtrado de circuito 580 podrían ser salidos como el cuadro de referencia 585.
Con el propósito de decodificar los datos de imagen en el decodificador de datos de imagen 230 del aparato 200, el decodificador de imagen 500 podría realizar las operaciones que son efectuadas después del analizador 510.
Con el propósito que el decodificador de imagen 500 sea aplicado en el aparato 200, todos los elementos del decodificador de imagen 500, es decir, el analizador 510, el decodificador de entropía 520, el cuantificador inverso 530, el transformador inverso 540, el intra-predictor 550, el compensador de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtrado de circuito 580 tiene que realizar las operaciones basadas en las unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
De manera específica, la intra-predicción: 550 y el compensador de movimiento 560 tiene que determinar las particiones y un modo de predicción para cada una de las unidades de codificación que tienen la estructura de árbol, y el transformador inverso 540 tiene que determinar el tamaño de una unidad de transformación para cada unidad de codificación.
La Figura 6 es un diagrama que ilustra las particiones y las unidades de codificación más profunda de acuerdo con las profundidades, de acuerdo con una modalidad de la presente invención.
El aparato 100 y el aparato 200 utilizan unidades jerárquicas de codificación para considerar las características de una imagen. Una altura máxima, un ancho máximo y una profundidad máxima de las unidades de codificación podrían ser determinados, en forma adaptiva, de acuerdo con las características de la imagen, o podría ser diferentemente establecidos por el usuario. Los tamaños de las unidades de codificación más profunda de acuerdó con las profundidades podrían determinarse de acuerdo con un tamaño máximo preestablecido de una unidad de codificación.
En una estructura jerárquica 600 de las unidades de codificación, la altura máxima y el ancho máximo de las unidades de codificación son cada uno de 64, y la profundidad máxima es de 4. Debido a que una profundidad se profundiza a lo largo de un eje vertical de la estructura jerárquica 600, cada una de la altura y el ancho de la unidad de codificación más profunda es dividida. Asimismo, una unidad de predicción y una partición, las cuales son una base para la codificación de predicción de cada unidad de codificación más profunda, son mostradas a lo largo de un eje horizontal de la estructura jerárquica 600. En otras palabras, una unidad de codificación 610 es una unidad de codificación máxima en la estructura jerárquica 600, en donde la profundidad es de 0 y el tamaño, es decir, la altura por ancho, es de 64x64. La profundidad se profundiza a lo largo del eje vertical, y existe una unidad de codificación 620 que tiene un tamaño de 32x32 y una profundidad de 1, una unidad de codificación 630 que tiene un tamaño de 16x16 y una profundidad de 2, una unidad de codificación 640 que tiene un tamaño de 8x8 y una profundidad de 3 , y una unidad de codificación 650 que tiene un tamaño de 4x4 y una profundidad de 4. La unidad de codificación 650 que tiene el tamaño de 4x4 y la profundidad de 4 es una unidad de codificación mínima.
Las unidades de datos parciales son mostradas en la Figura 6 como las unidades de predicción de una unidad de codificación a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad de codificación 610 que tiene el tamaño de 64x64 y ¦ la profundidad de 0 es una unidad de predicción, la unidad de predicción podría ser dividida en las unidades de '. datos parciales incluidas en la unidad de codificación ,610, es decir una unidad de datos parciales 610 que tiene un tamaño de 64x64, las unidades de datos parciales 612 que tienen el tamaño de 64x32, las unidades de datos parciales 614 que tienen el tamaño de 32x64, o las unidades de datos parciales 616 que tienen el tamaño de 32x32.
Una unidad de predicción de la unidad de codificación 620 que tiene el tamaño de 32x32 y la profundidad de 1 podría ser dividida en las unidades, de datos parciales incluidas en la unidad de codificación 620, es decir una unidad de datos parciales 620 que tiene un tamaño de 32x32, las unidades de datos parciales 622 que tienen un tamaño de 32x16, las unidades de datos parciales 624 que tienen un tamaño de 16x32, y las unidades de datos parciales 626 que tienen un tamaño de 16x16.
Una unidad de predicción de la unidad de codificación 630 que tiene el tamaño de 16x16 y la profundidad de 2 podría ser dividida en las unidades : ;de datos parciales incluidas en la unidad de codificación . ;630 ,¦¦ ·; es decir una unidad de datos parciales que tiene un tamaño de 16x16 incluido en la unidad de codificación 630, las unidades de datos parciales 632 que tienen un tamaño de 16x8, las unidades de datos parciales 634 que tienen un tamaño de 8x16, y las unidades de datos parciales 636 que tienen un tamaño de 8x8.
Una unidad de predicción de la unidad " de codificación 640 que tiene el tamaño de 8x8 y la profundidad de 3 podría ser dividida en las unidades de datos parciales incluidas en la unidad de codificación 640, es decir, una unidad de datos parciales que tiene un tamaño de 8x8 incluida en la unidad de codificación 640, las unidades de datos parciales 642 que tienen un tamaño de 8x4, las unidades de datos parciales 644 que tienen un tamaño de 4x8, y las unidades de datos parciales 646 que tienen un tamaño de 4x4.
La unidad de codificación 650 tiene el tamaño de 4x4 y la profundidad de 4 es la unidad de codificación máxima y una unidad de codificación de la profundidad más baja. Una unidad de predicción de la unidad de codificación 650 sólo es asignada a una unidad de datos parciales que tiene un tamaño de 4x4.
Con el propósito de determinar una profundidad codificada de la unidad de codificación máxima 610, el determinador de unidad de codificación 120 del aparato 100 tiene que realizar la codificación para las unidades de codificación que corresponden con cada profundidad; ; incluida en la unidad de codificación máxima 610.
El número de las unidades de codificación más profunda de acuerdo con las profundidades que incluye los datos en el mismo rango y el mismo tamaño se incrementa a medida que se profundiza la profundidad. Por ejemplo,, cuatro unidades de codificación que corresponden con una profundidad de 2 son requeridas para cubrir los datos que son incluidos en una unidad de codificación que corresponde con una profundidad de 1. En consecuencia, con el propósito de comparar los resultados de la codificación de los mismos datos de acuerdo con las profundidades, la unidad de codificación que corresponde con la profundidad de 1 y cuatro unidades de codificación que corresponden con la profundidad de 2 cada una es codificada.
Con el propósito de realizar la codificación de acuerdo con las profundidades, para la profundidad actual de entre las profundidades, un error de codificación representativa que es un error de codificación mínima podría ser seleccionado para la profundidad actual realizando la codificación para las unidades de predicción en las unidades de codificación que corresponden con la profundidad actual, a lo largo del eje horizontal de la estructura jerárquica 600. En forma alterna, un error de codificación mínima podría ser buscado comparando los errores de codificación mínima de acuerdo con las profundidades, realizando la codificación para cada profundidad a medida que se profundiza \ la profundidad a lo largo del eje vertical de la estructura jerárquica 600. Una profundidad y una partición que :tienen el error de codificación mínima en la unidad de codificación 610 podrían ser seleccionadas como una profundidad codificada y un tipo de partición de la unidad de codificación 610.
La Figura 7 es un diagrama que describe una ' relación entre una unidad de codificación 710 y las unidades de transformación 720, de acuerdo con una modalidad de la presente invención.
El aparato 100 ó 200 codifica o decodifica una imagen de acuerdo con las unidades de codificación que tienen tamaños más pequeños que o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de las unidades de transformación para la transformación de frecuencia durante la codificación podrían ser seleccionados en función de las unidades de datos que no son más grandes que una unidad correspondiente de codificación.
Por ejemplo, en el aparato 100 ó 200, si el tamaño de la unidad de codificación 710 es de 64x64, la transformación de frecuencia podría ser realizada utilizando las unidades de transformación 720 que tiene un tamaño de 32x32.
Asimismo, los datos de la unidad de codificación 710 que tienen el tamaño de 64x64 podrían ser codificados realizando la transformación de frecuencia en cada una de las unidades de transformación que tienen el tamaño de 32x32, 16x16, 8x8, y 4x4, que son más pequeñas que 6:4x64,' y posteriormente, podría ser seleccionada una unidad de transformación que tiene un error menor de codificación.
La Figura 8 es un diagrama que describe : la información de codificación de las unidades de codificación de acuerdo con las profundidades, de acuerdo con una modalidad de la presente invención.
La unidad de salida 130 del aparato 100 podría codificar y transmitir la información 800 acerca de un tipo de partición, la información 810 ' acerca de un modo de predicción, y la información 820 acerca del tamaño de una unidad de transformación para cada unidad de codificación que corresponde con una profundidad codificada, como la información acerca de un modo de codificación.
La información 800 indica la información acerca de la forma de una partición obtenida al dividir una unidad de predicción de una unidad de codificación actual, como una unidad de datos para la codificación de predicción la unidad de codificación actual. Por ejemplo, una unidad de codificación actual CU_0 que tiene una profundidad 0 y el tamaño de 2Nx2N podría ser dividida en cualquiera una de una partición 802 que tiene un tamaño de 2Nx2N, una partición 804 que tiene un tamaño de 2NxN, una partición 806 que tiene un tamaño de Nx2N, y una partición 808 que tiene un tamaño de NxN. Aquí, la información 800 acerca de un tipo de partición de la unidad de codificación actual es establecida para indicar una de la partición 804 que tiene un tamaño de 2NxN, la partición 806 que tiene un tamaño de Nx2N, y la partición 808 que tiene un tamaño de NxN.
La información 810 indica un modo de predicción de cada partición. Por ejemplo, la información 810 podría indicar un modo de la codificación de predicción realizada en una partición indicada por la información 800, es decir, un intra-modo 812, un inter-modo 814, o un modo de salto 816.
La información 820 indica una unidad de transformación que estará basada en cuanto sea realizada la transformación de frecuencia en una unidad de codificación actual. Por ejemplo, la unidad de transformación podría ser una primera unidad de intra-transformación 822, una segunda unidad de Ínter-transformación 824, una primera unidad de ínter-transformación 826, o una segunda unidad de inter-transformación 828.
El extractor de información de codificación y datos de imagen 220 del aparato 200 podría extraer y use la información 800, 810, y 820 para la decodificación,: : de acuerdo con cada unidad de codificación más profunda;;: La Figura 9 es un diagrama que ilustra las unidades de codificación más profunda de acuerdo con las profundidades, de acuerdo con una modalidad de la presente invención . ,., . - · La información dividida podría ser utilizada; para indicar un cambio en una profundidad. La información dividida indica si una unidad de codificación de la profundidad actual es dividida en las unidades de codificación de una profundidad más baja.
Una unidad de predicción 910 para la codificación de predicción una unidad de codificación que tiene una profundidad de 0 y un tamaño de 2N_0x2N_0 podrían incluir un tipo de partición 912 que tiene un tamaño de 2N_0x2N_0, un tipo de partición 914 que tiene un tamaño de 2N_0xN_0, un tipo de partición 916 que tiene un tamaño de N_0x2N_0, y un tipo de partición 918 que tiene un tamaño de N_0xN_0. Aunque los tipos de particiones 912, 914, 916, y 918, en los cuales las unidades de predicción son divididas, en forma simétrica, son mostrados en la Figura 9, los tipos reparticiones no son limitados a los mismos y podrían tener formas asimétricas, arbitrarias o geométricas, como se describe con anterioridad.
La codificación por medio de la predicción de movimiento es realizada, en forma repetida, en una partición que tiene un tamaño de 2N_0x2N_0, en dos particiones' que tienen un tamaño de 2N_0xN_0, en dos particiones que. tienen un tamaño de N_0x2N_0, y en cuatro particiones que tienen un tamaño de N_0xN_0, de acuerdo con cada tipo dividido. La codificación de predicción en un intra-modo y un inter-modo podría ser realizada en las particiones que tienen los tamaños de 2N_0x2N_0 , N_0x2N_0, 2N_0xN_0 , y N_0xN_0. La codificación de predicción en un modo de salto sólo es realizada en la partición que tiene el tamaño de 2N_0x2N_0.
Si el error de codificación es el más pequeño en cualquiera uno de los tipos de partición 912, 914, y 916 que tienen los tamaños de 2N_0x2N_0, 2N_0xN_0 , y N_0x2N_0 , ya no es más necesaria la división en una profundidad más baja.
Si el error de codificación es el más pequeño en el tipo dividido 918 que tiene el tamaño N_0xN_0, una profundidad es cambiada de 0 a 1 para dividir el tipo de partición 918 en la operación 920, y la codificación es realizada, en forma dividida, en las unidades de codificación 930 que tienen una profundidad de 2 y un tamaño de N_0xN_0 para buscar un error de codificación mínima.
Una unidad de predicción 940, para la realización de la codificación de predicción e la unidad de codificación 930 que tiene una profundidad de 1 y un tamaño de 2N_lx2N_l (=N_0xN_0) , podrían incluir un tipo de partición 942 que tiene un tamaño de 2N_lx2N_l, un tipo de partición 944 que tiene un tamaño de 2N_lxN_l, un tipo de partición 946 que tiene un tamaño de N_lx2N_l, y un tipo de partición 948 que tiene un tamaño de N_lxN_l . Asimismo, si el error de codificación es el más pequeño en el tipo de partición 948 que tiene el tamaño N_lxN_l, la profundidad es cambiada de 1 a 2 para dividir el tipo de partición 948 en la operación 950, y la codificación es realizada, en forma repetida, en las unidades de codificación 960 que tienen una profundidad de 2 y un tamaño de N_2xN_2 para bus error de codificación mínima.
Cuando la profundidad máxima es de d, la información dividida de acuerdo con cada profundidad podría establecerse hasta cuando una profundidad se convierte en d-1, y la información dividida podría establecerse hasta cuando una profundidad se convierte en d-2. Es decir, cuando la codificación es realizada de una profundidad de d-2 a una profundidad de d-1 en la operación 970, una unidad de predicción 990 para la realización de la codificación de predicción en una unidad de codificación 980 que tiene una profundidad de d-1 y un tamaño de 2N_(d-l) 2N_(d-l) podrían incluir un tipo de partición 992 que tiene un tamaño de 2N_(d-l) x2N_(d-l) , un tipo de partición 994 que tiene un tamaño de 2N_(d-l) xN_(d-l) , un tipo de partición 996 que tiene un tamaño de N_(d-1) x2N_ (d-1) , y un tipo de partición 998 que tiene un tamaño de N_ (d-1) N_ (d-1) .
La codificación por medio de la codificación de predicción podría ser realizada, en forma repetida, en una partición que tiene un tamaño de 2N_(d-l) x2N_(d-l) , en dos particiones que tienen un tamaño de 2N_ (d-1) N_ (d- 1 ) , en dos particiones que tienen un tamaño de N_ (d-1) x2N_ (d-1) , y en cuatro particiones que tienen un tamaño de N_(d-1) xN^íd-l) , de acuerdo con cada tipo dividido para buscar un . tipo de partición que genere un error de codificación mínima.
Aunque el error de codificación del : tipo . de partición 998 que tiene el tamaño de N_ (d-1) xN_(d-l) es el más pequeño, debido a que la profundidad máxima es d, la unidad de codificación CU_(d-l) que tiene una profundidad de d-1 ya no es más dividida en una profundidad más baja, y la profundidad codificada de una unidad actual de codificación máxima 900 podría determinarse que será una profundidad de d-1 y un tipo de partición de la unidad actual de codificación máxima 900 podría determinarse que será N_(d-1) N_ (d-1) . Asimismo, debido a que la profundidad máxima es d ya ño es establecida, la información dividida acerca de una unidad de codificación 952 que tiene una profundidad de d-1.
Una unidad de datos 999 podría ser referida como una unidad mínima' de una unidad actual de codificación máxima. La unidad mínima podría ser una unidad cuadrada de datos que tiene un tamaño obtenido al dividir entre 4 una unidad de codificación mínima que tiene la profundidad codificada más baja. Al realizar en forma repetida la codificación, el aparato 100 podría comparar los errores de codificación de acuerdo con las profundidades de la unidad de codificación 900, además, podría seleccionar una profundidad que genere un error de codificación mínima, también podría determinar la profundidad codificada, y finalmente, podría establecer' un correspondiente tipo de partición y el modo de predicción como un modo de codificación de la profundidad codificada.
Como tal, los errores de codificación mínima ; de acuerdo con las profundidades podrían ser comparados en todas las profundidades de 0, 1,..., d-1, y d, y una profundidad que tiene un error más pequeño podría ser seleccionada, como una profundidad codificada. Una profundidad codificada, y un modo de predicción y un tipo de partición de una unidad de predicción podrían ser codificados y transmitidos como la información acerca de un modo de codificación. Asimismo, debido a que una unidad de codificación tiene que ser dividida hasta cuando cambia la profundidad de una profundidad de 0 a una profundidad codificada,, , sólo la información dividida de la profundidad codificada tiene que ser establecida en ?0' y la información dividida dé acuerdo con cada profundidad excluyendo la profundidad codificada tiene que ser establecida en ' l' .
El extractor de información de codificacióri y datos de imagen 220 del aparato 200 podrían extraer y utilizar la información acerca de una unidad de predicción y una profundidad codificada de la unidad de codificacióri ! 900 para decodificar el tipo de partición 912. El aparato 200 podría determinar una profundidad en la cual la información ; dividida es 10' como una profundidad codificada utilizando ; la información dividida de acuerdo con cada profundidad; y podría utilizar la información acerca de un ; imodo ; de codificación de la correspondiente profundidad :par la decodificación. .
Las Figuras 10, 11, y 12 son diagramas que -describen una relación entre las unidades de codificación 1010, las unidades de predicción 1060, y las unidades de transformación de frecuencia 1070, de acuerdo con una modalidad de la presente invención.
Las unidades de codificación 1010 son las unidades de codificación que corresponden con las profundidades codificadas determinadas por el aparato 100, en una unidad de codificación máxima 1000. Las unidades de predicción 1060 son las particiones de las unidades de predicción de cada una de las unidades de codificación 1010, y las unidades de transformación 1070 son las unidades de transformación de cada una de las unidades de codificación 1010.
Cuando una profundidad de una unidad de codificación máxima es de 0 en las unidades de codificación 1010, las profundidades de las unidades de codificación 1012 y 1054 son de 1, las profundidades de las unidades de codificación 1014, 1016, 1018, 1028, 1050, y 1052 son de 2, las profundidades de las unidades de codificación 1020, 1022, 1024, 1026, 1030, 1032, y 1048 son de 3 , y las profundidades de las unidades de codificación 1040, 1042, 1044, y 1046 son de 4.
En las unidades de predicción 1060, algunas de las particiones 1014, 1016, 1022, 1032, 1048, 1050, 1052, y 1054 son obtenidas dividiendo las unidades de codificación en las unidades de codificación 1010. En otras palabras, los tipos de partición en las particiones 1014, 1022, 1050, y 1054 tienen un tamaño de 2NxN, los tipos de partición en las particiones 1016, 1048, y 1052 tienen un tamaño de Nx2N, y un tipo de partición de la partición 1032 tiene un tamaño de NxN. Las unidades de predicción y las particiones de las unidades de codificación 1010 son más pequeñas que o iguales a cada unidad de codificación.
La transformación de frecuencia o la transformación inversa de frecuencia son realizadas en los datos de imagen de la unidad de codificación 1052 en las unidades de transformación 1070 en una unidad de datos que es más pequeña que la unidad de codificación 1052. Asimismo, las unidades de transformación 1014, 1016, 1022, 1032, 1048, 1050, y 1052 en las unidades de transformación 1070 son diferentes de aquellas en las unidades de predicción 1060 en términos de tamaños y formas. En otras palabras, los aparatos 100 y 200 podrían realizar la intra-predicción, la estimación de movimiento, la compensación de movimiento, la transformación de frecuencia, y la transformación inversa, de manera individual, en una unidad de datos en la misma unidad de codificación.
En consecuencia, debido a que una unidad de codificación óptima es determinada al realizar, > en forma recursiva, la codificación en las unidades de codificación que tienen una estructura jerárquica en cada región: para cada unidad de codificación máxima, podrían obtenerse las unidades de codificación que tienen una estructura recursiva de árbol. La información de codificación podría incluir la información dividida acerca de una unidad de codificación, la información acerca de un tipo de partición, la información 5 acerca de un modo de predicción, y la información acerca del tamaño de una unidad de transformación. La Tabla 1 muestra la información de codificación que podría establecerse mediante el aparato 100 y el aparato 200.
Tabla 1 1( lí La unidad de salida 130 del aparato 100 podría : dar 0 salida a la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol, y el extractor de información de codificación y datos de imagen 220 del aparato 200 podría extraer la información de codificación acerca de las unidades de codificación que 5 tienen la estructura de árbol a partir de un flujo recibido de bits.
La información dividida indica si una unidad de codificación actual es dividida en las unidades de codificación de una profundidad más baja. Cuando la información dividida de la profundidad actual de d es de 0, debido a que una profundidad en la cual la unidad de codificación actual ya no es más dividida en una unidad de codificación más baja es de una profundidad codificada, la información acerca de un tipo de partición, la información acerca de un modo de predicción, y la información acerca del tamaño de una unidad de transformación podrían se definidas para la profundidad codificada. Cuando la unidad de codificación actual necesita ser adicionalmente dividida de acuerdo con la información dividida, la codificación tiene que ser realizada, en forma independiente, en unidades divididas de codificación de una profundidad más baja.
Un modo de predicción podría ser expresado como uno de un intra-modo, un inter-modo, y un modo de saltos El intra-modo y el inter-modo podría ser definidos en todos los tipos de partición, y el modo de salto sólo podría ¡ser definido en un tipo de partición que tiene un tamaño¦ de 2Nx2N . - ; ; La información acerca de un tipo de partición podría indicar los tipos de partición simétrica que tiene los tamaños de 2Nx2N, 2NxN, Nx2N, y NxN obtenidos al dividir, en forma simétrica, la altura o el ancho de una unidad de predicción, y los tipos de partición asimétrica que tien'e los tamaños de 2NxnU, 2NxnD, nLx2N, y nRx2N obtenidos al dividir, en forma asimétrica, la altura o el ancho de la unidád de predicción. Los tipos de partición asimétrica que tienen los tamaños de 2NxnU y 2NxnD son respectivamente obtenidos dividiendo la altura en 1:3 y 3:1, y los tipos de partición asimétrica que tienen los tamaños de nLx2N y nRx2N son obtenidos dividiendo el ancho en 1:3 y 3:1.
El tamaño de una unidad de transformación podría ser establecido en dos tipos en un intra-modo, y en dos tipos en un inter-modo. Es decir, cuando la información dividida acerca de la unidad de transformación es de 0, el tamaño de la unidad de transformación es establecido en 2Nx2N que es un tamaño de una unidad de codificación actual. Guando la información dividida de la unidad de transformación : es: de' 1, la unidad de transformación podría obtenerse dividiendo la unidad de codificación actual. Asimismo, cuando un , tipo, de partición que tiene un tamaño obtenido dividiendo la unidad de codificación actual es un tipo de partición asimétrica, · el tamaño de la unidad de transformación podría ser establecida en NxN, y cuando un tipo de partición que tiene un tamaño obtenido dividiendo la unidad de codificación actual es ; un tipo de partición simétrica, el tamaño de la unidád de transformación podría ser establecida en N/2xN/2.
La información de codificación de las unidades de codificación que tienen una estructura de árbol podría incluir al menos una de una unidad de codificación de una profundidad codificada, una unidad de predicción, y una unidad mínima. La unidad de codificación de la profundidad codificada podría incluir al menos una de una unidad de predicción y una unidad mínima que contiene la misma información de codificación.
En consecuencia, si es determinado que las unidades adyacentes de datos son incluidas en la misma unidad de codificación que corresponde con la profundidad codificada al comparar la información de codificación de las unidades adyacentes de datos. Asimismo, debido a que una unidad correspondiente de codificación de la profundidad codificada es determinada utilizando la información de codificación de una unidad de datos, podría determinarse la distribución de las profundidades codificadas en una unidad de codificación máxima .
En consecuencia, en este caso, cuando una unidad de codificación actual es prevista en función de las. : unidades vecinas de datos, la información de codificación de las unidades de datos en las unidades de codificación más profunda adyacentes a la unidad de codificación podría ser directamente referida y utilizada. En forma alterna, cuándo una unidad de codificación actual es prevista en función de las unidades vecinas de codificación, las unidades de datos adyacentes a la unidad de codificación actual son buscadas utilizando la información codificada de las unidades de datos, y las unidades adyacentes buscadas de codificación podrían ser referidas para la predicción de la unidad de codificación actual.
La Figura 13 es un diagrama que ilustra una relación entre una unidad de codificación, una unidad de predicción, y una unidad de transformación de acuerdo con la información del modo de codificación de la Tabla 1, de acuerdó con una modalidad de la presente invención. Una unidad de codificación máxima 1300 incluye las unidades de codificación 1302, 1304, 1306, 1312, 1314, 1316, y 1318. Debidq a que la unidad de codificación 1318 es una unidad de codificación de una profundidad codificada, la información dividida podría ser establecida en 0. La información de tipo de partición de la unidad de codificación 1318 que tiene un tamaño; de 2Nx2N podría ser establecida en uno de un tipo de partición 1322 que tiene un tamaño de 2Nx2N, un tipo de partición; 1324 que tiene un tamaño de 2NxN, un tipo de partición 1326 , ¡que tiene un tamaño de Nx2N, un tipo de partición 1328 que ; tiene un tamaño de NxN, un tipo de partición 1332 que tiene; un tamaño de 2NxnU, un tipo de partición 1334 que tiene un tamaño de 2NxnD, un tipo de partición 1336 que tiene un tamaño de nLx2N, y un tipo de partición 1338 que tiene un i tamaño de nRx2N.
Suponiendo que la información de tipo de partición es establecida en uno de los tipos de partición 1322 que tiene el tamaño de 2Nx2N, el tipo de partición 1324 que tiene el tamaño de 2NxN, el tipo de partición 1326 que tiene el tamaño de Nx2N, y el tipo de partición 1328 que tiene el tamaño de NxN, los cuales son los tipos de partición simétrica, cuando la información dividida (el aviso de tamaño TU) de una unidad de transformación es 0, una unidad de transformación 1342 que tiene un tamaño de 2Nx2N podría establecerse, y cuando la información dividida de una unidad de transformación es 1, una unidad de transformación 1344 que tiene un tamaño de NxN podría establecerse.
Suponiendo que la información de tipo de partición es establecida en uno de los tipos de partición 1332 que tiene el tamaño de 2Nxnü, el tipo de partición 1334 que tiene el tamaño de 2NxnD, nLx2N(1336) , y el tipo de partición 1338 que tiene el tamaño de nRx2N, cuando la información dividida (el aviso de tamaño TU) de una unidad de transformación es 0, una unidad de transformación 1352 que tiene un tamaño, de 2Nx2N podría establecerse, y cuando la información ' dividida de la unidad de transformación es 1, una unidad de transformación 1354 que tiene un tamaño de N/2xN/2 podría establecerse. La intra-predicción realizada en una unidad de predicción por el intra-predictor 410 del aparato 100 dé la Figura 4 y el intra-predictor 550 del aparato 200 de la Figura 5 será explicada en detalle.
Las Figuras 14A-14C son diagramas que ilustran los formatos de una imagen de componente de luminancia y un imagen de componente de crominancia, de acuerdo con las modalidades de la presente invención.
Cada unidad de codificación que forma un cuadro podría ser expresada utilizando uno de los tres componentes, es decir, Y, Cb, y Cr. Y son los datos de luminancia que tienen la información de luminancia, y Cb y Cr son los datos de crominancia que tienen la información de crominancia. Los datos de crominancia podrían ser expresados utilizando una cantidad menor de datos que los datos de luminancia, en función del hecho que una persona es generalmente más sensible a la información de luminancia que a la información de crominancia. Con referencia a la Figura 14A, una unidad de codificación que tiene un formato de 4:2:0 incluye los datos de luminancia 1410 que tienen un tamaño de HxW (H y W son enteros positivos) , y dos piezas de los datos de crominancia 1420 y 1430 que tienen un tamaño de (H/2)x( /2) obtenido mediante el muestreo de los componentes de crominancia; Cb y Cr por 1/4. Con referencia a la Figura 14B, una unidad de codificación que tiene un formato de 4:2:2 incluye .. los datos de luminancia 1440 que tienen un tamaño de HxW (H: y W son enteros positivos) , y dos piezas de los datos de crominancia 1450 y 1460 que tienen un tamaño de Hx(W/2) obtenido mediante el muestreo de los componentes de crominancia Cb y Cr por 1/2 en una dirección horizontal. Asimismo, con referencia a la Figura 14C, cuando una unidad de codificación tiene un formato de 4:4:4, la unidad de codificación incluye los datos de luminancia 1470, y los datos de crominancia 1480 y 1490 cada uno de los cuales tiene un tamaño de HxW sin el muestreo de los componentes de crominancia Cb y Cr, para así expresar, de manera precisa, un imagen de componente de crominancia.
De aquí en adelante, se supone que la unidad de codificación de componente de luminancia y la unidad de codificación de componente de crominancia, que son intra-previstas, son una de las señales de imagen que tienen los formatos de color de 4:2:0, 4:2:2, y 4:4:4 definidos en un dominio de color YCbCr (o YUV) . Sería entendido: por una persona de experiencia ordinaria en la técnica ¡ que las modalidades podrían ser aplicadas no sólo a una imagen , que incluye un componente de luminancia y una imagen de crominancia sino también a una imagen que incluye una pluralidad de diferentes componentes de imagen.
La Figura 15 es una tabla que muestra el número de los modos de intra-predicción de acuerdo con los tamaños : las unidades de codificación de componente de luminancia, de acuerdo con una modalidad de la presente invención. número de los modos de intra-predicciórV qué ser aplicado en una unidad de codificación de componente de luminancia (una unidad de decodificación en un proceso de decodificación) podrían ser establecidos, en forma variada. Por ejemplo, con referencia a la Figura 15, si el tamaño de una unidad de codificación de componente de luminancia en el cual es realizada la intra-predicción es de NxN, los números de los modos de intra-predicción en realidad realizados en las unidades de codificación de componente de luminancia dimensionadas 2x2, 4x4, 8x8, 16x16, 32x32, 64x64, y 128x128 podría ser respectivamente establecidos como 5, 9, 9, 17, 33, 5, y 5 (en el ejemplo 2) . Los números de los modos de intra-predicción que serán realmente realizados son establecidos, en forma diferente, de acuerdo con los tamaños de las unidades de codificación de componente de luminancia debido a que las sobrecargas para la codificación de la información del modo de predicción difieren de acuerdo con los tamaños de las unidades de codificación de componente de luminancia. En otras palabras, una pequeña unidad de codificación de componente de luminancia ocupa una porción pequeña de todos los datos de imagen aunque podría tener una gran sobrecarga con el propósito de transmitir información adicional tal como la información del modo de predicción a la unidad de codificación de componente de luminancia. En consecuencia, si una pequeña unidad de codificación de componente de luminancia es codificada utilizando un número excesivamente grande de los modos de predicción, el número de bits podría ser incrementado y de esta manera, podría reducirse la eficiencia de la compresión. Asimismo, una gran unidad de codificación de componente de luminancia, por ejemplo, una unidad de codificación de componente de luminancia igual o más grande que 64x64, corresponde, de manera general, con una región de plano de los datos de imagen, y de esta manera, la codificación de una gran unidad de codificación de componente de luminancia utilizando un número excesivamente grande de los modos de predicción también podría reducir la eficiencia de la compresión. En consecuencia, el tamaño de una unidad de predicción también es más grande o menor que un tamaño predeterminado, sólo podría ser utilizado un número más pequeño de los modos de intra-predicción . El número de los modos de intra-predicción utilizado de acuerdo con el tamaño de una unidad de predicción podría ser establecido, ' en forma variada, sin limitarse a la Figura 15. El número de las unidades de predicción utilizado de acuerdo con un tamaño de cada unidad de predicción de la Figura 15 es de ejemplo, y podría ser cambiado el número de las unidades de predicción de acuerdo con un tamaño de cada unidad de predicción.
La Figura 16A es una tabla que muestra un modo de intra-predicción aplicado a una unidad de codificación de componente de luminancia que tiene un tamaño predeterminado, de acuerdo con una modalidad de la presente invención;. : Con referencia a las Figuras 15 y 16A, por ejemplo, cuando la intra-predicción es realizada en una unidad de codificación de componente de luminancia que tiene un tamaño de 4x4, la unidad de codificación de componente de luminancia podría tener un modo vertical (modo 0) , un modo horizontal (modo 1) , un modo de corriente directa (DC, por sus siglas en inglés) (modo 2) , un modo de izquierda hacia abajo en diagonal (modo 3) , un modo de derecha hacia abajo en diagonal (modo 4) , un modo hacia la derecha vertical (modo 5) , un modo hacia abajo horizontal (modo 6) , un modo hacia la izquierda vertical (modo 7) , y un modo hacia rio horizontal (modo 8) .
La Figura 16B ilustra las direcciones de los modos de intra-predicción mostrados en la Figura 16A. En la Figura 16B, los números en los extremos de las flechas representan los modos de predicción que corresponden con las direcciones de predicción indicadas por las flechas. Aquí, el modo 2 es un modo DC que no tiene direccionalidad y de esta manera, no es mostrado en la Figura 16B.
La Figura 16C es un diagrama que describe un método de realización de la intra-predicción en una unidad de codificación de componente de luminancia utilizando los modos de intra-predicción mostrados en la Figura 16A, de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 16C, una unidad de codificación de predicción es generada de acuerdo corl un modo disponible de intra-predicción determinado de acuerdo con el tamaño de a la unidad de codificación de componente de luminancia actual utilizando los píxeles vecinos A-M de la unidad de codificación de componente de luminancia actual. Por ejemplo, será descrita la operación de realización de la codificación de predicción en una unidad de codificación actual que tiene un tamaño de 4x4 de acuerdo con el modo 0, es decir, un modo vertical, mostrado en la Figura 16A. De manera inicial, los valores de los píxeles vecinos A-D EN el lado superior de la unidad de codificación actual son previstos como los valores de píxel de la unidad de codificación actual. Es decir, el valor del píxel vecino A es previsto como un valor de cuatro píxeles en una primera columna de la unidad de codificación actual, el valor del píxel vecino B es previsto como un valor de cuatro píxeles en una segunda columna de la unidad de codificación actual,, el valor del píxel vecino C es previsto como un valor de cuatro píxeles en una tercera columna de la unidad de codificación actual, y el valor del píxel vecino D es previsto, como un valor de cuatro píxeles en una cuarta columna de la unidad de codificación actual. Después de esto, los valores de píxel de la unidad de codificación actual previstos mediante la utilización de los píxeles vecinos A-D SON restados dé los valores de píxel de la unidad de codificación actual original para así calcular el valor de error y posteriormente, es codificado el valor de error.
La Figura 17 es un diagrama que describe un modo de intra-predicción aplicado a una unidad de codificación de componente de luminancia que tiene un tamaño predeterminado, de acuerdo con otra modalidad de la presente invención. ,: Con referencia a las Figuras 15 y 17, por ejemplo, cuando la intra-predicción es realizada en una unidad de codificación que tiene un tamaño de 2x2, la unidad de codificación podría tener un total de cinco modos tales como un modo vertical, un modo horizontal, un modo DG, un modo plano, y un modo hacia la derecha hacia abajo en diagonal.
Un modo de intra-predicción de una unidad de predicción de componente de luminancia podría incluir un modo de intra-predicción que determina un píxel de referencia vecino utilizando una línea que tiene un gradiente predeterminado con respecto a un píxel en una unidad de predicción y utiliza el píxel de referencia vecino determinado. El gradiente podría ser establecido utilizando los parámetros (dx, dy) (dx y dy son enteros) . Por i ejemplo, si cada uno de los 33 los modos de predicción es definido como de modo N (en donde N es un entero de 0 a 32) , el modo 0 podría ser establecido como un modo vertical, el modo 1 podría ser establecido como un modo horizontal, el modo 2 podría ser establecido como un modo DC, el modo 3 podría ser establecido como un modo plano, y cada uno de los módós 4-31 podría ser definido como un modo de predicción que determina un píxel de referencia vecino utilizando una línea que tiene una direccionalidad de tan-l(dy/dx) utilizando (dx, dy) representado como uno de (1,-1) , (1,1) , (1,2), (2,1) , (1,-2), (2,1), (1,-2) , (2,-1), (2,-11), (5,-7) , (10,-7) , (11,3) , (4,3), (1,11) , (1,-D, (12,-3), (1,-11) , (1,-7) , (3,-10) , (5,-6) , (7,-6) , (7,-4) , (11,1) , (6,1) , (8,3) , (5,3), (5,7), (2,7), (5,-7) , y (4,-3) como se muestra en la Tabla 2 y utiliza el píxel de referencia vecino determinado para la predicción.
Tabla 2 El modo 0 es un modo vertical, el modo 1 ;és un modo horizontal, el modo 2 es un modo DC, el modo 3 es un modo plano, y el modo 32 es un modo bi-lineal.
El modo 32 podría ser establecido como un modo bi-lineal que utiliza la interpolación bi-lineal como será posteriormente descrito con referencia a la Figura 19.
Las Figuras 18A-18C son diagramas de referencia que describen un modo de intra-predicción que tiene varias direccionalidades , de acuerdo con una modalidad de la presente invención.
Como se describe con anterioridad con referencia a la Tabla 2, en cada uno de los modos de intra-predicción, un píxel de referencia vecino podría determinarse utilizando una línea que tiene un gradiente de tan-l(dy/dx) determinada al utilizar una pluralidad de los parámetros (dx, dy) , y la previsión podría ser realizada utilizando el píxel de referencia vecino determinado.
Con referencia a la Figura 18A, los píxeles vecinos A y B en una línea 180 que se extiende a partir de un píxel actual P en la unidad de codificación de componente de luminancia actual, que será prevista, en un ángulo de' tan-1 (dy/dx) determinado por un valor de un parámetro (dx, dy) de acuerdo con un modo, como es mostrado en la Tabla 1, podría ser utilizados como predictores del píxel actual P. En este caso, los píxeles vecinos A y B podrían ser los píxeles que ha sido codificados y restaurados y pertenecen a las previas unidades de codificación localizadas por encima y en el lado izquierdo de la unidad de codificación actual. \ Asimismo, cuando la línea 180 no pasa a través de los pixeles vecinos en las ubicaciones cada uno con un valor integral sino que pasa entre estos píxelés vecinos, un píxel vecino más cercano a la línea 180 podría utilizarse como un predictor del píxel actual P. En forma alterna, un valor promedio ponderado considerando la distancia entre las intersecciones de la línea 180 y podrían utilizarse los pixeles vecinos cercanos a la línea 180 como un predictor del píxel actual P.
Las Figuras 18B y 18C son diagramas de referencia que describen un proceso de generación de un predictor cuando la línea 180 de la Figura 18A pasa entre los pixeles vecinos de ubicación de entero en ubicaciones cada uno con un valor integral, no pasa a través de los pixeles vecinos en ubicaciones cada uno con un valor integral, de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 18B, cuando la línea 180 que tiene un ángulo de tan-l(dy/dx) determinado ; por los valores de los parámetros (dx, dy) de acuerdo con los modos pasa entre los pixeles vecinos A 181 y B 182 en ubicaciones que tienen valores integrales, podría utilizarse un valor promedio ponderado considerando la distancia entre las intersecciones de la línea 180 y los pixeles vecinos; A 18.1 y B 182 cercanos a la línea 180 como un predictor del píxel actual P. Por ejemplo, cuando la distancia entre el píxel vecino A 181 y la intersección de la línea 180 que 1 tiene; el ángulo de tan-l(dy/dx) es de f y la distancia entre el píxel vecino B 182 y la intersección es de g, un predictor del píxel actual P podría obtenerse como (A*g+B*f) / (f+g) . Las distancias f y g podrían ser distancias normalizadas con enteros. Cuando es incluido el software o hardware, un predictor del píxel actual P podría obtenerse a través de la operación de sustitución como (g*A+f*B+2 ) >>2. Como es mostrado en la Figura 18B, cuando la línea 180 pasa una ubicación que corresponde con un 1/4 cercano al píxel vecino A 181 de entre los puntos obtenidos al dividir entre 4 el espacio entre el píxel vecino A 181 y el píxel vecino B 182 en ubicaciones que tienen valores integrales, un predictor del píxel actual P podría obtenerse como (3*A+B)/4. Este calculó podría ser realizado a través de la operación de sustitución considerando el redondeo como en (3*A+B+2 ) >>2.
Cuando la línea 180 que tiene el ángulo' de tan-l(dy/dx) determinando los valores de los parámetros; (dx(. dy) de acuerdo con los modos pasa entre los pixeles vecinos A 181 y B 182 en las ubicaciones que tienen valores integrales, el espacio entre el píxel vecino A 181 y el píxel vecino B 182 podría ser dividido en un número predeterminado de regiones, y un valor promedio ponderado considerando la distancia entre las intersecciones y el píxel vecino A 181 y el píxel vecino B 182 de acuerdo con las regiones divididas podrí ser utilizado como un valor de predicción. Por ejemplo, con referencia a la Figura 18C, el espacio entre el píxel vecino A 181 y el píxel vecino B 182 podría ser dividido en 5 regiones (P1-P5) , podría determinarse un valor representativo promedio ponderado considerando la distancia entre las intersecciones y el píxel vecino A 181 y el píxel vecino B 182 de acuerdo con las regiones, y el valor representativo valor promedio ponderado podría utilizarse como un predictor del píxel actual P. En detalle, cuando la línea 180 pasa la región Pl, un valor del píxel vecino A podría determinarse como un predictor del píxel actual P. Cuando la línea 180 pasa la región P2 , (3*A+l*B+2) »2 que es un valor promedio ponderado considerando la distancia entre un punto intermedio de la región P2 y los píxeles vecinos A y B podría determinarse como un predictor del píxel actual P. Cuando la línea 180 pasa la región P3 , (2*A+2*B+2 ) >>2 que es un valor promedio ponderado considerando la distancia entre ; un punto intermedio de la región P3 y los píxeles vecinos A y, B podría determinarse como un predictor del píxel actual P. Cuando la línea 180 pasa a través de la región P4 , ( l*A+3 *B+2 ) >>2 que es un valor promedio ponderado considerando la distancia entre punto intermedio de la región P4 y los píxeles vecinos A y B podría determinarse como un predictor del píxel actual P. cuando la línea pasa a través de la región P5 , un valor del píxel vecino B podría determinarse como un predictor del píxel actual P.
Asimismo, cuando dos píxeles vecinos, es decir, el píxel vecino A situado sobre la línea 180 y el píxel vecino B situado a la izquierda de la línea 180, coinciden con la línea 180, podría utilizarse un valor promedio del píxel vecino A y el píxel vecino B como un predictor del píxel actual. En forma alterna, cuando un valor de dx*dy es un valor positivo, podría ser utilizado el píxel vecino A, y cuando un valor de dx*dy es un valor negativo, podría ser utilizado el píxel vecino B.
Los modos de intra-predicción que tienen varias direccionalidades mostradas en la Tabla 2 podrían ser preestablecidos mediante un lado de codificación y un lado de decodificación, y sólo podría ser trasmitido un índice de un modo de intra-predicción de cada unidad de codificación.
La Figura 19 es un diagrama de referencia que describe un modo bi- lineal de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 19, en el modo bi- lineal, el promedio geométrico es calculado considerando un: valor de un píxel actual P en la unidad de codificación de componente de luminancia actual, que será previsto, los valores de los píxeles en los límites superior, inferior, izquierdo y derecho de la unidad de codificación de componente de luminancia actual, y las distancias entre el píxel actual P y los límites superior, inferior, izquierdo y derecho de la unidad de codificación de componente de luminancia actual, y el valor geométrico es entonces utilizado como un predictor del píxel actual P. Por ejemplo, en el modo bi-lineal, el promedio geométrico que es calculado utilizando un píxel virtual A 161, un píxel virtual B 162, un píxel D 166, y un píxel E 167 que se localiza en los lados superior, inferior, izquierdo y derecho del píxel actual P, y las distancias entre el píxel actual P y los límites superior, inferior, izquierdo y derecho de la unidad de codificación de componente de luminancia actual, es utilizado como un predictor del píxel actual P. Debido a que el modo bi-lineal es uno de los modos de intra-predicción, los píxeles vecinos superiores e izquierdos que han sido codificado ser restaurados tiene que ser utilizados como píxeles de referencia para la predicción. De esta manera, los valores de píxel en la unidad de codificación de componente de luminancia actual no son utilizados sino que los valores de píxel virtual calculados utilizando los píxeles vecinos localizados en los lados superior e inferior de la unidad de codificación de componente de luminancia actual .son utilizados como el píxel A 161 y el píxel B 162. P manera específica, en primer lugar, es calculado un valor de un píxel virtual C 163 en el punto más a la derecha inferior de la unidad de codificación de componente de luminancia actual mediante el cálculo del promedio de los valores de ün píxel vecino (el pixel superior derecho) 164 en el punto más a la derecha superior de la unidad de codificación de componente de luminancia actual y un pixel vecino (el pixel inferior izquierdo) 165 en el punto más a la izquierda inferior de la unidad de codificación de componente de luminancia actual, como es expresado en la siguiente Ecuación 1: [Ecuación 1] C=0.5(DownPixel+\JpPixef) A continuación, un valor del pixel virtual A 161 localizado el límite más inferior de la unidad de codificación de componente de luminancia actual cuando el pixel actual P es extendido hacia abajo considerando la distancia Wl entre el pixel actual P y el límite izquierdo de la unidad de codificación de componente de luminancia actual y la distancia W2 entre el pixel actual P y el límite derecho de la unidad de codificación de componente de lúmináncia actual, es calculado utilizando la siguiente Ecuación; 2: ....
[Ecuación 2] A= (C*Wl+LeftDownPixel*W2) / (W1+W2) En forma similar, un valor del pixel virtual B 162 localizado en el límite más a la derecha de la unidad de codificación de componente de luminancia actual cuando el pixel actual P es extendido en la dirección der.éc.ha al considerar la distancia hl entre el pixel actual el límite superior de la unidad de codificación de componente de luminancia actual y la distancia h2 entre el píxel actual P y el límite inferior de la unidad de codificación de componente de luminancia actual, es calculado utilizando la siguiente Ecuación 3: [Ecuación 3] B= (C*hl+RightUpPixel*h2) / (hl+h2) Cuando los valores de los píxeles virtuales A 161 y B 162 son determinados utilizando las Ecuaciones 1-3, podría utilizarse el promedio de los valores de los píxeles A 161, el píxel B, el píxel D 166, y el píxel E 167, como un predictor del píxel actual P. En detalle, un valo promedio de los píxeles A+B+C+D podría utilizarse como un predictor del píxel actual P, o podría utilizarse un valor promedio ponderado considerando la distancia entre el píxel actual P y los píxeles virtuales A 161, B 162, D 166, y E 167 como un predictor de la imagen actual P. Por ejemplo, cuando es utilizado un valor promedio ponderado, un predictor! :del .píxel actual P podría obtenerse como { (hl*A+h2*D) / (hl+h2) + (W1*B+W2*E) / (W1+W2) } /2. Este proceso de predicción bi- lineal podría ser aplicado a todos los píxeles en una unidad de predicción actual, podría ser generado, y un valor de predicción de la unidad de predicción actual de acuerdo con el modo de predicción bi-lineal.
De acuerdo con la presente modalidad, debido á que la codificación de predicción es realizada de acuerdo! con un modo de intra-predicción establecido en forma variada de acuerdo con el tamaño de una unidad de predicción, podría ser conseguida una comprensión más eficiente de acuerdo con las características de una imagen.
Como se describe con anterioridad con referencia a las Figuras 18A-18c, cuando un predictor del píxel actual P es generado utilizando un píxel vecino en la línea 180 cercana a la línea 180, la línea 180 tiene en realidad una direccionalidad de tan-l(dy/dx) . Debido a que es utilizada la sustracción (dy/dx) para determinar un píxel vecino utilizando la línea 180, podría ser incluido el cálculo utilizando un punto decimal cuando es incluido el hardware o software, con lo cual, se incrementa la cantidad de cálculo. En consecuencia, cuando es establecida la dirección de predicción para la selección de un píxel vecino que será utilizado como un píxel referencia utilizando los parámetros dx y dy, como en la Tabla 2, dx y dy necesita; ser establecidos para reducir la cantidad de cálculo.
La Figura 20 es una gráfica que describe una relación entre un píxel actual y un píxel vecino localizado en una línea que tiene una direccionalidad de (dx> dy) ;, de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 20, un píxel, actual localizado en (j , i) es P 2010, y un píxel vecino superior y un píxel vecino inferior que pasan a través del píxel actual P 2010 y son localizados en una línea que tiene una direccionalidad, es decir, un gradiente, de tan-l(dy/dx) son, de manera respectiva, A 2011 y B 2012. Se supone que las ubicaciones de los píxeles vecinos superiores corresponden con un. eje X axis en un plano de coordenadas y las ubicaciones de los píxeles vecinos izquierdos corresponden con un eje y en el plano de coordenadas. Asimismo, se supone que el tamaño de una unidad de predicción incluida en el píxel actual P 2010 es de nSxnS (nS es un entero positivo) , la ubicación de cada uno de los píxeles de la unidad de predicción es una de (0,0) a (nS-1, nS-1) , la ubicación de un píxel vecino superior localizado en el eje x es (m, -1) (m es un entero) , y la ubicación de un píxel vecino inferior localizado en el eje y es (-1, n) (n es un entero) . La ubicación del píxel vecino superior A 2011 que coincide con la línea que pasa a través del píxel actual P 2010 es (j+i*dx/dy, -1), y la ubicación del píxel vecino izquierdo B 2012 que coincide con la línea es (-1, i+j*dy/dx) . En consecuencia, con el propósito de determinar el píxel vecino superior A 2011 o el píxel vecino izquierdo B 2012 para predecir el píxel actual P 2010, es necesaria la sustracción tal como dx/dy o dy/dx. Debido a que la sustracción tiene una alta complejidad, podría reducirse la velocidad de cálculo cuando sea incluido el software o hardware como se describe con anterioridad. En consecuencia, en forma alterna, podría determinarse un valor al menos de uno de dx y dy que representa la direccionalidad de un modo de predicción para la determinación de un píxel vecino que será una potencia exponencial de 2. Es decir, cuando n y m son enteros, dx y dy podrían ser respectivamente 2An y 2Am.
Con referencia a la Figura 20, cuando el píxel vecino izquierdo B 2012 es utilizado como un predictor del píxel actual P 2010 y dx tiene un valor de 2An, él cálculo j*dy/dx necesario para determinar (-1, i+j*dy/dx) que es la ubicación del píxel vecino izquierdo B 2012 es (i*dy) / (2An) , y el cálculo que incluye la sustracción que utiliza una potencia exponencial de 2 podría obtenerse a través de la operación de sustitución como (i*dy)>>n, con lo cual, se reduce la cantidad de cálculo.
Del mismo modo, cuando el píxel vecino superior A 2011 es utilizado como un predictor del píxel actual P 2010 y tiene un valor de 2Am, el cálculo i*dx/dy necesario para determinar (j +i*dx/dy, -1) que es la ubicación del píxel vecino superior A podría ser ( i*dx) / (2Am) , y el cálculo que incluye la sustracción que utiliza una potencia exponencial de 2 podría obtenerse como (i*dx) >>m a través de la; operación de sustitución. ( : La Figura 21 es una gráfica que describe un cambio en un píxel vecino localizado en una línea que tiene una direccionalidad de (dx, dy) de acuerdo con la ubicación de un píxel actual, de acuerdo con una modalidad de la presente invención .
Con referencia a la Figura 21, la ubicación de un píxel vecino referida de acuerdo con una dirección de modo de intra-predicción es cambiada de acuerdo con sí un píxel actual que será previsto es un píxel P 2110 o un píxel Q 2120. Por ejemplo, cuando el píxel P 2110 es previsto, un píxel superior A es utilizado, y cuando el píxel Q 2120 es previsto, un píxel izquierdo B es utilizado. Cuando sólo un componente dy en a y la dirección de entre (dx, dy) que indica la dirección de predicción tiene un valor que corresponde con una potencia exponencial de 2 como 2Am, la ubicación del píxel superior A 2111 en la Figura 21 podría determinarse a través de la operación de sustitución sin la sustracción como (j + ( i*dx) >>m, -1) y la ubicación del píxel izquierdo B 2121 no necesita la sustracción cómo (-1, a+b*2>'m/dx) . En consecuencia, con el propósito de excluir la sustracción cuando son generados los predictores de todos' los píxeles de un bloque actual, todos de dx y dy podrían tener potencias exponencial desde 2.
Las Figuras 22 y 23 son diagramas que describen un método de determinación de una dirección de modo de intra-predicción, de acuerdo con una modalidad de la presente invención .
En general, los patrones lineales en una señal de imagen o video son verticales u horizontales en muchos casos. En consecuencia, cuando un modo de intra-predicción que tiene varias direccionalidades es definido utilizando los parámetros (dx, dy) , la eficiencia de la codificación de imagen podría ser mejorada al definir los valores de dx y dy como sigue.
En detalle, cuando dy tiene un valor fijo de 2Am, podría establecerse el valor absoluto de dx, de manera que un intervalo entre las direcciones de predicción cercano a una dirección vertical es angosto y un intervalo entre las direcciones de predicción cercano a una dirección horizontal es ancho. Por ejemplo, con referencia a la Figura 22, cuando dy es 2A5, es decir, tiene un valor de 32, podría ser establecido un valor de dx en 2, 5, 9, 13, 17, 21, 26, 32, -2, -5, -9, -13, -17, -21, -26, y -32, de manera que un intervalo entre las direcciones de predicción cercano a una dirección vertical es angosto y un intervalo entre ;las direcciones de predicción cercano a una dirección horizontal es ancho.
Del mismo modo, cuando dx tiene un valor ; fijo de 2An, podría establecerse un valor absoluto de dy, de manera que un intervalo entre las direcciones de predicción cercano a una dirección horizontal es angosto y un intervalo entre las direcciones de predicción cercano a una dirección vertical es ancho. Por ejemplo, con referencia a la Figura 23, cuando dx es 2A5, es decir, tiene un valor de 32, podría ser establecido un valor de dy en 2 , 5, 9, 13, 17, 21, 26, 32, -2, -5, -9, -13, -17, -21, -26, y -32, de manera que un intervalo entre las direcciones de predicción cercano a una dirección horizontal es angosto y un intervalo entre las direcciones de predicción cercano a una dirección vertical es ancho .
Cuando un valor de cualquiera uno de dx y dy es fijo, podría ser establecido un valor permanente no fijo en incremento de acuerdo con los modos de predicción. Por ejemplo, cuando dy es fijo, podría ser establecido un intervalo entre valores de dx en incremento por un valor predeterminado. Asimismo, un ángulo entre una dirección horizontal y una dirección vertical podría dividirse de acuerdo con unidades predeterminadas, y podría establecerse un aumento de la cantidad de acuerdo con los; ángulos divididos. Por ejemplo, cuando dy es fijo, podría ser establecido un valor de dx teniendo un incremento de: ancho de a cuando el ángulo con respecto al eje vertical es: menor de 15°, un incremento de ancho de b cuando el ángulo fluctúa de 15 a 30°, y un incremento de ancho de c cuando el ángulo es igual o más grande que 30°.
Por ejemplo, los modos de predicción que tiene una direccionalidad de tan-l(dy/dx) utilizando (dx, dy); podrían definir los parámetros (dx, dy) mostrados en la Tablas 3-5.
Tabla 3 Tabla 4 Tabla 5 Como se describe con anterioridad, cada uno de los modos de intra-predicción que utiliza los parámetros (dx, dy) a su vez utiliza un píxel vecino inferior que tiene una ubicación (-1, i+j*dy/dx) o un píxel vecino superior que tiene una ubicación (j +i*dx/dy, -1) como un predictor de un píxel ubicado en (j , i). Cuando al menos uno de los valores de dx y dy tiene una potencia exponencial de 2 como es mostrado en la Tabla 3, la ubicación (-1, i+j*dy/dx) del píxel vecino izquierdo y la ubicación (j +i*dx/dy, -i) del píxel vecino superior podrían obtenerse utilizando soló la operación de multiplicación y sustitución sin la sustracción. Debido a que la sustracción que utiliza dx tiene un valor de 2?? como es mostrado en el caso en donde dx de entre, los valores de (dx, dy) es 32 podría reemplazarse · cori la operación de sustitución derecha, la ubicación del píxel vecino izquierdo podría obtenerse sin la sustracción basada en un valor de (i*dy)>>n. Del mismo modo, debido a que la sustracción que utiliza dy tiene un valor de 2Am como es mostrado en el caso en donde dy de entre los valores de (dx, dy) es 32 como es mostrado en la Tabla 3 podría reemplazarse con la operación de sustitución derecha, la ubicación del píxel vecino derecho podría obtenerse sin la sustracción basada en un valor de (i*dx)>>m.
La Figura 24 es un diagrama de referencia que describe un modo disponible de intra-predicción de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 24, con el propósito de obtener un predictor de un píxel actual, podría ser generado un predictor Pl obtenido a través de la interpolación lineal horizontal del píxel actual y un predictor P2 obtenido a través de la interpolación lineal vertical del píxel actual y un valor promedio de los predictores Pl y P2 podría utilizarse como un predictor del píxel actual. Un modo de intra-predicción de la Figura 24 es definido como un modo plano. De acuerdo con el modo plano, los píxelés: en la columna más a la derecha son generados mediante el copiado del píxel más a la derecha T 244 de entre los píxeles de la misma unidad de predicción los cuales son ubicados en la columna más superior de la unidad de predicción en los píxeles de la columna más a la derecha. Un predictor Pl 243 es obtenido a través de la interpolación lineal horizontal utilizando los píxeles de la columna más a la izquierda y la columna más a la derecha los cuales son ubicados en la misma hilera que el pixel actual. Como es mostrado en la Figura 24, el predictor Pl 243 a través de la interpolación lineal horizontal del pixel actual es obtenido utilizando la interpolación lineal, por ejemplo, el valor geométrico promedio considerando la distancia o un valor promedio, del pixel generado T de la columna más a la derecha mediante el copiado de un pixel PL 242 y el pixel 244 en la misma unidad de predicción de la columna más a la izquierda los cuales son ubicados en la misma ubicación que el pixel actual.
Del mismo modo, de acuerdo con el modo plano, los píxeles de la columna más inferior son generados mediante el copiado del pixel L 248 que es ubicado en el lado más inferior de entre los píxeles de la misma unidad de predicción los cuales son ubicados en la columna más a la izquierda de una unidad de predicción en los píxeles de la columna más inferior. El predictor P 246 es obtenido: través de la interpolación lineal vertical utilizando los píxeles de una hilera más superior y una hilera más inferior lós cuales son ubicados en la misma columna que el pixel actual. Como es mostrado en la Figura 24, el predictor P2 246 a través de la interpolación lineal vertical del pixel actual es obtenido a través de la interpolación lineal ' del pixel generado L DÉ la hilera más inferior mediante el copiado de un píxél PT 245 y el píxel L 248 en la misma unidad de predicción de la hilera más superior los cuales son ubicados en la misma columna que el píxel actual. En el modo plano, un valor promedio del predictor horizontal P 243 y el predictor vertical P2 246, es decir, P1+P2>>1, es determinado como un predictor final del píxel actual .
Las Figuras 25A y 25B son diagramas de referencia que describen un modo de intra-predicción de acuerdo con otra modalidad de la presente invención. Existe una correlación predeterminada, por ejemplo, una correlación lineal, entre los correspondientes píxeles de luminancia y los píxeles de crominancia. Con referencia a las Figuras 25A y 25B, cuando un píxel en una ubicación (x, y) del bloque de luminancia 2520 que es previamente restaurado es Rec_L'(x,y), podría obtenerse un valor de predicción Pred_c(x,y) en la; ¡ubicación (x, y) del bloque de crominancia 2510 utilizando una relación lineal entre una señal de luminancia y una ; señal: de crominancia utilizando la Ecuación .
[Ecuación 4] ¥xed_c(x,y)=a · Rec_L\x,y)+b En la Ecuación 4, a es un parámetro que indica el peso y b es un parámetro que indica un desplazamiento. Los valores de los parámetros a y b podrían obtenérsela través del cálculo utilizando los píxeles vecinos 2511; y 2522 Rec_L ' (i) del bloque de luminancia2520 y los píxeles vecinos 2511 y 2512 Rec_c(i) (i=0, ..., 2nS-l) del bloque de crominancia 2510 como es mostrado en las Ecuaciones 5 y 6.
[Ecuación 5] En las Ecuaciones 5 y 6, I es el número de los píxeles vecinos adyacentes al lado superior y el lado izquierdo del bloque de crominancia 2510 o el bloque de luminancia2520. Cuando los tamaños del bloque de crominancia 2510 y el bloque de luminancia 2520 son nSxnS como es mostrado en las Figuras 25A y 25B, el número I es 2riS . Aunque los píxel de superiores izquierdos son utilizados como' los píxeles vecinos en las Figuras 25A y 25B, si los píxeles vecinos derecho o inferior son procesados y restaurados antes de un bloque actual, los píxeles vecinos derecho o :izquierdo podrían ser utilizados para obtener valores de los parámetros a y b. Asimismo, con el propósito de reemplazar la ^operación de multiplicación o sustracción con la operación de sustitución, el número I de los píxeles vecinos podría ser una potencia exponencial de 2. En general, debido a que un valor de ns que define un tamaño de un bloque es una potencia exponencial de 2 , el número I tiene un valor de una potencia exponencial de 2. Los valores de a' y b' que son cambiados a través de la escala ascendente o el redondeo para reducir la complejidad de cálculo cuando un valor del parámetro a o b es obtenido utilizando las Ecuaciones 5 y 6, podrían utilizarse en lugar de los parámetros a y b. Un modo de intra-predicción de las Figuras 25A y 25B podría ser definido como un modelo lineal de un modo de intra-predicción y podría utilizarse como uno de los modos de intra-predicción de las unidades de predicción.
Como se describe con anterioridad con referencia a las Figuras 18A-25B, el número de un modo disponible de intra-predicción no es limitado y un modo de intra-predicción aplicado a una unidad de predicción de un componente de luminancia o un modo de intra-predicción aplicado a; una unidad de predicción de un componente de crominancia podría ser utilizado, de manera selectiva. Por ejemplo, un grupo de candidato de modo de intra-predicción aplicado a una unidad de predicción de un componente de luminancia podría incluir 35 modos de intra-predicción que incluyen 33 modos de intra-predicción que utilizan 33 parámetros (dx, dy) mostrados en la Tabla 3, un modo de predicción DC, y un modo plano de la Figura 24. Un grupo de candidato de modo de intra-predicción aplicado a una unidad de predicción de un componente de crominancia es establecido para tener un número más pequeño de los modos de intra-predicción que el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia. Por ejemplo, el grupo candidato de modo de intra-predicción del componente de crominancia podrían incluir sólo 5 modos de intra-predicción, es decir, un modo vertical, un modo horizontal, un modo DC, un modo de 45° -diagonal, y un modo de intra-predicción de un componente de luminancia que es previamente procesado y determinado. Sin embargo, el número y los tipos de , los modos de intra-predicción aplicados a las unidades de predicción de un componente de luminancia y un componente de crominancia no son limitados a los mismos. Asimismo, varios modos de intra-predicción diferentes de los modos de intra-predicción descritos con referencia a las Figuras 18A-25B podrían ser incluidos en los candidatos de modo de intra-predicción para la intra-predicción de un componente de crominaricia y un componente de luminancia.
Un proceso de codificación de un modo de. intra-predicción de una unidad de predicción de una imagen : será explicado en detalle.
La Figura 26 es un diagrama de bloque que ilustra un aparato 2600 para la codificación de un modo de intra- predicción de una imagen, de acuerdo con una modalidad de la presente invención. La Figura 27 es un diagrama de flujo que ilustra un método de codificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención. El aparato 2600 podría operar como el intra-predictor 410 del aparato 400 de la Figura 4. Un codificador de modo de intra-predicción 2630 en la Figura 26 podría ser incluido en el codificador de entropía 450 de la Figura 4, en lugar del intra-predictor 410.
Con referencia a las Figuras 26 y 27, el aparato 2600 incluye un primer determinador de modo de intra-predicción 2610, un segundo determinador de modo de intra-predicción 2620, y un codificador de modo de intra-predicción 2630.
En la operación 2710, el primer determinador de modo de intra-predicción 2610 determina un modo < de intra-predicción que tiene un costo mínimo en un grupo de ; candidato de modo de intra-predicción que incluye una pluralidad de modos de intra-predicción como un modo de intra-predicción de una unidad de predicción de un componente de luminancia utilizando un modo de intra-predicción aplicable a la unidad de predicción del componente de luminancia. Po : ejemplo, cuando un grupo de candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de luminancia incluye 35 modos de intra-predicción que incluyen 33 modos de intra-predicción utilizando los parámetros (dx, dy) , un modo de predicción DC, y un modo plano, el primer determinador de modo de intra-predicción 2610 compara los costos de los valores de error obtenidos utilizando lps 35 modos de intra-predicción y determina un modo óptimo de intra-predicción IntraMode_Luma aplicable a una unidad de predicción actual de un componente de luminancia ß??µ ?.
En la operación 2720, el segundo determinador de modo de intra-predicción 2620 determina un modo de intra-predicción que tiene un costo mínimo en un grupo de candidato de modo de intra-predicción qUe incluye una pluralidad de modos de intra-predicción como un modo de intra-predicción de una unidad de predicción de un componente de crominancia utilizando un modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia. Por , ejemplo, cuando un grupo de candidato de modo de intra-predicción aplicable a la unidad de predicción del componente, de crominancia incluye 5 modos de intra-predicción, es decir, un modo plano, un modo vertical, un modo horizontal, un' modo DC, y un modo de 45 grados en diagonal, el segundo determinador de modo de intra-predicción 2620 compara los costos de los valores de error obtenidos utilizando los modos de intra-predicción y determina un modo óptimo de intra-predicción IntraMode_Chroma aplicable a una unidad de predicción actual de un componente actual de crominancia. '· Cuando un modo de intra-predicción de un componente de luminancia, que es previamente procesado y determinado, es incluido en un grupo de candidato de modo de intra-predicción de un componente de crominancia, podría ser cambiado el número de los modos de intra-predicción del componente de crominancia que son comparados de acuerdo con si un modo de intra-predicción de un componente de crominancia que és el mismo que un modo de intra-predicción de un componente de luminancia existe en el grupo candidato de modo de intra-predicción del componente de crominancia.
Asimismo, sólo un grupo de candidato de modo de intra-predicción aplicable a una unidad de predicción de un componente de crominancia incluye básicamente un modo plano, un modo vertical, un modo horizontal, y un modo DC, y un modo determinado de intra-predicción de una unidad de predicción de un componente de luminancia corresponde con uñó del modo plano, el modo vertical, el modo horizontal, y el modo DC, un grupo de candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia podría determinarse reemplazando un modo que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia con un modo en diagonal. En este caso, el segundo determinador de modo de intra-predicción 2620 determina un modo óptimo de intra-predicción IntraMode_Chroma utilizando los modos de intra-predicción del grupo candidato de modo de intra-predicción.
Como se describe con anterioridad, un grupo de candidato de modo de intra-predicción aplicado a una unidad de predicción de un componente de crominancia podría incluir por separado un modo específico de intra-predicción que no es aplicado a una unidad de predicción de un componente de luminancia. Por ejemplo, un grupo de candidato de modo de intra-predicción de un componente de luminancia no podría incluir un modo LM, y sólo un grupo de candidato de modo de intra-predicción de un componente de crominancia podría incluir un modo LM. El segundo determinador de modo de intra-predicción 2620 podría determinar un modo óptimo de intra-predicción IntraMode_Chroma aplicando cada modo de intra-predicción en el grupo candidato de modo de intra-predicción que incluye el modo LM a la unidad de predicción del componente de crominancia.
El modo determinado de intra-predicción de la unidad de predicción del componente de crominancia el modo determinado de intra-predicción de la unidad de predicción del componente de luminancia necesitan ser señalados en el lado de decodificación. En consecuencia, el codificador de modo de intra-predicción 2630 codifica un modo final de intra-predicción aplicado a la unidad de predicción del componente de crominancia y la unidad de predicoión ; del componente de luminancia. En particular, operación 2730, cuando el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que uno de los modos predeterminados de intra-predicción incluidos en un grupo de candidato de modo de intra-predicción del componente de crominancia, el codificador de modo de intra-predicción 2630 reconstruye el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia para reducir la redundancia del modo de intra-predicción incluido en el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia. En la operación 2740, el codificador de modo de intra-predicción 2630 codifica él modo de intra-predicción de la unidad de predicción del componente de crominancia determinado por el segundo determinador de modo,; de iritra-predicción 2620 en función del grupo candidato reconstruido de modo de intra-predicción de la unidad de predicción del componente de crominancia. El codificador de modo de intra-predicción 2630 codifica, en forma diferente, la información del modo de intra-predicción del componente de crominancia de acuerdo con sí el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que el modo de intra-predicción de la unidad de predicción , del componente de crominancia y si el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el grupo candidato de modo de intra-predicción del componente de crominancia así como también, un índice que indica el modo de intra-predicción de la unidad de predicción del componente de luminancia.
En detalle, cuando el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que el modo de intra-predicción de la unidad de predicción del componente de crominancia, el codificador dé modo de intra-predicción 2630 sólo codifica un aviso DM de aviso que indica si el modo de intra-predicción de la unidad de predicción del componente de crominancia es el mismo que. el modo de intra-predicción de la unidad de predicción del componente de luminancia como la información de,!, modo de intra-predicción acerca de la unidad de predicción ; del componente de. crominancia. Por ejemplo, cuando ; el modo determinado de intra-predicción de la unidad de predicción del componente de luminancia y el modo determinado de intra-predicción de la unidad dé predicción del componente de crominancia son los modos horizontales H, el codificador de modo de intra-predicción 2630 codifica un índice y j un aviso DM de aviso que indica el modo de intra-predicción de la unidad de predicción del componente de luminancia as la información del modo de intra-predicción.
Suponiendo que el modo de intra-predicción de la unidad de predicción del componente de luminanciá no es el mismo que el modo de intra-predicción de la unidad de predicción del componente de crominancia y es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el grupo candidato de modo de intra-predicción del componente de crominancia, cuando es reconstruido el grupo candidato de -modo de intra-predicción del componente de crominancia, el codificador de modo de intra-predicción 2630 codifica un índice que indica el correspondiente modo de intra-predicción en el grupo candidato reconstruido de modo de intra-predicción y un aviso DM de aviso.
Suponiendo que el modo de intra-predicción de la unidad de predicción del componente de luminanciá y el modo de intra-predicción de la unidad de predicción del componente de crominancia no son los mismos y el modo dé intra-predicción de la unidad de predicción del componente de luminanciá no es el mismo que cualquiera uno de ios modos predeterminados de intra-predicción incluidos en , ,el grupo candidato de modo de intra-predicción del componente, de crominancia, el codificador de modo de intra-predicéión 2630 codifica un Indice que indica el correspondiente modo de intra-predicción en el grupo de candidato de modo ^de : iñtra-predicción establecido de manera inicial y un aviso DM de aviso .
Si un modo específico de intra-predicción, por ejemplo, el modo LM, que no es aplicado a la unidad de predicción del componente de luminancia en el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia sólo es aplicado al componente de crominancia, un aviso (el aviso LM) que indica si el modo de intra-predicción de la unidad de predicción del componente de crominancia es el modo LM podría ser incluido como la información del modo de intra-predicción acerca de la unidad de predicción del componente de crominancia. Cuando el modo LM es incluido como la unidad de predicción del componente de crominancia y el modo de intra-predicción de la unidad de predicción del componente de crominancia es el modo LM, el codificador de modo de intra-predicción 2630 sólo codifica el aviso DM y el aviso LM.
Cuando el modo de intra-predicción de la ; unidad de predicción del componente de luminancia y el modo de intra-predicción de la unidad de predicción del componente de crominancia no son los mismos, y el modo de intra-predicción de la unidad de predicción del componente de crominancia no es el modo LM, el codificador de modo de intra-predicción 2630 codifica la información de índice que indica el modo de intra-predicción de la unidad de predicción del componente de crominancia, el aviso DM, y el aviso LM. En e|ste "" caso, suponiendo que el modo de intra-predicción de la. ;uriidád de predicción del componente de luminancia es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el grupo candidato de modo de intra-predicción del componente de crominancia, cuando es reconstruido el grupo candidato de modo de intra-predicción del componente de crominancia, el codificador de modo de intra-predicción 2630 codifica el aviso LM( el aviso DM y el índice que indica el correspondiente modo de intra-predicción en el grupo candidato reconstruido de modo de intra-predicción.
Un proceso de codificación de un modo de intra-predicción de una unidad de predicción de un componente de crominancia será explicado en detalle con referencia a la Figura 28. . , , La Figura 28 es un diagrama de flujo que ilustra un proceso de codificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la.; presente invención.
Con referencia a las Figuras 26 y 28, en la operación 2810, el primer determinador de' modo,,!de intra-predicción 2610 y el segundo determinador de modo! ; de intra-predicción 2620 determinan un modo de intra-predicción de una unidad de predicción de un componente de crominancia y una unidad de predicción de un componente de ; luminancia utilizando una pluralidad de modos disponibles de intra-predicción. Como se describe con anterioridad, se ; supone que un grupo de candidato de modo de intra-predicción aplicable a una unidad de predicción de un componente de luminancia incluye 35 un modo de intra-predicción que incluye 33 modos de intra-predicción que utilizan los parámetros (dx, dy) , un modo de predicción DC, y un modo plano, y un grupo candidato de intra-predicción aplicable a una unidad de predicción de un componente de crominancia incluye 5 unidades de intra-predicción que incluyen un modo plano, un modo vertical, un modo horizontal, un modo DC, y un modo de 45 grados en diagonal. Como se describe con anterioridad, un modo de intra-predicción aplicable a un componente de crominancia podrían incluir un modo de intra-predicción (modo derivado, de aquí en adelante, referido como un "modo DM" ) de un componente de luminancia que es previamente procesado y determinado. El modo DM es el mismo que IntraMode_Luma . El codificador de modo de intra-predicción 2630 asigna: una palabra de código predeterminado a cada uno de los 35 modos de intra-predicción aplicable a la unidad de predicción del componente de luminancia, y codifica una palabra de código que corresponde con el modo determinado de intra-predicción lntraMode_Luma de la unidad de predicción del componente de luminancia. Un código Exp-Golomb (Goloms Exponencial) podría ser utilizado como una palabra de código.
En la operación 2820, el codificador de modo de intra-predicción 2630 determina si el modo determinado de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es el mismo que el correspondiente modo de intra-predicción Intra ode_Chroma de la unidad de predicción del componente de crominancia. Si el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es el mismo que el correspondiente modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia, el método continúa hacia la operación 2830. En la operación 2830, el codificador de modo de intra-predicción 2630 establece en 0 un aviso DM de aviso que indica si el modo de , intra-predicción de la unidad de predicción del componente de crominancia es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia. Cuando el aviso DM es 0, significa que el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que el modo de predicción del componente de crominancia. Cuando el aviso DM es 1, significa que el modo de intra-predicción de la unidad de predicción del componente de luminancia es diferente del modo de intra-predicción de la unidad de predicción del componente de crominancia. Un valor del aviso DM podría establecerse en un modo opuesto. Como tal, suponiendo que el aviso DM es 0, es decir, :cuando el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que el : modo de predicción del componente de crominancia, cuando sólo el aviso DM es codificado y trasmitido hacia el lado de decodificación y el lado de decodificación recibe el aviso DM que tiene un valor de 0 , el correspondiente modo de intra-predicción de la unidad de predicción del componente de crominancia podría determinarse a partir del modo de intra-predicción de la unidad de predicción del componente de luminancia que es primero de codificado. Por ejemplo, cuando los modos de intra-predicción de la unidad de predicción del componente de crominancia y la unidad de predicción del componente de luminancia son los modos horizontales, el codificador de modo de intra-predicción 2630 sólo codifica el aviso DM y la información del modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia.
Cuando se determina en la operación 2820 que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia no es el mismo' que el correspondiente modo de intra-predicción IntraMode^fihfomá de la unidad de predicción del componente de crominancia, el codificador de modo de intra-predicción 2630 tiene i que codificar un modo separado de intra-predicción aplicado a la unidad de predicción del componente de crominancia.. En la operación 2840, el codificador de modo de intra-predicción 2630 determina si el modo de intra-predicción Intrá ode^Luma de la unidad de predicción del componente de luminancia es incluido en un modo predeterminado de intra-predicción Candid te_Modes en un grupo de candidato de modo de intra-predicción de la unidad de predicción del componente de luminancia. Por ejemplo, cuando el grupo candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia incluye 5 modos de intra-predicción que incluyen un modo plano, un modo vertical, un modo horizontal, un modo DC, y un modo de 45 grados en diagonal, el codificador de modo de intra-predicción 2630 determina si el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los 5 modos de intra-predicción. En forma alterna, cuando el grupo candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia incluye básicamente un modo plano, un modo vertical, un modo horizontal, y un modo DC, y utiliza un modo en diagonal en lugar de un modo que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia sólo cuando el modo de intra-predicción de la unidad de predicción del componente de luminancia corresponde con uno del modo plano, el modo vertical, el modo horizontal, y el modo DC, el codificador de modo de intra-predicción 2630 determina si el modo de intra-predicción de la unidad, de predicción del componente de luminancia corresponde con uno del modo plano, el modo vertical, el modo horizontal, y el modo DC.
Cuando se determina en la operación 2840 que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia no es incluido en los modos predeterminados de intra-predicción Candidate_Modes , el método continúa hacia la operación 2850. En la operación 2850, el codificador de modo de intra-predicción 2630 codifica el modo de intra-predicción de la unidad de predicción del componente de crominancia utilizando un segundo grupo candidato de modo de intra-predicción aplicado al presente componente que es restablecido. Por ejemplo, un índice predeterminado podría ser preestablecido como es mostrado en la Tabla 6 en cada uno de los modos de intra-predicción incluidos en el segundo grupo candidato de modo de intra-predicción aplicado al componente de crominancia.
Tabla 6 Cuando se determina que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia no es incluido en los modos predeterminados de intra-predicción Candidate_Modes , el codificador de; modo de intra-predicción 2630 codifica el modo de intra-predicción de la unidad de predicción del componente de crominancia utilizando el índice predeterminado como es mostrado en la Tabla 6. Por ejemplo, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia no es incluido en los modos predeterminados de intra-predicción Candidate_Modes debido a que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es un modo de predicción que tiene una direccionalidad que utiliza (-13,32) como (dx, dy) como es mostrado en la Tabla 3, el codificador dé modo de intra-predicción 2630 codifica el modo de intra-predicción de la unidad de predicción del componente de crominancia utilizando el índice predeterminado como es mostrado en la Tabla 6. La palabra de código, el número y los tipos de los modos de intra-predicción del componente de crominancia podrían ser cambiados .
Cuando se determina en la operación 284:0 que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es incluido en los modos predeterminados de intra-predicción Candidate_Modes , el método continúa hacia la operación 2860. En la operación 2860, el codificador de modo de intra-predicción 2630 reconstruye un grupo de candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia para eliminar la redundancia del modo de intra-predicción incluido en el grupo candidato de modo de intra-predicción de la unidad de predicción del componente · de crominancia que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia. Por ejemplo, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es un modo DC, el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia es un modo horizontal, y los modos predeterminados de intra-predicción Candidate_Modes son un modo plano, un modo vertical, un modo horizontal, y un modo DC, el modo DC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia. En este caso, debido a que el modo DC podría obtenerse a partir del modo de intra-predicción de la unidad de predicción del componente de luminancia en la Tabla 6, no necesita ser asignada una palabra separada de código. En consecuencia, de acuerdo con la presente modalidad, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente '. de luminancia es incluido en los modos predeterminados dé intra-predicción Candidate_Modes de la unidad de predicción ! del componente de luminancia, debido a que el modo de. intra- predicción que es similar al modo de intra-predicción de la unidad de predicción del componente de luminancia y es incluido en el grupo candidato de modo de intra-prédicción de la unidad de predicción del componente de crominaiicia podría reemplazarse con un modo de intra-predicción diferente de los modos predeterminados de intra-predicción Candidate_Modes o el modo redundante de intra-predicción podría ser señalizado a través del aviso DM, el segundo grupo candidato de modo de intra-predicción podría ser reconstruido eliminando el modo redundante de intra-predicción del componente de crominancia y un índice que indica cada modo de intra-predicción podría ser asignado en función del segundo grupo candidato reconstruido de modo de intra-predicción.
En detalle, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia, el codificador de modo de intra-predicción 2630 podría reemplazar el modo de predicción incluido en el grupo candidato de modo de intra-predicción de la crominancia con un modo de intra-predicción no incluido en los modos predeterminados de intra-predicción Candidate_Modes . Por ejemplo, cuando el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia incluye básicamente un modo plano, ' un modo vertical, un modo horizontal, y un modo DC, y el modo determinado de intra-predicción de la unidad de predicción del componente de luminancia corresponde con uno del modo plano, el modo vertical, el modo horizontal, y el modo DC, un modo que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia podría ser reemplazado con un modo en diagonal . Se supone que una palabra de código es asignada como es mostrado en la Tabla 7 sólo a los modos predeterminados de intra-predicción Candidate_ odes, es decir, un modo plano, un modo vertical, un modo horizontal, y un modo DC, en el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia.
Tabla 7 Cuando el modo DC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es el mismo que el modo DC de entre los modos predeterminados de intra-predicción Candidate_Modes aplicables al componente de crominancia, el modo DC es reemplazado con un modo en diagonal, y la Tabl ' 7· es reconstruida como la Tabla 8.
Tabla 8 Asimismo, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable a la unidad de predicción del componente de crominancia, el codificador de modo de intra-predicción 2630 podría eliminar un modo redundante de intra-predicción que es redundante en el grupo candidato de modo de intra-predicción del componente de crominancia. Por ejemplo, cuando el grupo candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia incluye 5 modos de intra-predicción que incluyen un modo plano, un modo vertical, , un modo horizontal, un modo DC, y un modo de 45 grados en diagonal, y el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es u .. modo en diagonal , los índices que indican el grupo candidato de modo de intra-predicción del componente de crominancia podrían eliminar el modo en diagonal en la Tabla 6 y podrían ser reconstruidos como es mostrado en la Tabla 9. En éste caso, debido a que es reducido el número de los modos :de: intra- predicción incluidos en el grupo candidato de modo de intra-predicción del componente de crominancia, podría ser reducido el número de bits que es un valor de un índice que indica cada modo de intra-predicción.
Tabla 9 El predictor de modo de codificación 2630 podría reducir el número de bits necesarios para codificar un modo de intra-predicción asignando una palabra de código sólo a los modos de intra-predicción (n-1) en un grupo de candidato de modo de intra-predicción que incluye los modos de intra-predicción n (n es un entero) del componente de crominancia, reemplazando un modo de intra-predicción que es el mismo que un modo de intra-predicción de la unidad de predicción del componente de luminancia, y eliminando una palabra de código redundante .
Asimismo, el predictor de modo de codificación 2630 no podría realizar la indexación mediante la exclusión del modo de intra-predicción que es el mismo que el modo de intra-predicción del componente de luminancia en el grupo candidato de modo de intra-predicción del componente de crominancia que es preestablecido a partir del grupo candidato de modo de intra-predicción.
Cuando el número de modos disponibles de intra-predicción en el grupo candidato de modo de intra-predicción del componente de crominancia es n (n es un entero positivo) , el codificador de intra-predicción 2630 reconstruye el grupo candidato de modo de intra-predicción del componente de crominancia reemplazando un modo de intra-predicción del componente de crominancia que es el mismo que él modo de intra-predicción del componente de luminancia de entre los modos predeterminados de intra-predicción Candidaté_ 4odes (n-1 ) los cuales son preestablecidos con un modo restante de intra-predicción.
En forma alterna, la operación 2860 en la cual el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia podría ser realizada mediante la exclusión de un modo de intra-predicción del componente de crominancia que es el mismo que el' modo de intra-predicción del componente de luminancia y asignando, una palabra de código sólo a un modo restante de intra-predicción. Por ejemplo, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es un modo DC, el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia es un modo horizontal, los modos predeterminados de intra-predicción Candidate_Modes son un modo vertical/ un modo horizontal, un modo DC, y un modo DM, el modo ÍDC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia. En este caso, cuando es asignada una palabra separada de código aunque el modo DC en la Tabla 6 podría obtenerse a partir del modo de intra-predicción de la unidad de predicción del componente de luminancia, el número de bits utilizados para codificar un modo de predicción podría ser incrementado asignando una palabra separada de código al modo redundante de predicción. En consecuencia, es preferible que una palabra de código sólo sea asignada a un modo de intra-predicción diferente del modo DC. Es decir, el codificador de modo de intra-predicción 2630 podría codificar el modo de intra-predicción del componente de crominancia asignando una palabra de código sólo a 4 modos de intra-predicción diferentes del modo DC en la Tabla 9.
Con referencia de regreso a la Figura 28, en la operación 2870, el codificador de modo de intra-predicción 2630 codifica el modo de intra-predicción del componente de crominancia utilizando el grupo candidato reconstruido1 de modo de intra-predicción de la unidad de predicción ;del componente de crominancia. Cuando es reconstruido " ;el grupo candidato de modo de intra-predicción del componente [ de crominancia, el codificador de modo de intra-predicción 2630 codifica una palabra de código que corresponde con el modo de intra-predicción de la unidad de predicción del componente de crominancia como la información del modo de intra-predicción acerca de la unidad de predicción del componente de crominancia .
Un proceso de decodificación de un modo de intra-predicción de una unidad de predicción de una imagen será explicado en detalle.
La Figura 29 es un diagrama de bloque que ilustra un aparato 2900 para la decodificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención. La Figura 30 es un diagrama de flujo que ilustra un método de decodificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención. El aparato 2900 podría operar como el intra-predictor 550 del aparato 500 de la Figura 5. En la Figura 29, un obtenedor de modo de intra-predicción 2910 podría ser incluido en el analizador 510 o el decódificador de entropía 520 de la Figura 5, en lugar del intra-predictor 550.
Con referencia a las Figuras 29 y 30, el aparato 2900 incluye el obtenedor de modo de intra-predicción 2910, un primer realizador de intra-predicción 2920, y un segundo realizador de intra-predicción 2920.
En la operación 3010, el obtenedor de modo de intra-predicción 2910 obtiene la información del modo de intra-predicción IntraMode_Luma de una unidad de predicción de un componente de luminancia que constituye una imagen de un flujo de bits. Asimismo, el obtenedor de modo de intra-predicción 2910 obtiene un aviso DM de aviso que indica si el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia que corresponde con una unidad de predicción de un componente de luminancia es el mismo que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia as la información del modo de intra-predicción de la unidad de predicción del componente de crominancia.
En la operación 3020, cuando se determina que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es el mismo qué uno de los modos predeterminados de intra-predicción Candida e_Modes incluidos en un grupo de candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia, el obtenedor de modo : de intra-predicción 2910 reconstruye el grupo candidato de modo de intra-predicción del componente de crominancia para eliminar la redundancia del modo de intra-predicción incluido en el grupo candidato de modo de intra-predicción del componente de crominancia que es el mismo que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia.
En la operación 3030, el obtenedor de modo de intra-predicción 2910 determina el modo de intra-predicción de la unidad de predicción del componente de crominancia utilizando un índice que indica uno de los modos de intra-predicción incluidos en el grupo candidato reconstruido de modo de intra-predicción del componente de crominancia que es obtenido a partir del flujo de bits.
Cuando el obtenedor de modo de intra-predicción 2910 determina los modos de intra-predicción de la unidad de predicción del componente de crominancia y la unidad de predicción del componente de luminancia, el primer realizador de intra-predicción 2920 genera y da salida a un valor de predicción de la unidad de predicción del componente de luminancia realizando la intra-predicción en la unidad de predicción del componente de luminancia, y el segundo realizador de intra-predicción 2930 genera y da salida a un valor de predicción de la unidad de predicción del componente de crominancia realizando la intra-predicción en la unidad de predicción del componente de crominancia.
La Figura 31 es un diagrama de flujo que ilustra un proceso de decodificación de un modo de intra-predicción de una imagen, de acuerdo con una modalidad de la presente invención.
Con referencia a las Figuras 29 y 31, en la operación 3110, el obtenedor de modo de intra-predicción 2910 obtiene un aviso DM que indica si el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de crominancia y el modo de intra-predicción de la unidad de predicción del componente de luminancia son los mismos que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia del flujo de bits .
En la operación 3120, el obtenedor de modo de intra-predicción 2910 determina si el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia es el mismo que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia en función del aviso DM.
Cuando se determina en la operación 3120 que un valor del aviso DM es 0, es decir, cuando el obtenedor de modo de intra-predicción 2910 determina que el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia es el mismo que el modo de intra-predicción IntraMode_Luma de la unidad de predicción . del componente de luminancia, en la operación 3130, el obtenedor de modo de intra-predicción 2910 establece el modo de , intra-predicción de la unidad de predicción del componente de crominancia en el modo de intra-predicción de la unidad de predicción del componente de luminancia. Como tal, cuando el aviso DM es 0, es decir, cuando el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que el modo de predicción del componente de crominancia, el modo de intra-predicción del componente de crominancia podría determinarse utilizando solo el aviso DM.
Cuando se determina en la operación 3120 que el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia no es el mismo que el correspondiente modo de intra-predicción IntraMode^Chroma de la unidad de predicción del componente de crominancia, el obtenedor de modo de intra-predicción 2910 determina si el modo de intra-predicción IntraMode_Luma - de la unidad de predicción del componente de luminancia es incluido en los modos predeterminados de intra-predicción Candidate^Mpdes en el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia. Por ejemplo, cuando el grupo candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia incluye 5 modos de intra-predibción; que incluyen un modo plano, un modo vertical, un modo horizontal, un modo DC, y un modo de 45 grados en diagonal, el: obtenedor de modo de intra-predicción 2910 determina si el. modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los 5 modos de intra-predicción. En forma alterna, cuando el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia incluye básicamente un modo plano, un modo vertical, un modo horizontal, y un modo DC, y un modo en diagonal en lugar de un modo que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia sólo es utilizado cuando el modo de intra-predicción de la unidad de predicción del componente de luminancia corresponde sólo con uno de los modos predeterminados de intra-predicción Candidate_Modes, por ejemplo, el modo plano, el modo vertical, el modo horizontal, y el modo DC, el obtenedor de modo de intra-predicción 2910 determina si el modo de intra-predicción de la unidad de predicción del componente de luminancia corresponde con uno del modo plaño, el modo vertical, el modo horizontal, y el modo DC. Cuando se determina en la operación 3140 que el modo de intra-predicción lntraMode_Luma de la unidad de predicción del componente de luminancia no es incluido en los modos predeterminados de intra-predicción Candidate_Modes, el método continúa hacia la operación 3150. En la operación 3150, el obtenedor de modo de intra-predicción 2910 lee un Indice del flujo de bits y determina el modo de intra-predicción del componente de crominancia indicado por el Indice leído. Como se describe con anterioridad, una palabra de código predeterminado podría' ser preestablecida como es mostrado en la Tabla 6 para un modo de intra-predicción aplicado a el componente de crominancia, y el obtenedor de modo de intra-predicción 2910 podría leer a partir del flujo de bits la palabra de código, es decir, un valor de un índice, y podría determinar el modo de intra-predicción de una unidad de predicción del componente de crominancia .
Cuando se determina en la operación 3140 que el modo de intra-predicción IntraMode_Lurrta de la unidad de predicción del componente de luminancia es incluido en los modos predeterminados de intra-predicción Candidate_Modes , el método continúa hacia la operación 3160. En la operación 3160, el obtenedor de modo de intra-predicción 2910 reconstruye el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia para eliminar la redundancia del modo de intra-predicción incluido en el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia. Como se describe con anterioridad, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es un modo DC, el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia es un modo horizontal, y los modos predeterminados de intra-predicción Candidate_Modes son un modo vertical, un modo horizontal, un modo DC y un modo D , el modo DC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia. En este caso, debido a que el modo DC en la Tabla 6 podría obtenerse a partir del modo de intra-predicción de la unidad de predicción del componente de luminancia, no necesita ser asignada una palabra separada de código. En consecuencia, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es incluido en los modos predeterminados de intra-predicción Candidate_Modes de la unidad de predicción del componente de crominancia, el obtenedor de modo de intra-predicción 2910 podría reconstruir un segundo grupo-candidato de modo de intra-predicción reemplazando el modo de intra-predicción que es el mismo que el modo de intra-predicción de la unidad de predicción del componente de luminancia y es incluido en el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia con un modo de intra-predicción diferente de los modos predeterminados de intra-predicción Candidate^ odes o eliminando el modo redundante de intra-predicción del componente de crominancia, y podría determinar un índice que indica cada modo de intra-predicción en función del segundo grupo candidato reconstruido de modo de intra-predicción. Un proceso de reconstrucción del grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia podría ser el mismo que el método de reconstrucción mencionado que es realizado en un lado de codificación.
En detalle, cuando el modo DC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia, el obtenedor de modo de intra-predicción 2910 podría reemplazar el modo de predicción incluido en el grupo candidato de modo de intra-predicción del componente de crominancia con un modo de intra-predicción no incluido en los modos predeterminados de intra-prédicción Candidate_Modes . Por ejemplo, cuando el grupo candidato de modo de intra-predicción aplicado a la unidad de predicción del componente de crominancia incluye básicamente ' un modo plano, un modo vertical, un modo horizontal, y un modo DC, y el modo determinado de intra-predicción de la unidad de predicción del componente de luminancia corresponde : con uno del modo plano, el modo vertical, el modo horizontal,, y . el modo DC, un modo que es el mismo que el modo de, intra-predicción de la unidad de predicción del componente de luminancia podría ser reemplazado con un modo en diagonal. Suponiendo que una palabra de código es asignada como es mostrado en la Tabla 7 a los modos predeterminados de intra-predicción Candidate_Modes , es decir, el modo vertical, el modo horizontal, el modo DC, y el modo DM, en el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia, cuando el modo DC que es el modo de intra-predicción de la unidad de predicción del componente de luminancia es el mismo que el modo DC de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia, el modo DC es reemplazado con un modo en diagonal y es reconstruido como es mostrado en la Tabla 8. El obtenedor de modo de intra-predicción 2910 podría determinar si un índice del modo de intra-predicción incluido en el flujo de bits indica cual modo de intra-predicción utilizando el grupo candidato reconstruido de modo de intra-predicción.
Asimismo, cuando el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable a la unidad de predicción del componente de crominancia, el obtenedor de modo de intra-predicción 2910 podría eliminar un : modo de intra-predicción que es redundante en el grupo candidato de modo de intra-predicción del componente de crominancia. Por ejemplo, cuando el grupo candidato de modo de intra-predicción aplicable a la unidad de predicción del componente de crominancia incluye 5 modos de intra-predicción que incluyen un modo plano, un modo vertical, un modo horizontal, un modo DC, y un modo de 45 grados en diagonal, y el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es un modo en diagonal, los índices que indican el grupo candidato de modo de intra-predicción del componente de crominancia podrían ser reconstruidos como es mostrado en la Tabla 9 excluyendo el modo en diagonal en la Tabla S . El obtenedor de modo de intra-predicción 2910 podría determinar si el índice del modo de intra-predicción del componente de crominancia incluido en el flujo de bits indica el modo de intra-predicción utilizando el grupo candidato reconstruido de modo de intra-predicción del componente de crominancia. El obtenedor de modo de intra-predicción 2910 podría reducir el número de bits necesarios para decodificar un modo de intra-predicción asignando una palabra de código sólo a un modo de intra-predicción (n-1) en un grupo de candidato de modo de intra-predicción que incluye un modo de intra-predicción del componente de crominancia n (n es un entero) y reemplazando un modo de intra-predicción que es el mismo que el modo de intra-predicción del componente de luminancia con un modo restante de intra-predicción para eliminar una palabra de código redundante. Como se describe con anterioridad, cuando el modo DC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia es el mismo que el modo DC de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia, una palabra de código del modo DC podría utilizarse como una palabra de código que indica el modo en diagonal. Como tal, cuando el número de modos disponibles de intra-predicción en el grupo candidato de modo de intra-predicción del componente de crominancia es n (n es un entero positivo) , el obtenedor de modo de intra-predicción 2910 reconstruye el grupo candidato de modo de intra-predicción del componente de crominancia reemplazando una intra-predicción del componente de crominancia que es el mismo que el modo de intra-predicción del componente de luminancia de entre el modo predeterminado de intra-predicción Candidate_Modes preestablecido (n-l) con un modo reatante de intra-predicción.
En forma alterna, la operación 3160 en la cual es reconstruido el grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia podría ser realizada asignando una palabra de código sólo a un modo de intra-predicción diferente del modo de intra-predicción del componente de crominancia que es el mismo que el modo de intra-predicción del componente de luminancia. Por ejemplo, cuando el modo de intra-predicción Intra ode_Luma de la unidad de predicción del componente de luminancia es un modo DC, el modo de intra-predicción IntraMode_Chroma de la unidad de predicción del componente de crominancia es un modo horizontal, y los modos predeterminados de intra-predicción Candidate_Modes son un modo vertical, un modo horizontal, un modo DC, y un modo DM, el modo DC que es el modo de intra-predicción IntraMode_Luma de la unidad de predicción del componente de luminancia corresponde con uno de los modos predeterminados de intra-predicción Candidate_Modes aplicable al componente de crominancia. En este caso, debido a que el modo DC en la Tabla 6 podría obtenerse a partir del modo de intra-predicción de la unidad de predicción del componente de luminancia, una palabra de código sólo es asignada a un modo de intra-predicción diferente del modo DC. Es decir, el grupo candidato de modo de intra-predicción es reconstruido asignando una palabra de código sólo a los 4 modos , restantes de intra-predicción diferentes del modo DC como es mostrado en la Tabla 8.
Con referencia de regreso a la Figura 31, en la operación 3170, el obtenedor de modo de intra-predicción 2910 decodifica el modo de intra-predicción del componente de crominancia utilizando el grupo candidato reconstruida de modo de intra-predicción de la unidad de predicción del componente de crominancia y el índice obtenido del flujo de bits. Cuando es reconstruido el grupo candidato de modo de intra-predicción del componente de crominancia, el Indice indica la información (palabra de código) acerca del modo de intra-predicción aplicado a la unidad de predicción actual del componente de crominancia en el grupo candidato reconstruido de modo de intra-predicción del componente de crominancia a través del mismo proceso que el proceso realizado en el lado de codificación, y el obtenedor de modo de intra-predicción 2910 determina el modo de intra-predicción de la unidad de predicción del componente de crominancia seleccionando el modo de intra-predicción indicado por el índice del grupo candidato de modo de intra-predicción de la unidad de predicción del componente de crominancia que es reconstruido en el mismo modo que el modo del lado de codificación.
La presente invención podría ser incluida como códigos susceptibles de ser leídos por computadora en un medio de grabación susceptible de ser leído por computadora. El medio de grabación susceptible de ser leído por computadora incluye cualquier dispositivo de almacenamiento que podría almacenar datos los cuales podrían ser leídos . por un sistema de computadora. Los ejemplos del medio de grabación susceptible de ser leído por computadora incluyen memorias sólo de lectura (ROMs, por sus siglas en inglés), memorias de acceso aleatorio (RA s, por sus siglas en inglés) , CD-ROMs, cintas magnéticas, discos flexibles, y dispositivos ópticos de almacenamiento de datos. El medio de grabación susceptible de ser leído por computadora podría ser distribuido a través de sistemas de computadora conectados por red de modo que los códigos susceptibles de ser leído por computadora son almacenados y ejecutados en un modo distribuido .
Mientras la presente invención ha sido particularmente mostrada y descrita con referencia a las modalidades de ejemplo de la misma utilizando términos específicos, las modalidades y términos simplementé han sido utilizados para explicar la presente invención y no deben ser interpretados como limitantes del alcance de la presente invención como es definido por las reivindicaciones. Las modalidades de ejemplo tienen que ser consideradas solo en un sentido descriptivo y no con propósitos de limitación. Por lo tanto, el alcance de la invención es definido no por la descripción detallada de la invención sino por las reivindicaciones adjuntas, y todas las diferencias dentro, del alcance serán interpretadas que son incluidas en la¡ presente invención.
Se hace constar que con relación a esta¦ fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención. i ·

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones:
1. Un método de decodificación de un modo de intra-predicción de una imagen, caracterizado porque comprende: obtener la información del modo de intra-predicción de una unidad de predicción de un primer componente de imagen que constituye la imagen de un flujo de bits; cuando un modo de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en un segundo grupo candidato de modó de intra-predicción aplicable a una unidad de predicción de un segundo componente de imagen, se reconstruye el segundo ' grupo candidato de modo de intra-predicción para remover la redundancia de un modo de intra-predicción incluido en el segundo grupo candidato de modo de intra-prediccióft que' es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen; y decodificar un modo de intra-predicción de la unidad de predicción del segundo componente de imagen en función del segundo grupo candidato reconstruido de modo de intra-predicción.
2. El método de conformidad con la reivindicación 1, caracterizado porque la reconstrucción comprende reconstruir el segundo grupo candidato de modo de intra-predicción reemplazando el modo de intra-predicción incluido en el segundo grupo de candidato de modo de predicción que es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen con otro modo de predicción diferente de los modos predeterminados de intra-predicción.
3. El método de conformidad con la reivindicación 1, caracterizado porque cuando un número de modos de intra-predicción incluido en el segundo grupo candidato de modo de intra-predicción es n (n es un entero positivo) , los modos predeterminados de intra-predicción son los modos de intra-predicción (n-1) que están presentes, y el modo reemplazado de intra-predicción es un modo de intra-predicción diferente de los modos de intra-predicción (n-1) .
4. El método de conformidad con la reivindicación 1, caracterizado porque el segundo grupo candidato de modo de intra-predicción comprende un modo plano, un modo vertical, un modo horizontal, un modo DC, y un modo en diagonal, en donde cuando el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno del modo plano, el modo vertical, el modo horizontal, y el modo DC de entre los modos de intra-predicción del segundo grupo candidato de modo de intra-predicción, el modo de intra-predicción del segundo grupo candidato de modo de intra-predicción que es el mismo que el modo de intra-predicción de la unidad de predicción del primer componente de imagen es reemplazado con el modo en diagonal .
5. El método de conformidad con la reivindicación 1, caracterizado porque la reconstrucción comprende reconstruir el segundo grupo candidato de modo de intra-predicción mediante la exclusión de un modo de intra-predicción que es incluido en el segundo grupo candidato de modo de intra-predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen .
6. El método de conformidad con la reivindicación 1, caracterizado porque la decodificación comprende: determinar si un índice que indica cada :uno de los modos de intra-predicción incluidos en el segundo grupo candidato reconstruido de modo de intra-predicción es decodificado de acuerdo con sí el modo de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que el modo de intra-predicción de la unidad de predicción del segundo componente de imagen; cuando se determina que el índice es decodificado, se obtiene un índice que indica el modo de intra-predicción de la unidad de predicción del segundo componente de imagen del flujo de bits; y determinar el modo de intra-predicción de la unidad de predicción del segundo componente de imagen utilizando el índice obtenido.
7. El método de conformidad con la reivindicación 6, caracterizado porque un índice que indica un modo de intra-predicción que es incluido en el segundo grupo candidato de modo de intra-predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen es determinado como un índice que indica un modo de intra-predicción diferente de los modos predeterminados de intra-predicción.
8. El método de conformidad con la reivindicación 6, caracterizado porque cuando el segundo grupo candidato de modo de intra-predicción es reconstruido mediante la exclusión de un modo de intra-predicción que es incluido en el segundo grupo de candidato de modo de predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen, un número de bits de un índice al menos de un modo de intra-predicción de entre los modos de intrá-;predi'cción incluidos en el segundo grupo candidato de modo , de intra-predicción es reducido en función de un número de los modos de intra-predicción incluidos en el segundo grupo: candidato reconstruido de modo de intra-predicción.
9. El método de conformidad con la reivindicación 1, caracterizado porque la decodificación comprende: cuando se determina que el modo de intra-predicción de la unidad de predicción del primer componente d : imagen es el mismo que el modo de intra-predicción del modo de predicción del segundo componente de imagen en función de un aviso que indica si el modo de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el segundo grupo candidato de modo ' de intra-predicción, se determina el modo de intra-predicción ; de la ? unidad de predicción del primer componente de imajg'en como el modo de intra-predicción de la unidad de predicción del segundo componente de imagen.
10. El método de conformidad con la reivindicación 1, caracterizado porque la decodificación comprende, cuando el segundo grupo candidato de modo de intra-predicción es reconstruido, se obtiene del flujo de bits un índice que indica un modo de intra-predicción en el segundo grupo candidato reconstruido de modo de intra-predicción,:: :y se determina el modo de intra-predicción de la i; iunidad de predicción del segundo componente de imagen en función del índice .
11. El método de conformidad con la reivindicación 1, caracterizado porque además comprende: determinar si un modo específico de intra-predicción que no es incluido en un primer grupo candidato de modo de intra-predicción y sólo es incluido en el segundo grupo candidato de modo de intra-predicción de acuerdo con las unidades predeterminadas de imagen es aplicado a la unidad de predicción del segundo componente de imagen; y cuando se determina que el modo específico de intra-predicción es aplicado a la unidad de predicción del segundo componente de imagen, se obtiene del flujo de bits un aviso que indica si la unidad de predicción del segundo componente de imagen corresponde con el modo específico de intra-predicción .
12. El método de conformidad con la reivindicación 11, caracterizado porque el aviso que indica si la unidad de predicción del segundo componente de imagen corresponde con el modo específico de intra-predicción es obtenido a partir del flujo de bits cuando se determina que el modo de intra-predicción de la unidad de predicción del primer componente de imagen es diferente del modo de intra-predicción de la unidad de predicción del segundo componente de imagen.
13. El método de conformidad con la reivindicación 1, caracterizado porque la decodificación comprende: en función de un aviso que indica si el modo determinado de intra-predicción de la unidad de predicción del segundo componente de imagen es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen y un aviso que indica si el modo determinado de intra-predicción de la unidad de predicción del segundo componente de imagen es un modo específico de intra-predicción, cuando se determina que el modo de intra-predicción de la unidad de predicción del segundo componente de imagen es diferente del modo de intra-predicción de la unidad de predicción del primer componente de imagen y a partir del modo específico de intra-predicción sólo incluido en el segundo grupo candidato de modo de intra-predicción, se obtiene un índice que indica el modo de intra-predicción de la unidad de predicción del segundo componente de imagen del flujo de bits.
14. Un aparato de decodificación de un modo de intra-predicción de una imagen, caracterizado porque comprende : un obtenedor de modo de intra-predicción que obtiene la información del modo de intra-predicción de una unidad de predicción de un primer componente de imagen que constituye la imagen de un flujo de bits, cuando se determina que un modo de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en un segundo grupo candidato de modo de intra-predicción aplicable a una unidad de predicción de un segundo componente de imagen, reconstruye el segundo grupo candidato de modo de intra-predicción para eliminar la redundancia de un modo de intra-predicción que es incluido en el segundo grupo candidato de modo de intra-predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen, y determina un modo de intra-predicción de la unidad de predicción del segundo componente de imagen en función del segundo grupo candidato reconstruido de modo de intra-predicción; un primer realizador de intra-predicción que realiza la intra-predicción en la unidad de predicción del primer componente de imagen en función del modo de intra-predicción de la unidad de predicción del primer componente de imagen que es obtenido a partir del flujo de bits; y un segundo realizador de intra-predicción que realiza la intra-predicción en la unidad de predicción del segundo componente de imagen en función del modo determinado de intra-predicción de la unidad de predicción del segundo componente de imagen.
15. Un método de codificación de un modo de intra-predicción de una imagen, caracterizado porque comprende: determinar un modo de intra-predicción de una unidad de predicción de un primer componente de ámagen que constituye la imagen utilizando un primer grupo candidato de modo de intra-predicción que comprende una pluralidad de modos de intra-predicción; determinar un modo de intra-predicción de una unidad de predicción de un segundo componente de imagen que corresponde con la unidad de predicción del primer componente de imagen utilizando un segundo grupo candidato de modo de intra-predicción que comprende una pluralidad de modos de intra-predicción; cuando el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen es el mismo que uno de los modos predeterminados de intra-predicción incluidos en el segundo grupo candidato de modo de intra-predicción, se reconstruye el segundo grupo candidato de modo de intra-predicción para remover la redundancia de un modo de intra-predicción que es incluido en el segundo grupo candidato de modo de intra-predicción y es el mismo que el modo determinado de intra-predicción de la unidad de predicción del primer componente de imagen; y codificar el modo determinado de intra-predicción de la unidad de predicción del segundo componente de: imagen en función del segundo grupo candidato reconstruido de modo de intra-predicción.
MX2013007314A 2010-12-23 2011-12-23 Metodo y aparato de codificacion de modo de intra-prediccion para unidad de prediccion de imagen, metodo y aparato de decodificacion de modo de intra-prediccion para unidad de prediccion de imagen. MX2013007314A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201061426684P 2010-12-23 2010-12-23
PCT/KR2011/010066 WO2012087077A2 (ko) 2010-12-23 2011-12-23 영상 예측 단위에 대한 인트라 예측 모드 부호화 방법 및 장치, 및 영상 예측 단위에 대한 인트라 예측 모드 복호화 방법 및 장치

Publications (1)

Publication Number Publication Date
MX2013007314A true MX2013007314A (es) 2013-10-25

Family

ID=46314674

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013007314A MX2013007314A (es) 2010-12-23 2011-12-23 Metodo y aparato de codificacion de modo de intra-prediccion para unidad de prediccion de imagen, metodo y aparato de decodificacion de modo de intra-prediccion para unidad de prediccion de imagen.

Country Status (15)

Country Link
US (5) US10021384B2 (es)
EP (1) EP2645719A4 (es)
JP (2) JP2014500692A (es)
KR (5) KR101763909B1 (es)
CN (1) CN103392341A (es)
AU (1) AU2011345535B2 (es)
BR (3) BR112013016095B1 (es)
CA (2) CA2822800C (es)
MX (1) MX2013007314A (es)
MY (3) MY195713A (es)
PH (1) PH12015501606A1 (es)
RU (5) RU2595932C2 (es)
SG (1) SG191347A1 (es)
WO (1) WO2012087077A2 (es)
ZA (1) ZA201305240B (es)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9247247B2 (en) * 2010-04-13 2016-01-26 Samsung Electronics Co., Ltd. Video-encoding method and video-encoding apparatus using prediction units based on encoding units determined in accordance with a tree structure, and video-decoding method and video-decoding apparatus using prediction units based on encoding units determined in accordance with a tree structure
PL3125553T3 (pl) 2010-08-17 2018-09-28 M&K Holdings Inc. Sposób kodowania trybu intra-predykcji
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
BR112013016095B1 (pt) 2010-12-23 2022-08-16 Samsung Electronics Co., Ltd. Método de decodificar uma imagem, e método de codificar uma imagem
US20120183064A1 (en) * 2011-01-14 2012-07-19 Sony Corporation Codeword assignment for intra chroma mode signaling for hevc
CN102595121A (zh) * 2011-01-15 2012-07-18 华为技术有限公司 帧内预测模式二进制化的方法、解码方法、装置和系统
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
EP2533537A1 (en) * 2011-06-10 2012-12-12 Panasonic Corporation Transmission of picture size for image or video coding
CA2838214C (en) 2011-06-13 2019-02-12 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
KR101589388B1 (ko) * 2011-06-20 2016-01-27 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 또한 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
KR101668583B1 (ko) * 2011-06-23 2016-10-21 가부시키가이샤 제이브이씨 켄우드 화상 인코딩 장치, 화상 인코딩 방법 및 화상 인코딩 프로그램, 및 화상 디코딩 장치, 화상 디코딩 방법 및 화상 디코딩 프로그램
CN107197309B (zh) 2011-10-07 2020-02-18 英迪股份有限公司 对视频信号进行解码的方法
CN103096051B (zh) * 2011-11-04 2017-04-12 华为技术有限公司 一种图像块信号分量采样点的帧内解码方法和装置
JP2014534746A (ja) * 2011-11-07 2014-12-18 インテル コーポレイション クロスチャネル残差予測
CN103220508B (zh) 2012-01-20 2014-06-11 华为技术有限公司 编解码方法和装置
GB2503875B (en) * 2012-06-29 2015-06-10 Canon Kk Method and device for encoding or decoding an image
JP2015523030A (ja) * 2012-07-13 2015-08-06 華為技術有限公司Huawei Technologies Co.,Ltd. 3次元ビデオを表すビットストリームを符号化する装置
KR20140079661A (ko) * 2012-12-18 2014-06-27 주식회사 팬택 Mpm을 이용한 계층적 영상 복호화 방법 및 이러한 방법을 사용하는 장치
CN104871537B (zh) * 2013-03-26 2018-03-16 联发科技股份有限公司 色彩间帧内预测的方法
KR101749855B1 (ko) * 2013-04-05 2017-06-21 미쓰비시덴키 가부시키가이샤 컬러 화상 부호화 장치, 컬러 화상 복호 장치, 컬러 화상 부호화 방법 및 컬러 화상 복호 방법
US10178408B2 (en) 2013-07-19 2019-01-08 Nec Corporation Video coding device, video decoding device, video coding method, video decoding method, and program
US10321141B2 (en) 2013-12-18 2019-06-11 Hfi Innovation Inc. Method and apparatus for palette initialization and management
CN110225345B (zh) 2013-12-27 2022-07-19 寰发股份有限公司 用于主颜色索引图编码的方法及装置
CA2934743C (en) * 2013-12-27 2018-11-27 Hfi Innovation Inc. Method and apparatus for syntax redundancy removal in palette coding
EP3087738B1 (en) 2013-12-27 2019-10-02 MediaTek Inc. Method and apparatus for palette coding with cross block prediction
EP3061247A4 (en) 2014-01-07 2016-08-31 Mediatek Inc METHOD AND APPARATUS FOR COLOR INDEX PREDICTION
JP2015177295A (ja) * 2014-03-14 2015-10-05 三菱電機株式会社 端末装置及びデータ管理装置
CN103826134B (zh) * 2014-03-21 2017-08-18 华为技术有限公司 图像帧内预测方法及装置
JP6352141B2 (ja) * 2014-09-30 2018-07-04 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像圧縮伝送システム、動画像符号化方法、動画像復号方法、およびプログラム
CN108353193B (zh) * 2015-08-19 2022-07-15 Lg 电子株式会社 基于多个基于图的模型处理视频数据的方法和设备
JPWO2017061189A1 (ja) * 2015-10-05 2018-09-13 シャープ株式会社 画像復号装置または画像符号化装置のための画像予測装置
EP3367681B1 (en) * 2015-10-22 2021-03-24 LG Electronics Inc. Modeling-based image decoding method and device in image coding system
CN109155857B (zh) * 2016-03-11 2023-05-30 数字洞察力有限公司 视频编码方法以及装置
US10390021B2 (en) * 2016-03-18 2019-08-20 Mediatek Inc. Method and apparatus of video coding
FR3051309A1 (fr) * 2016-05-10 2017-11-17 Bcom Procedes et dispositifs de codage et de decodage d'un flux de donnees representatif d'au moins une image
US11146821B2 (en) * 2016-05-25 2021-10-12 Arris Enterprises Llc JVET coding block structure with asymmetrical partitioning
KR102601732B1 (ko) * 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
US10326986B2 (en) * 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10368107B2 (en) 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
CN106254886B (zh) * 2016-09-23 2020-05-22 优酷网络技术(北京)有限公司 一种基于hevc的帧内预测解码方法及装置
WO2018062921A1 (ko) * 2016-09-30 2018-04-05 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 및 인트라 예측 방법 및 장치
WO2018062699A1 (ko) * 2016-09-30 2018-04-05 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
CN109792521A (zh) * 2016-10-04 2019-05-21 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备以及存储比特流的记录介质
CN116647677A (zh) 2016-10-28 2023-08-25 韩国电子通信研究院 视频编码/解码方法和设备以及存储比特流的记录介质
JP6917719B2 (ja) * 2017-01-27 2021-08-11 日本放送協会 イントラ予測器、画像符号化装置、画像復号装置およびプログラム
US10820017B2 (en) * 2017-03-15 2020-10-27 Mediatek Inc. Method and apparatus of video coding
WO2018236028A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019059640A1 (ko) * 2017-09-19 2019-03-28 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR102418700B1 (ko) * 2017-12-04 2022-07-08 엘지전자 주식회사 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
WO2019129166A1 (en) * 2017-12-29 2019-07-04 Fg Innovation Ip Company Limited Device and method for coding video data based on mode list including different mode groups
CN111602400B (zh) 2018-01-15 2024-04-19 有限公司B1影像技术研究所 用于色度分量的帧内预测编码/解码方法和装置
US11190790B2 (en) 2018-04-01 2021-11-30 Lg Electronics Inc. Parallel processing method for color component of video signal, and device therefor
WO2019198997A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
US10609402B2 (en) * 2018-05-02 2020-03-31 Tencent America LLC Method and apparatus for prediction and transform for small blocks
US10893285B2 (en) * 2018-06-29 2021-01-12 FG Innovation Company Limited Device and method for coding video data based on one or more reference lines
RU2022109978A (ru) 2018-09-07 2022-05-04 Б1 Инститьют Оф Имидж Текнолоджи, Инк. Способ и устройство кодирования/декодирования изображения
JP7243732B2 (ja) * 2018-09-14 2023-03-22 株式会社ソシオネクスト 動画像符号化方法及び動画像符号化装置
RU2768956C1 (ru) * 2018-09-28 2022-03-25 ДжейВиСиКЕНВУД Корпорейшн Устройство декодирования изображения, способ декодирования изображения, устройство кодирования изображения и способ кодирования изображения
CN113347416B (zh) 2019-01-02 2023-06-02 Oppo广东移动通信有限公司 色度帧内预测方法和装置、及计算机存储介质
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
WO2021045491A1 (ko) * 2019-09-02 2021-03-11 엘지전자 주식회사 크로마 성분의 인트라 예측을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR20210085299A (ko) * 2019-12-30 2021-07-08 엘지디스플레이 주식회사 디스플레이 장치 및 그의 렌더링 방법
WO2021251659A1 (en) 2020-06-11 2021-12-16 Samsung Electronics Co., Ltd. Method and apparatus for performing artificial intelligence encoding and artificial intelligence decoding
CN114189688B (zh) * 2020-09-14 2023-04-11 四川大学 基于亮度模板匹配的色度分量预测方法
US20240007620A1 (en) * 2020-11-23 2024-01-04 Hyundai Motor Company Image encoding and decoding method using adaptive alternative mode
US20230108504A1 (en) * 2021-10-04 2023-04-06 Tencent America LLC On geometric partition mode with intra and inter prediction
WO2024025317A1 (ko) * 2022-07-25 2024-02-01 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09107547A (ja) 1995-10-09 1997-04-22 Hitachi Ltd 既圧縮動画データ量削減装置および既圧縮動画データ量削減システムならびに既圧縮動画データ量削減方法
DE59801516D1 (de) 1997-01-31 2001-10-25 Siemens Ag Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes
JP3164031B2 (ja) * 1997-05-30 2001-05-08 日本ビクター株式会社 動画像符号化復号化装置、動画像符号化復号化方法、及び動画像符号化記録媒体
US6625215B1 (en) 1999-06-07 2003-09-23 Lucent Technologies Inc. Methods and apparatus for context-based inter/intra coding mode selection
FI116819B (fi) 2000-01-21 2006-02-28 Nokia Corp Menetelmä kuvien lähettämiseksi ja kuvakooderi
JP3604993B2 (ja) 2000-03-16 2004-12-22 シャープ株式会社 画像符号化装置、画像符号化方法、画像復号装置、および画像復号方法
EP1244311A3 (en) 2001-03-22 2004-10-06 Sony Corporation Picture encoding
KR100508798B1 (ko) 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
US7010044B2 (en) 2003-07-18 2006-03-07 Lsi Logic Corporation Intra 4×4 modes 3, 7 and 8 availability determination intra estimation and compensation
US7369707B2 (en) * 2003-10-28 2008-05-06 Matsushita Electric Industrial Co., Ltd. Intra-picture prediction coding method
CN1823531B (zh) * 2003-12-22 2010-05-26 日本电气株式会社 编码运动图像的方法和设备
KR100813958B1 (ko) 2004-06-07 2008-03-14 세종대학교산학협력단 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치
CN100461867C (zh) * 2004-12-02 2009-02-11 中国科学院计算技术研究所 一种帧内图像预测编码方法
CN1777283A (zh) * 2004-12-31 2006-05-24 上海广电(集团)有限公司 一种基于微块的视频信号编/解码方法
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
KR100739714B1 (ko) * 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US9055298B2 (en) * 2005-07-15 2015-06-09 Qualcomm Incorporated Video encoding method enabling highly efficient partial decoding of H.264 and other transform coded information
BRPI0611672A2 (pt) 2005-07-22 2009-01-13 Mitsubishi Electric Corp codificador e decodificador de imagem, mÉtodo de codificaÇço de imagem, programa de codificaÇço de imagem, meio de gravaÇço legÍvel por computador, mÉtodo de decodificaÇço de imagem, programa de decodificaÇço de imagem, e, corrente de bits codificada por imagem
US8509551B2 (en) 2005-07-22 2013-08-13 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
RU2384970C1 (ru) 2006-01-09 2010-03-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ межслойного предсказания для видеосигнала
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
KR100865690B1 (ko) 2007-05-21 2008-10-28 한양대학교 산학협력단 고속 인트라 예측모드 결정 장치 및 방법
US8139875B2 (en) 2007-06-28 2012-03-20 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
CN103338365B (zh) 2007-06-29 2017-04-12 夏普株式会社 图像编码装置、图像编码方法、图像译码装置、图像译码方法
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR20100027384A (ko) * 2008-09-02 2010-03-11 삼성전자주식회사 예측 모드 결정 방법 및 장치
WO2010064396A1 (ja) 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
KR101033769B1 (ko) 2009-05-11 2011-05-09 선문대학교 산학협력단 영상 데이터의 인트라 예측 모드 결정 방법
JP5183573B2 (ja) * 2009-06-08 2013-04-17 三菱電機株式会社 動画像符号化装置
KR101562158B1 (ko) * 2010-07-15 2015-10-20 미쓰비시덴키 가부시키가이샤 동영상 부호화 장치, 동영상 복호 장치, 동영상 부호화 방법 및 동영상 복호 방법
BR112013016095B1 (pt) 2010-12-23 2022-08-16 Samsung Electronics Co., Ltd. Método de decodificar uma imagem, e método de codificar uma imagem
KR101953384B1 (ko) 2011-03-06 2019-03-04 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치

Also Published As

Publication number Publication date
BR112013016095A2 (pt) 2018-11-21
RU2595932C2 (ru) 2016-08-27
ZA201305240B (en) 2021-05-26
CA2973094C (en) 2020-02-18
EP2645719A2 (en) 2013-10-02
SG191347A1 (en) 2013-07-31
WO2012087077A2 (ko) 2012-06-28
JP2016105619A (ja) 2016-06-09
KR20170101840A (ko) 2017-09-06
WO2012087077A3 (ko) 2012-09-07
US11509899B2 (en) 2022-11-22
CA2822800C (en) 2017-08-29
EP2645719A4 (en) 2014-12-03
KR20150060616A (ko) 2015-06-03
JP6046840B2 (ja) 2016-12-21
RU2643476C2 (ru) 2018-02-01
RU2013134263A (ru) 2015-02-27
MY180607A (en) 2020-12-03
US20230064033A1 (en) 2023-03-02
PH12015501606A1 (en) 2017-10-30
US20180295365A1 (en) 2018-10-11
US20200221094A1 (en) 2020-07-09
CA2973094A1 (en) 2012-06-28
MY195713A (en) 2023-02-07
US20210266554A1 (en) 2021-08-26
KR102054948B1 (ko) 2019-12-11
KR20190137761A (ko) 2019-12-11
AU2011345535A1 (en) 2013-08-01
KR102154742B1 (ko) 2020-09-10
US20130272401A1 (en) 2013-10-17
KR101763909B1 (ko) 2017-08-01
BR112013016095B1 (pt) 2022-08-16
US10021384B2 (en) 2018-07-10
JP2014500692A (ja) 2014-01-09
RU2016129591A (ru) 2018-01-25
BR122021004600B1 (pt) 2022-08-16
AU2011345535B2 (en) 2015-08-20
RU2676234C1 (ru) 2018-12-26
US11070811B2 (en) 2021-07-20
RU2697628C1 (ru) 2019-08-15
MY164266A (en) 2017-11-30
KR20190077298A (ko) 2019-07-03
BR122021004598B1 (pt) 2022-08-16
RU2015104959A (ru) 2015-08-20
KR101995551B1 (ko) 2019-07-02
CA2822800A1 (en) 2012-06-28
CN103392341A (zh) 2013-11-13
US10630986B2 (en) 2020-04-21
KR20120072357A (ko) 2012-07-03

Similar Documents

Publication Publication Date Title
KR102054948B1 (ko) 영상 복호화 방법 및 장치
KR102040317B1 (ko) 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP6646078B2 (ja) 映像符号化方法、装置、及び記録媒体
MX2014000160A (es) Metodo y aparato para codificar informacion de movimento y metodo y aparato para decodificar la misma.
MX2014000163A (es) Metodo y aparato de prediccion para componente de croma de imagen que utiliza componente de luma de imagen.
AU2016203809B2 (en) Method and device for encoding intra prediction mode for image prediction unit, and method and devic
AU2015227477C1 (en) Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit

Legal Events

Date Code Title Description
FG Grant or registration