MX2013013764A - Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes. - Google Patents

Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes.

Info

Publication number
MX2013013764A
MX2013013764A MX2013013764A MX2013013764A MX2013013764A MX 2013013764 A MX2013013764 A MX 2013013764A MX 2013013764 A MX2013013764 A MX 2013013764A MX 2013013764 A MX2013013764 A MX 2013013764A MX 2013013764 A MX2013013764 A MX 2013013764A
Authority
MX
Mexico
Prior art keywords
prediction
section
ratio
image
pixel
Prior art date
Application number
MX2013013764A
Other languages
English (en)
Inventor
Kazushi Sato
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2013013764A publication Critical patent/MX2013013764A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

Se proporciona un dispositivo de procesamiento de imágenes proporcionado con: una unidad de predicción que, cuando realiza intra predicción que es una de la bases de una función de predicción construida dinámicamente, para evitar o mitigar un incremento en el costo de procesamiento necesario para construir la función de predicción, generar un valor pronosticado para la croma de un pixel de una imagen descodificada utilizando un función del valor de la luma correspondiente; una unidad de cálculo de coeficiente que calcula los coeficientes de la función utilizados por la unidad de predicción al mencionar los pixeles vecinos del bloque al cual pertenece el pixel; y una unidad de control que controla la relación del número de pixeles de referencia utilizados por la unidad de cálculo de coeficiente en el tamaño de bloque del bloque.

Description

DISPOSITIVO DE PROCESAMIENTO DE IMÁGENES Y MÉTODO DE PROCESAMIENTO DE IMÁGENES Campo Técnico La presente descripción se refiere a un dispositivo de procesamiento de imágenes, y un método de procesamiento de imágenes .
Técnica Antecedente De manera convencional, se generaliza una tecnología de compresión que tiene por objeto transmitir o acumular de manera efectiva imágenes digitales, y que comprime la cantidad de información de una imagen por la compensación de movimiento y transformada ortogonal tal como transformada de coseno discreta, por ejemplo, al utilizar redundancia única para la imagen. Por ejemplo, un dispositivo de codificación de imágenes y un dispositivo de descodificación de imágenes que conforman una tecnología estándar tal como los estándares H.26x desarrollados por ITU-T o los estándares de MPEG-y desarrollados por MPEG (Grupo de Expertos de Imágenes en Movimiento) se utilizan ampliamente en varias escenas, tal como la acumulación y distribución de imágenes por una difusora y la recepción y acumulación de imágenes por un usuario general.
Los estándares de H.26x (ITU-T Q6/16 VCEG) son estándares desarrollados de manera inicial con el objetivo de realizar codificación que sea adecuada para comunicaciones tales como videoteléfonos y videoconferencias . Se sabe que los estándares de H.26x requieren una gran cantidad de cómputo para codificar y descodificar, pero son capaces de realizar una mayor relación de compresión, en comparación con los estándares de MPEG-y. Además, con el Modelo Conjunto de Codificación de ideo de Compresión Mejorada, el cual es parte de las actividades de MPEG4, un estándar que permite la realización de una mayor relación de compresión al adoptar una nueva función que se basa en los estándares de H.26x se desarrolla. Este estándar se hizo estándar internacional bajo los nombres de H.264 y MPEG-4 Parte 10 (Codificación de Video Avanzada; AVC) en marzo de 2003.
Una técnica importante en el método de codificación de imágenes descrita en lo anterior es la predicción en pantalla, es decir, intra predicción. La intra predicción es una técnica para utilizar una correlación entre bloques adyacentes y una imagen y predecir el valor de pixel de un cierto bloque del valor de pixel de otro bloque que se encuentra adyacente para reducir por consiguiente la cantidad de información que se codifica. Con un método de codificación de imágenes anterior a MPEG4 , sólo el componente de CD y el componente de baja frecuencia de un coeficiente de transformada ortogonal eran los objetivos de la intra predicción, pero con H.264/AVC, la intra predicción es posible para todos los valores de pixeles. Al utilizar intra predicción, un incremento significativo en la relación de compresión puede esperarse para una imagen donde el cambio en el valor de pixel es gradual, tal como una imagen del cielo azul, por ejemplo.
En H.264/AVC, la intra predicción puede realizarse utilizando un bloque de por ejemplo, 4x4 pixeles, 8x8 pixeles, o 16x16 pixeles como unidad de procesamiento (es decir, una unidad de predicción (PU) ) . En HEV (Codificación de Video de Alta Eficiencia) cuya estandarización se encuentra en curso como esquema de codificación de imágenes de siguiente generación subsiguiente a H.264/AVC, el tamaño de la unidad de predicción, está a punto de extenderse a 32x32 pixeles y 64x64 pixeles (véase Literatura que no es Patente 1) .
Para realizar una intra predicción, el modo de predicción óptima para predecir un valor de pixel de un bloque a predecir se selecciona normalmente a partir de una pluralidad de modos de predicción. El modo de predicción típicamente se distingue por la dirección de predicción desde un pixel de referencia hasta un pixel a predecirse. En H.264/AVC, por ejemplo, cuando se predice un componente de diferencia de color, cuatro modos de predicción de la predicción de valor promedio, la predicción horizontal, la predicción vertical y la predicción de plano puede seleccionarse. Además, en HEVC, un modo de predicción adicional denominado modo de modelo lineal (LM) que predice el valor de pixel de un componente de diferencia de color que utiliza una función lineal de un componente de luminancia dinámicamente construido como función de predicción se propone (véase Literatura que No es Patente 2) .
Lista de Citas Literatura que No es Patente Literatura que No es Patente 1: Sung-Chang Lim, Hahyun Lee, Jinho Lee, Jongho Kim, Haechul Choi, Seyoon Jeong, Jin Soo Choi, "Intracodificación utilizando tamaño de bloque extendido" (VCEG-AL28 , julio de 2009) Literatura que No es Patente 2: Jianle Chen, et al., "CE6.a.4: Intra predicción croma por muestras de luma reconstruida" (JCTVC-E266 , marzo del 2011).
Compendio de la Invención Problema Técnico De acuerdo con la técnica descrita en la Literatura que No es Patente 2 descrita en lo anterior, sin embargo, el costo de procesamiento necesario para construir una función de predicción en el modo de LM incrementa con un número en incremento de pixeles de referencia. De esta manera, en HEVC en la cual el tamaño de la unidad de predicción se extiende hasta 64x64 pixeles, el incremento de costo de procesamiento a través de la adopción del modo de LM podría degradar el rendimiento de la codificación y descodificación.
Por lo tanto, cuando, similar al modo de LM, la intra predicción basada en una función de predicción dinámicamente construida se realiza, es deseable que una técnica capaz de evitar o mitigar un incremento en el costo de procesamiento necesario para construir una función de predicción se proporcione.
Solución al Problema De acuerdo con la presente descripción, se proporciona un aparato de procesamiento de imágenes que incluye una sección de predicción que genera un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se descodificará al utilizar una función de un valor de un componente de luminancia correspondiente, una sección de cálculo de coeficiente que calcula un coeficiente de la función utilizada por la sección de predicción al hacer referencia a un pixel alrededor de un bloque al cual pertenece el pixel, y un controlador que controla una relación de un número de pixeles de referencia utilizados por la sección de cálculo de coeficiente en un tamaño de bloque del bloque.
El dispositivo de procesamiento de imágenes mencionado en lo anterior puede realizarse típicamente como dispositivo de descodificación de imágenes que descodifica una imagen .
Además, de acuerdo con una modalidad de la presente descripción, se proporciona un método de procesamiento de imágenes que incluye generar un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que va a descodificarse al utilizar una función de un valor de componente de luminancia correspondiente, calcular el coeficiente de la función al hacer referencia a un pixel alrededor de un bloque al cual pertenece el pixel, y controlar una relación de un número de pixeles de referencia utilizados para calcular el coeficiente en un tamaño de bloque del bloque.
Además, de acuerdo con una modalidad de la presente descripción, se proporciona un aparato de procesamiento de imágenes que incluye una sección de predicción que genera un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que va a codificarse al utilizar una función de un valor de un componente de luminancia correspondiente, una sección de cálculo de coeficiente que calcula un coeficiente de la función utilizada por la sección de predicción al hacer referencia a un pixel alrededor de un bloque al cual pertenece el pixel, y un controlador que controla una relación de un número de pixeles de referencia utilizados por la sección de cálculo de coeficiente en un tamaño de bloque del bloque.
El dispositivo de procesamiento de imágenes mencionado en lo anterior puede realizarse típicamente como dispositivo de codificación de imágenes que codifica una imagen.
Además, de acuerdo con una modalidad de la presente descripción, se proporciona un método de procesamiento de imágenes que incluye generar un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que va a codificarse al utilizar una función de un valor de un componente de luminancia correspondiente, calcular un coeficiente de la función al hacer referencia al pixel alrededor de un bloque al cual pertenece el pixel, y controlar una relación de un número de pixeles de referencia utilizados para calcular el coeficiente en un tamaño de bloque del bloque .
Además, de acuerdo con una modalidad de la presente descripción, se proporciona un aparato de procesamiento de imágenes que incluye una sección de predicción que hace una intra predicción de un componente de diferencia de color de una imagen utilizando un componente de luminancia de la imagen que va a descodificarse, y un controlador que controla de manera variable un pixel de referencia mencionado cuando la intra predicción se realiza por la sección de predicción.
El aparato de procesamiento de imágenes puede realizarse como dispositivo de codificación de imágenes que codifica imágenes o como dispositivo de descodificación de imágenes que descodifica imágenes.
Además, de acuerdo con una modalidad de la presente descripción, se proporciona un método de procesamiento de imágenes que incluye realizar una intra predicción de un componente de diferencia de color de una imagen utilizando un componente de luminancia de la imagen que va a descodificarse, y controlar variablemente un pixel de referencia mencionado cuando el intra predicción del componente de diferencia de color se realiza.
Efectos Ventajosos de la Invención De acuerdo con la tecnología en la presente descripción, cuando la intra predicción basada en una función de predicción dinámicamente construida se realiza, un incremento en el costo de procesamiento necesario para construir una función de predicción puede evitarse o mitigarse .
Breve Descripción de los Dibujos La FIGURA 1 es un diagrama de bloque que muestra un ejemplo de una configuración de un dispositivo de codificación de imágenes de acuerdo con una modalidad.
La FIGURA 2 es un diagrama de bloque que muestra un ejemplo de una configuración detallada de una sección de intra predicción del dispositivo de codificación de imágenes de la modalidad.
La FIGURA 3 es una vista explicativa que ilustra ejemplos de los candidatos de modo de predicción para un componente de luminancia de una unidad de predicción de 4x4 pixeles .
La FIGURA 4 es una vista explicativa que ilustra direcciones de predicción relacionadas con los ejemplos en la FIGURA 3.
La FIGURA 5 es una vista explicativa que ilustra pixeles de referencia relacionados con los ejemplos en la FIGURA 3.
La FIGURA 6 es una vista explicativa que ilustra ejemplos de los candidatos de modo de predicción para un componente de luminancia de una unidad de predicción de 8x8 pixeles .
La FIGURA 7 es una vista explicativa que ilustra ejemplos de los candidatos de modo de predicción para un componente de luminancia de una unidad de predicción de 16x16 pixeles .
La FIGURA 8 es una vista explicativa que ilustra ejemplos de los candidatos de modo de predicción para un componente de diferencia de color.
La FIGURA 9A es una primera vista explicativa que ilustra pixeles de referencia en el modo de LM.
La FIGURA 9B es una segunda vista explicativa que ilustra pixeles de referencia en el modo de LM.
La FIGURA 10 es una vista explicativa que muestra un ejemplo de la definición de una relación de referencia en un primer escenario.
La FIGURA 11A es una vista explicativa que muestra un primer ejemplo del número de pixeles de referencia controlados de acuerdo con el primer escenario.
La FIGURA 11B es una vista explicativa que muestra un segundo ejemplo del número de pixeles de referencia controlados de acuerdo con el primer escenario.
La FIGURA 12 es una vista explicativa que muestra un ejemplo de la definición de una relación de referencia en un segundo escenario.
La FIGURA 13A es una vista explicativa que muestra un primer ejemplo del número de pixeles de referencia controlados de acuerdo con el segundo escenario.
La FIGURA 13B es una vista explicativa que muestra un segundo ejemplo del número de pixeles de referencia controlados de acuerdo con el segundo escenario.
La FIGURA 13C es una vista explicativa que muestra un tercer ejemplo del número de pixeles de referencia controlados de acuerdo con el segundo escenario.
La FIGURA 13D es una vista explicativa que muestra un cuarto ejemplo del número de pixeles de referencia controlados de acuerdo con el segundo escenario.
La FIGURA 14 es una vista explicativa que muestra un ejemplo de la definición de una relación de referencia en un tercer escenario.
La FIGURA 15A es una vista explicativa que muestra un primer ejemplo del número de pixeles de referencia controlados de acuerdo con el tercer escenario.
La FIGURA 15B es una vista explicativa que muestra un segundo ejemplo del número de pixeles de referencia controlados de acuerdo con el tercer escenario.
La FIGURA 16 es una vista explicativa que muestra un ejemplo de la definición de una relación de referencia en un cuarto escenario.
La FIGURA 17A es una vista explicativa que muestra un primer ejemplo del número de pixeles de referencia controlados de acuerdo con el cuarto escenario.
La FIGURA 17B es una vista explicativa que muestra un segundo ejemplo del número de pixeles de referencia controlados de acuerdo con el cuarto escenario.
La FIGURA 18A es una vista explicativa que muestra un primer ejemplo del número de pixeles de referencia controlados de acuerdo con un quinto escenario.
La FIGURA 18B es una vista explicativa que muestra un segundo ejemplo del número de pixeles de referencia controlados de acuerdo con el quinto escenario.
La FIGURA 19 es un diagrama de flujo que muestra un ejemplo del proceso de intra predicción al momento de codificar de acuerdo con la modalidad.
La FIGURA 20 es un diagrama de flujo que muestra un ejemplo de un flujo detallado del procesamiento de predicción de modo de LM en la FIGURA 19.
La FIGURA 21 es un diagrama de bloque que muestra un ejemplo de una configuración detallada del dispositivo de descodificación de imágenes de acuerdo con la modalidad.
La FIGURA 22 es un diagrama de bloque que muestra un ejemplo de la configuración detallada de la sección de intra predicción del dispositivo de descodificación de imágenes de acuerdo con la modalidad.
La FIGURA 23 es un diagrama de flujo que muestra un ejemplo de un flujo de proceso de intra predicción al momento de ' la descodificación de acuerdo con una modalidad.
La FIGURA 24 es una vista explicativa que ilustra el tamaño de una memoria que contiene un valor de pixel después de que se vuelve a mezclar el componente de luminancia .
La FIGURA 25 es una vista explicativa que ilustra un ejemplo de adelgazamiento de acuerdo con una primera modificación .
La FIGURA 26A es una primera vista explicativa que ilustra una proporción de adelgazamiento diferente del ejemplo en la FIGURA 25.
La FIGURA 26B es una segunda vista explicativa que ilustra una proporción de adelgazamiento diferente del ejemplo en la FIGURA 25.
La FIGURA 26C es una tercera vista explicativa que ilustra una proporción de adelgazamiento diferente del ejemplo en la FIGURA 25.
La FIGURA 27A es una vista explicativa que ilustra un primer ejemplo de la correspondencia entre las posiciones de adelgazamiento de pixeles de referencia y posiciones de adelgazamiento de componentes de luminancia.
La FIGURA 27B es una vista explicativa que ilustra un segundo ejemplo de la correspondencia entre las posiciones de adelgazamiento de pixeles de referencia y posiciones de adelgazamiento de componentes de luminancia.
La FIGURA 28 es una vista explicativa que ilustra el orden del nuevo procesamiento adoptado para una segunda modificación .
La FIGURA 29 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de una televisión.
La FIGURA 30 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de un teléfono móvil .
La FIGURA 31 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de un dispositivo de grabación/reproducción.
La FIGURA 32 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de un dispositivo de captura de imágenes .
Descripción de las Modalidades Después de esto, se describirán en detalle modalidades preferidas de la presente invención con referencia a los dibujos anexos. Observe que, en esta especificación y los dibujos, elementos que tienen sustancialmente la misma función y estructura se denominan con los mismos signos de referencia, y se omite una explicación repetida.
Además, la "Descripción de las Modalidades" se describirá en el orden mencionado a continuación. 1. Configuración Ejemplar del Dispositivo de Codificación de Imágenes de Acuerdo con una Modalidad 2. Flujo de Proceso al Momento de la Codificación de Acuerdo con una Modalidad 3. Configuración Ejemplar del Dispositivo de Descodificación de Imágenes de Acuerdo con una Modalidad 4. Flujo de Proceso al Momento de la Descodificación de Acuerdo con una Modalidad 5. Modificaciones 6. Aplicación Ejemplar 7. Compendio <1. Configuración Ejemplar del Dispositivo de Codificación de Imágenes de Acuerdo con una Modalidad> 1-1. Ejemplo de Configuración General La FIGURA 1 es un diagrama de bloque que muestra un ejemplo de una configuración de un dispositivo 10 de codificación de imágenes de acuerdo con una modalidad. Con referencia a la FIGURA 1, el dispositivo 10 de codificación de imágenes incluye una sección 11 de conversión de A/D (Análogo a Digital) , una memoria intermedia 12 de clasificación, una sección 13 de sustracción, una sección 14 de transformada ortogonal, una sección 15 de cuantificación, una sección 16 de codificación sin pérdidas, una memoria intermedia 17 de acumulación, una sección 18 de control de proporción, una sección 21 de cuantificación inversa, una sección 22 de transformada ortogonal inversa, una sección 23 de adición, un filtro 24 de desbloqueo, una memoria 25 de tramas, selectores 26 y 27, una sección 30 de estimación de movimiento y una sección 40 de intra predicción.
La sección 11 de conversión de A/D convierte una entrada de señal de imagen en un formato análogo en datos de imagen en un formato digital, y produce una serie de datos de imagen digital en la memoria intermedia 12 de clasificación.
La memoria intermedia 12 de clasificación clasifica las imágenes incluidas en la serie de datos de imagen ingresada desde la sección 11 de conversión de A/D. Después de clasificar las imágenes de acuerdo con una estructura de GOP (Grupo de Imágenes) de acuerdo con el proceso de codificación, la memoria intermedia 12 de clasificación produce los datos de imágenes que se han clasificado en la sección 13 de sustracción, la sección 30 de estimación de movimiento y la sección 40 de intra predicción.
El dato de imagen ingresado desde la memoria intermedia 12 de clasificación y los datos de imagen pronosticados ingresados por la sección 30 de estimación de movimiento o la sección 40 de intra predicción descritas posteriormente se suministran a la sección 13 de sustracción. La sección 13 de sustracción calcula los datos de error pronosticados que son una diferencia entre los datos de imagen ingresados desde la memoria intermedia 12 de clasificación y los datos de imagen pronosticados y produce los datos de error pronosticados calculados en la sección 14 de transformada ortogonal.
La sección 14 de transformada ortogonal realiza transformada ortogonal en los datos de error pronosticados ingresados desde la sección 13 de sustracción. La transformada ortogonal que se realiza por la sección 14 de transformada ortogonal puede ser una transformada de coseno discreto (DCT) o una transformada de Karhunen-Loeve, por ejemplo. La sección 14 de transformada ortogonal produce los datos de coeficiente de transformada adquiridos por el proceso de transformada ortogonal en la sección 15 de cuantificación.
Los datos de coeficiente de transformada ingresados desde la sección 14 de transformada ortogonal y una señal de control de proporción desde la sección 18 de control de proporción descrita posteriormente se suministran a la sección 15 de cuantificación . La sección 15 de cuantificación cuantifica los datos de coeficiente de transformada, y produce los datos de coeficiente de transformada que se han cuantificado (después de esto, denominados como datos cuantificados) en la sección 16 de codificación sin pérdidas y la sección 21 de cuantificación inversa. También, la sección 15 de cuantificación conmuta un parámetro de cuantificación (una escala de cuantificación) basándose en la señal de control de proporción de la sección 18 de control de proporción para cambiar por consiguiente el índice de bit de los datos cuantificados que se ingresan a la sección 16 de codificación sin pérdidas.
La sección 16 de codificación sin pérdidas genera una corriente codificada al realizar procesamiento de codificación sin pérdidas en los datos cuantificados ingresados desde la sección 15 de cuantificación. La codificación sin pérdidas mediante la sección 16 de codificación sin pérdidas, por ejemplo, puede ser una codificación de longitud variable o codificación aritmética. También, la sección 16 de codificación sin pérdidas multiplexa la información en una intra predicción o información sobre una intra predicción ingresada desde el selector 27 en una„ región de encabezado de la corriente codificada. Después, la sección 16 de codificación sin pérdidas produce la corriente codificada generada en la memoria intermedia 17 de acumulación.
La memoria intermedia 17 de acumulación almacena temporalmente una corriente codificada ingresada desde la sección 16 de codificación sin pérdidas utilizando un medio de almacenamiento tal como una memoria de semiconductor. Después, la memoria intermedia 17 de acumulación produce las corrientes codificadas acumuladas con una sección de transmisión (no mostrada) (por ejemplo, una interfaz de comunicación o una interfaz de conexión en un dispositivo periférico) en una proporción de acuerdo con la banda de la línea de transmisión.
La sección 18 de control de proporción monitorea el espacio libre de la memoria intermedia 17 de acumulación. Después, la sección 18 de control de proporción genera una señal de control de proporción de acuerdo con el espacio libre en la memoria intermedia 17 de acumulación, y produce la señal de control de proporción generada en la sección 15 de cuantificación. Por ejemplo, cuando no existe mucho espacio libre en la memoria intermedia 17 de acumulación, la sección 18 de control de proporción genera una señal de control de proporción para producir el índice de bits de los datos cuantificados . También, por ejemplo, cuando el espacio libre en la memoria intermedia 17 de acumulación es lo suficientemente grande, la sección 18 de control de proporción genera una señal de control de proporción para incrementar el índice de bit de los datos cuantificados .
La sección 21 de cuantificación inversa realiza un proceso de cuantificación inversa en los datos cuantificados ingresados desde la sección 15 de cuantificación . Después, la sección 21 de cuantificación inversa produce los datos del coeficiente de transformada adquiridos por el proceso de cuantificación inversa en la sección 22 de transformada ortogonal inversa.
La sección 22 de transformada ortogonal inversa realiza un proceso de transformada ortogonal inversa en los datos de coeficiente de transformada ingresados desde la sección 21 de cuantificación inversa para restablecer por consiguiente los datos de error pronosticados. Después, la sección 22 de transformada ortogonal inversa produce los datos de error pronosticados restablecidos en la sección 23 de adición.
La sección 23 de adición agrega los datos de error pronosticados restablecidos ingresados desde la sección 22 de transformada ortogonal inversa y los datos de imagen pronosticados e ingresados desde la sección 30 de estimación de movimiento o la sección 40 de intra predicción para generar por este medio los datos de imágenes descodificados. Después, la sección 23 de adición produce los datos de imagen descodificados generados en el filtro 24 de desbloqueo y la memoria 25 de tramas.
El filtro 24 de desbloqueo realiza un proceso de filtración para reducir la distorsión de bloques que se presenta al momento de la codificación de una imagen. El filtro 24 de desbloqueo filtra los datos de imagen descodificados ingresados desde la sección 23 de adición para remover la distorsión de bloque, y produce los datos de imagen descodificados después de la filtración en la memoria 25 de tramas.
La memoria 25 de tramas almacena, utilizando un medio de almacenamiento, los datos de imagen descodificados ingresados desde la sección 23 de adición y los datos de imagen descodificados después de la filtración ingresada desde el filtro 24 de desbloqueo.
El selector 26 lee los datos de imágenes descodificados después de filtrar los cuales se utilizarán para la inter predicción de la memoria 25 de tramas, y suministra los datos de imágenes codificados que se han leído en la sección 30 de estimación de movimiento como datos de imagen de referencia. También, el selector 26 lee los datos de imágenes descodificados antes de la aplicación que se utilizarán para intra predicción desde la memoria 25 de tramas, y suministra los datos de imágenes descodificados que se han leído en la sección 40 de intra predicción como datos de imagen de referencia.
En el modo de inter predicción, el selector 27 produce los datos de imagen pronosticados que son resultado de la inter predicción producida desde la sección 30 de estimación de movimiento en la sección 13 de sustracción, y también, produce la información sobre inter predicción en la sección 16 de codificación sin pérdidas. Además, en el modo de intra predicción, el selector 27 produce los datos de imagen pronosticados que son resultado de la intra predicción producida desde la sección 40 de intra predicción en la sección 13 de sustracción, y también, produce la información sobre la intra predicción en la sección 16 de codificación sin pérdidas. El selector 27 conmuta entre el modo de inter predicción y el modo de intra predicción dependiendo del tamaño de una función de costos producida desde la sección 30 de estimación de movimiento o la sección 40 de intra predicción .
La sección 30 de estimación de movimiento realiza el procesamiento de inter predicción (procesamiento de predicción inter-tramas) basado en los datos de imagen (datos de imagen originales) que se codifican e ingresan desde la memoria intermedia 12 de reorganización y los datos de imagen descodificados y suministrados mediante el selector 26. Por ejemplo, la sección 30 de estimación de movimiento evalúa los resultados de predicción por cada modo de predicción utilizando una función de costo predeterminada. Después, la sección 30 de estimación de movimiento selecciona el modo de predicción que produce el valor de función de costo mínimo. Es decir, el modo de predicción que produce la relación de compresión más alta como el modo de predicción óptimo. También, la sección 30 de estimación de movimiento genera datos de imagen pronosticados de acuerdo con el modo de predicción óptimo. Entonces la sección 30 de estimación de movimiento produce la información del modo de predicción que indica el modo de predicción óptimo seleccionado, la información sobre las interpredicciones que incluyen la información de vector de movimiento y la información de imagen de referencia, el valor de función de costo, y los datos de imagen pronosticados al selector 27.
La sección 40 de intra predicción realiza procesamiento intra predicción en cada bloque establecido dentro de una imagen basándose en los datos de imagen originales ingresados desde la memoria intermedia 12 de reorganización y los datos de imagen descodificados como datos de imagen de referencia suministrados de la memoria 25 de tramas. Después, la sección 40 de intra predicción produce la información en intrapredicciones , que incluye una información de modo de predicción que indica el modo, de predicción óptimo y la información relacionada con el tamaño, el valor de función de costo, y los datos de imagen pronosticados por el selector 27. Los modos de predicción que pueden seleccionarse por la sección 40 de intra predicción incluyen, además de los modos de intra predicción existentes, un modo de modelo lineal (LM) sobre los componentes de diferencia de color. En contraste al nodo de LM descrito en la Literatura que No es Patente 2 descrita en lo anterior, el modo de LM en la presente modalidad se caracteriza porque la relación del número de pixeles de referencia por el tamaño del bloque puede cambiar. El procesamiento intra predicción mediante la sección 40 de intra predicción se describirá posteriormente en detalle. 1-2. Ejemplo de Configuración de la Sección de Intra Predicción La FIGURA 2 es un diagrama de bloque que muestra un ejemplo de una configuración detallada de la sección 40 de intra predicción de un dispositivo 10 de codificación de imágenes mostrado en la FIGURA 1. Con referencia a la FIGURA 2, la sección 40 de intra predicción incluye un controlador 42 de predicción, una sección 44 de cálculo de coeficiente, una sección 46 de predicción, y una sección 48 de determinación de modo.
El controlador 42 de predicción controla el procesamiento de intra predicción mediante la sección 40 de intra predicción. Por ejemplo, el controlador 42 de predicción realiza procesamiento intra predicción del componente de luminancia (Y) y después realiza procesamiento de intra predicción de los componentes de diferencia de color (Cb, Cr) en unidades de codificación (CU) . En el procesamiento intra predicción del componente de luminancia, el controlador 42 de predicción provoca que la sección 46 de predicción genere un valor de pixel pronosticado de cada pixel en una pluralidad de modos de predicción y provoca que la sección 48 de determinación de modo determine un modo de predicción óptimo del componente de luminancia. Como resultado, la disposición de las unidades de predicción en la unidad de codificación también se decide. En el procesamiento de intra predicción de los componentes de diferencia de color, el controlador 42 de predicción provoca que la sección 46 de predicción genere un valor de pixel pronosticado de cada pixel en una pluralidad de modos de predicción para cada unidad de predicción y provoca que la sección 48 de determinación de modo determine el modo de predicción óptimo de los componentes de diferencia de color.
Los candidatos del modo de predicción para el componente de luminancia pueden ser un modo de predicción adoptado por un esquema de codificación de imágenes existente tal como H.264/AVC o un modo de predicción diferente. Los candidatos del modo de predicción para el componente de diferencia de color también pueden contener un modo de predicción adoptado por un esquema de codificación de imágenes existente. Además, los candidatos de modo de predicción para el componente de diferencia de color contienen el modo de LM antes mencionado. De acuerdo con la técnica descrita en la Literatura que No es Patente 2 descrita en lo anterior, la relación del número de pixeles de referencia con el tamaño de bloque cuando se calculan coeficientes de una función de predicción del modo de LM es constante. Por lo tanto, el número de pixeles de referencia incrementa de manera correspondiente con un tamaño de bloque en incremento. En la presente modalidad, por otro lado, el controlador 42 de predicción controla la relación anterior de manera variable. El tamaño de bloque aquí es un principio de un tamaño de la unidad de predicción. La relación antes mencionada controlada por el controlador 42 de predicción es decir, la relación del número de pixeles de referencia con el tamaño de bloque en la presente se denominará como "relación de referencia" . El control de la relación de referencia por el controlador 42 de predicción típicamente se realiza de acuerdo con el tamaño de bloque. Además, el controlador 42 de predicción puede controlar la relación de referencia de acuerdo con un formato croma que afecta el tamaño de bloque del componente de diferencia de color que corresponde con la unidad de predicción. El controlador 42 de predicción también puede controlar la relación de referencia de acuerdo "con parámetros (por ejemplo, un perfil o nivel) que define capacidades de un dispositivo para codificar y descodificar imágenes . Una pluralidad de escenarios para controlar la relación de referencia por el controlador 42 de predicción se describirá posteriormente en mayor detalle.
La sección 44 de cálculo de coeficiente calcula los coeficientes de una función de predicción utilizada por la sección 46 de predicción en el modo de LM al referirse a pixeles alrededor de la unidad de predicción a la cual pertenece el pixel que va a predecirse, es decir, pixeles de referencia. La función de predicción utilizada por la sección 46 de predicción típicamente es una función lineal del valor del componente de luminancia. El número de pixeles de referencia mencionado por la sección 44 de cálculo de coeficiente para calcular coeficientes de una función de predicción se controla por, como se describe en lo anterior, el controlador 42 de predicción.
La sección 46 de predicción predice el valor de pixel del componente de luminancia y el valor de pixel del componente de diferencia de color de un pixel que va a predecirse de acuerdo con varias cantidades del modo de predicción bajo el control del controlador 42 de predicción. Ejemplos de cantidades de modo de predicción utilizadas por la sección 46 de predicción se describirán posteriormente en mayor detalle. Los datos de imagen pronosticados generados como resultado de la predicción por la sección 46 de predicción se producen en la sección 48 de terminación de modo para cada modo de predicción.
La sección 48 de determinación de modo calcula el valor de función de costo de cada modo de predicción basándose en los datos de imagen originales ingresados desde la memoria intermedia 12 de reorganización y los datos de imagen pronosticados ingresados desde la sección 46 de predicción. Después, basándose en el valor de función de costo calculado, la sección 48 de determinación de modo decide el modo de predicción óptimo para el componente de luminancia y la disposición de unidades de predicción dentro de la unidad de codificación. De manera similar, basándose en el valor de función de costo del componente de diferencia de color, la sección 48 de determinación de modo decide el modo de predicción óptimo para el componente de diferencia de color. Después, la sección 48 de determinación de modo produce la información sobre intra predicciones que incluye la información de modo de predicción que indica el modo de predicción óptimo decidido y la información relacionada con el tamaño, el valor de función de costo, y los datos de imagen pronosticados que incluyen los valores de pixeles pronosticados del componente de luminancia y el componente de diferencia de color al selector 27. La información relacionada con el tamaño producido desde la sección 48 de determinación de modo puede contener, además de la información para identificar el tamaño de cada unidad de predicción, información que especifica el formato croma. 1-3. Candidatos de Modo de Predicción A continuación, los candidatos de modo de predicción que pueden utilizarse por la sección 46 de predicción de la sección 40 de intra predicción se describirán. (1) Candidatos de modo de predicción para el componente de luminancia Los candidatos de modo de predicción para el componente de luminancia pueden ser un modo de predicción adoptado por un esquema de codificación de imágenes existentes tal como H.264/AVC. Las FIGURAS 3 a 5 son vistas explicativas que ilustran tales candidatos de modo de predicción cuando el tamaño de la unidad de predicción es de 4x4 pixeles.
Con referencia a la FIGURA 3 , nueve modos de predicción (Modo 0 a Modo 8) que pueden utilizarse para la unidad de predicción de 4x4 pixeles se muestran. En la FIGURA 4, la dirección de predicción que corresponde con cada número de modo se muestra esquemáticamente. En la FIGURA 5, los caracteres alfabéticos en minúsculas de la a a la p representan el valor de pixel de cada pixel (es decir, cada pixel que se pronosticará) en la unidad de predicción de 4x4 pixeles. Rz(z=a, b, m) alrededor de la unidad de predicción representa el valor de pixel de un pixel de referencia codificado.
Por ejemplo, la dirección de predicción en el Modo 0 es una dirección vertical, y cada valor de pixel pronosticado se calcula como sigue: a=e=i=m=Ra b=f=j=n=Rb c=g=k=o=Rc d=h=l=p=Rd La dirección de predicción en el Modo 1 es horizontal, y cada valor de pixel pronosticado se calcula como sigue: a=b=c=d=Ri e=f=g=h=RJ Í=j=k=l=Rk m=n=o=p=Rl Modo 2 representa la predicción de CD (predicción de valor promedio) y cada valor de pixel pronosticado se calcula de acuerdo con una de las siguientes cuatro fórmulas dependiendo de qué pixel de referencia pueda utilizarse. a=b=...=p= (Ra+Rb+Rc+Rd+Ri+Rj +Rk+Rl+4 ) >>3 a=b=...=p= (Ra+Rb+Rc+Rd+2) >>2 a=b=...=p= (Ri+Rj +Rk+Rl+2) >>2 a=b=...=p=128 La dirección de predicción en el Modo 3 es diagonal abajo izquierda, y cada valor de pixel pronosticado- se calcula como sigue: a= (Ra+2Rb+Rc+2) >>2 b=e= (Rb+2Rc+Rd+2) »2 c=f=i= (RC+2Rd+Re+2) >>2 d=g=j =m= (Rd+2Re+Rf+2) >>2 h=k=n= (Re+2Rf+Rg+2) >>2 l=o= (Rf+2Rg+Rh+2) >>2 p= (Rg+3Rh+2) >>2 La dirección de predicción en el Modo 4 es diagonal abajo derecha, y cada valor de pixel pronosticado se calcula como sigue: m= (Rj+2Rk+Rl+2) »2 i=n= (Ri+2Rj +Rk+2) >>2 e=j=o= (Rm+2Ri+Rj +2) >>2 a=f=k=p= (Ra+2Rra+Ri+2) >>2 b=g=l= (Rm+2Ra+Rb+2) >>2 c=h= (Ra+2Rb+Rc+2) »2 d= (Rb+2Rc+Rd+2) >>2 La dirección de predicción en el Modo 5 es vertical derecha, y cada valor de pixel pronosticado se calcula como sigue : a=j = (Rm+Ra+1) >>1 b=k= (Ra+Rb+1) >>1 c=l= (Rb+Rc+1) >>1 d= (Rc+Rd+1) >>1 e=n= (Ri+2Rm+Ra+2) >>2 f=0= (Rm+2Ra+Rb+2) >>2 g=p= (Ra+2Rb+Rc+2) >>2 h= (Rb+2Rc+Rd+2) >>2 i= (Rm+2Ri+Rj+2) >>2 m= (Ri+2Rj+Rk+2) >>2 La dirección de predicción en el Modo 6 es horizontal abajo, y cada valor de pixel pronosticado se calcula como sigue: a=g= (Rm+Ri+1) >>1 b=h= (Ri+2Rra=Ra+2) >>2 c= (Rm+2Ra+Rb+2) >>2 d (Ra+2Rb+Rc+2) >>2 e=k= (Ri+Rj +1) >>1 f=l= (Rm+2Ri+Rj+2) >>2 i=o= (Rj +Rk+1) >>1 j =p= (Ri+2Rj +Rk+2 ) >>2 m= (Rk+Rl+1) >>1 n= (Rj +2Rk+Rl+2) >>2 La dirección de predicción en el Modo 7 es vertical izquierda, y cada valor de pixel pronosticado se calcula como sigue : a= (Ra+rb+1) >>1 b=i= (Rb+Rc+l) >>l c=j= (Rc+Rd+1) >>1 d=k= (Rd+Re+1) >>1 1= (Re+Rf+1) >>1 e= (Ra+2Rb+Rc+2) »2 f=m= (Rb+2Rc+Rd+2) »2 g=n= (Rc+2Rd+Re+2) >>2 h=o= (Rd+2Re+Rf+2) >>2 p= (Re+2Rf+Rg+2) >>2 La dirección de predicción en el Modo 8 es horizontal arriba, y cada valor de pixel pronosticado se calcula como sigue: a= (Ri+Rj +1) >>1 b= (Ri+2Rj +Rk+2 ) »2 c=e= (Rj+Rk+1) >>1 d=f= (Rj+2Rk+Rl+2) »2 g=i= (Rk+Rl+1) >>1 h=j= (Rk+3Rl+2) >>2 k=l=m=n=o=p=Rl Con referencia a la FIGURA 6 , nueve modos de predicción (Modo 0 a Modo 8) que pueden utilizarse para la unidad de predicción de los 8x8 pixeles se muestran. La dirección de predicción en el Modo 0 es vertical. La dirección de predicción en el Modo 1 es horizontal. El Modo 2 representa la predicción de CD (predicción de valor promedio. La dirección de predicción en el Modo 3 es DIAGONAL_ABAJO_IZQUIERDA. La dirección de predicción en el Modo 4 es DIAGONAL_ABAJO_DERECHA. La dirección de predicción en el Modo 5 es VERTICAL_DERECHA. La dirección de predicción en el Modo 6 es HORIZONTAL_ABAJO . La dirección de predicción en el Modo 7 es VERTICAL_IZQUIERDA. La dirección de predicción en el Modo 8 es HORIZONTAL_ARRIBA.
Con referencia a la FIGURA 7, cuatro modos de predicción (Modo 0 a Modo 3) que pueden utilizarse para la unidad de predicción de los 16x16 pixeles se muestran. La dirección de predicción en el Modo 0 es vertical. La dirección de predicción en el Modo 1 es horizontal. El Modo 2 representa la predicción de CD (predicción de valor promedio) . El Modo 3 representa la predicción de plano. (2) Candidatos de modo de predicción para el componente de diferencia de color El modo de predicción para el componente de diferencia de color puede seleccionarse de manera independiente del modo de predicción para el componente de luminancia. En la FIGURA 8, entre los candidatos de modo de predicción que pueden utilizarse cuando el tamaño de bloque del componente de diferencia de color es de 8x8 pixeles, cuatro modos de predicción (Modo 0 a Modo 3) adoptados para los esquemas de codificación de imágenes existentes tales como H.264/AVC se muestran.
El Modo 0 representa la predicción de CD (predicción de valor promedio) . Aquí, el valor de pixel pronosticado de la posición de pixel (x, y) se representa como Prc(x, y), ocho valores de pixel de referencia a la izquierda se representan como Rec(-l,n), y ocho valores de pixel de referencia superior se representan como Rec(n,-1). C como subíndice significa el componente de diferencia de color, n es un número entero igual a 0 o más y es igual a 7 o menos. Después, el valor de pixel pronosticado Prc(x,y) se calcula de acuerdo con una de las siguientes tres fórmulas dependiendo de qué pixeles de referencia se encuentren disponibles.
Ecuación Matemática 1 La dirección de predicción en el Modo 1 es horizontal, y el valor de pixel pronosticado Prc(x,y) se calcula como sigue: Ecuación Matemática 2 La dirección de predicción en el Modo 2 es vertical, y el valor de pixel pronosticado Prc(x,y) se calcula como sigue: Ecuación Matemática 3 Prc[x,y] = Rec[x,-l] El Modo 3 representa la predicción de plano. El valor de pixel pronosticado Prc(x,y) se calcula como sigue: Ecuación Matemática 4 Prc[x, y] =n»»«.(e + b · (x-3)+ c¦ (y-3)+16) » 5 a =16 · (Rec[~l,7]+Rec[7,-1]) ¿> =(17.H+16)»5 c =(17- +16)»5 Además, en la presente modalidad, el modo de LM (como Modo 4, por ejemplo) que se describirá en la siguiente sección puede seleccionarse. 1-4. Detalles del Modo de LM En el modo de LM, el valor de pixel pronosticado para el componente de diferencia de color se calcula al utilizar una función lineal del valor del componente de luminancia correspondiente. Por ejemplo, la función de predicción utilizada en el modo de LM puede ser la siguiente función lineal descrita en la Literatura que No Es Patente 2 : Ecuación Matemática 5 t Prc[x,j/] = ar-Rfi£ [x,y] + fl U) En la Fórmula (1) , ReL' (x,y) representa el valor de la posición de pixel (x,y) después del remuestreo de los componentes de luminancia de una imagen descodificada (denominada imagen reconstruida) . En lugar de una imagen descodificada, una imagen original se utiliza para codificación de imágenes. Los componentes de luminancia se remuestrean cuando la resolución del componente de diferencia de color es diferente de la resolución del componente de luminancia dependiendo del formato croma. Si por ejemplo, el formato croma es 4:2:0, los componentes de luminancia se remuestrean de acuerdo con la siguiente fórmula de tal manera que el número de pixeles se reduce a la mitad en la dirección horizontal y en la dirección vertical. ReL(u,v) representa el valor del componente de luminancia de la posición de pixel (u,v) antes del remuestreo.
Ecuación Matemática 6 t R¾ [x,y] = (Re 2x,2j/] + Re¿[2x,2j/ +1]) » 1 < 2 ) Si el formato croma es de 4:2:2, los componentes de luminancia se remuestrean de tal manera que el número de pixeles se reduce a la mitad en la dirección horizontal. Si el formato croma es 4:4:4, los componentes de luminancia no se remuestrean.
El coeficiente a en la Fórmula (1) se calcula de acuerdo con la siguiente Fórmula (3) . También, el coeficiente ß en la Fórmula (1) se calcula de acuerdo con la siguiente fórmula (4) .
Ecuación Matemática 7 En las Fórmulas (3) y (4) , I representa el número de pixeles de referencia. Si por ejemplo, el tamaño de bloque del componente de diferencia de color es de 8x8 pixeles y ocho pixeles de referencia a la izquierda y ocho pixeles de referencia superiores se encuentran disponibles, I se calcula como 1=8+8=16 Las Fórmulas (1) a (4) descritas en lo anterior son las mismas que las fórmulas descritas en la Literatura que No Es Patente 2. Las FIGURAS 9A y 9B son vistas explicativas que ilustran adicionalmente pixeles de referencia en el modelo lineal.
En el ejemplo de la FIGURA 9A, el tamaño de la unidad de predicción (PU) es de 16x16 pixeles y el formato croma es de 4:2:0. En este caso, el tamaño de bloque del componente de diferencia de color es de 8x8 pixeles. El número de pixeles de referencia Rec(i) del componente de diferencia de color es de 8+8=16 (si los pixeles de referencia izquierdos y superiores ambos se encuentran disponibles. El número de pixeles de referencia ReL' (i) del componente de luminancia también es 8+8=16 como resultado del remuestreo.
En el ejemplo de la FIGURA 9B, el tamaño de la unidad de predicción (PU) es de 8x8 pixeles y el formato croma es de 4:2:0. En este caso, el tamaño de bloque del componente de diferencia de color es de 4x4 pixeles. El número de pixeles de referencia Rec(i) del componente de diferencia de color es 4+4=8. El número de pixeles de referencia ReL' (i) del componente de luminancia también es 4+4=8 como resultado del remuestreo.
La comparación de los dos ejemplos de las FIGURA 9A y 9B muestra que la relación del número de pixeles de referencia con el tamaño de bloque sigue sin cambio si otras condiciones del formato croma y similares son las mismas. Es decir, aunque el tamaño de un lado de la unidad de predicción en el ejemplo de la FIGURA 9A es de 16 pixeles y el número I de los pixeles de referencia es 16, el tamaño de un lado de la unidad de predicción en el ejemplo de la FIGURA 9B es de ocho pixeles y el número I de los pixeles de referencia es ocho. De esta manera, si el número I de los pixeles de referencia incrementa con un tamaño de bloque en incremento, el costo de procesamiento necesario para calcular el coeficiente y el coeficiente ß utilizando la Fórmula (3) y la Fórmula (4) respectivamente también incrementa. Como se entenderá al enfocarse particularmente en la Fórmula (3), el número de veces de la multiplicación de valores de pixel incrementa en el orden del cuadrado del número I de los pixeles de referencia. De esta manera, si el número I de los pixeles de referencia no se controla adecuadamente cuando se calcula el coeficiente y el coeficiente ß, es altamente probable que el rendimiento de codificación y descodificación se degrade cuando el tamaño de bloque sea grande.
Por lo tanto, como se describirá en la siguiente sección, el controlador 42 de predicción controla de manera variable el número de pixeles de referencia cuando la sección 44 de cálculo de coeficiente calcule el coeficiente y el coeficiente ß de una función de predicción en el modo de LM. 1-5. Control del Número de Pixeles de Referencia El controlador 42 de predicción típicamente controla la relación de referencia como una relación del número de pixeles de referencia con el tamaño de bloque para disminuir con un tamaño de bloque en incremento. Un incremento en el costo de procesamiento se frena por este medio cuando el tamaño de bloque incrementa. Cuando el tamaño de bloque es pequeño al grado en que el costo de procesamiento no representa ningún problema, el controlador 42 de predicción no puede cambiar la relación de referencia incluso si los tamaños de bloque son diferentes. Cinco escenarios ejemplares de control de la relación de referencia se describirán a continuación con referencia a las FIGURAS 10 a 18B. (1) Primer Escenario La FIGURA 10 es una vista explicativa que muestra un ejemplo de la definición de la relación de referencia en un primer escenario.
En el primer escenario, la relación de referencia es "1:1" si el tamaño de la unidad de predicción (PU) es de 4x4 pixeles. La relación de referencia "1:1" significa que, como se muestra en las FIGURAS 9A y 9B, los pixeles de referencia todos se utilizan. En este caso, si el formato croma es de 4:2:0, el número I de los pixeles de referencia es 2 (dirección vertical Iv) +2 (dirección horizontal IH)=4. Si el formato croma es de 4:2:2, el número I de los pixeles de referencia es de 4+2=6. Si el formato croma es 4:4:4, el número I de los pixeles de referencia es de 4+4=8.
De manera similar, cuando el tamaño de la unidad de predicción es de 8x8 pixeles, la relación de referencia también es "1:1". En este caso, si el formato croma es de 4:2:0, el número I de los pixeles de referencia es 4+4=8. Si el formato croma es 4:2:2, el número I de los pixeles de referencia es 8+4=12. Si el formato croma es 4:4:4, el número I de los pixeles de referencia es 8+8=16.
Cuando el tamaño de la unidad de predicción es 16x16 pixeles, en contraste, la relación de referencia es "2:1". La relación de referencia "2:1" significa que, como se muestra en las FIGURAS 9A y 9B, sólo la mitad de los pixeles de referencia se utiliza. Es decir, la sección 44 de cálculo de coeficiente adelgaza a la mitad los pixeles de referencia y utiliza sólo los pixeles de referencia restantes cuando calcula el coeficiente y el coeficiente ß. En este caso, si el formato croma es 4:2:0, el número I de pixeles de referencia es (8/2) + (8/2) =8. Si el formato croma es 4:2:2, el número I de pixeles de referencia es (16/2) + (8/2) =12. Si el formato croma es 4:4:4, el número I de pixeles de referencia es (16/2) +(16/2) =16.
La FIGURA 11A muestra un ejemplo de los ajustes de pixel de referencia cuando el tamaño de PU es 16x16 pixeles y el formato croma es 4:2:0. En el ejemplo de la FIGURA 11A, cada segundo pixel de referencia del componente de diferencia de color y cada segundo pixel de referencia del componente de luminancia se adelgaza. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia son ambos ocho.
Además, cuando el tamaño de la unidad de predicción es 32x32 pixeles, la relación de referencia es "4:1". La relación de referencia "4:1" significa que, como se muestra en las FIGURAS 9A y 9B, sólo un cuarto de los pixeles de referencia se utiliza. Es decir, la sección 44 de cálculo de coeficiente adelgaza tres cuartos de pixeles de referencia y utiliza sólo los pixeles de referencia restantes cuando calcula el coeficiente OÍ y el coeficiente ß. En este caso, si el formato croma es 4:2:0, el número I de pixeles de referencia es (16/4) + (16/4) =8. Si el formato croma es 4:2:2, el número I de pixeles de referencia es (32/4) + (16/4) =12. Si el formato croma es 4:4:4, el número I de pixeles de referencia es (32/4) + (32/4) =16.
La FIGURA 11B muestra un ejemplo de los ajustes de pixel de referencia cuando el tamaño de PU es 32x32 pixeles y el formato croma es 4:2:0. En el ejemplo de la FIGURA 11B, tres pixeles de referencia en cada cuatro pixeles consecutivos del componente de diferencia de color y tres pixeles de referencia en cada cuatro pixeles consecutivos del componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia son ambos ocho.
De acuerdo con el mapeo entre el tamaño de bloque y la relación de referencia similar en el primer escenario, el número I de pixeles de referencia es constante cuando el tamaño de bloque es 8x8 pixeles o más siempre y cuando el formato croma sea el mismo. Por lo tanto, un incremento en el costo de procesamiento se frena cuando el tamaño de bloque incrementa. Además, al controlar la relación de referencia de modo que el número de pixeles de referencia sea constante cuando el tamaño de bloque exceda un tamaño predeterminado, el procesamiento de cálculo de coeficiente por la sección 44 de cálculo de coeficiente puede realizarse utilizando un circuito común pequeño o lógica. Por consiguiente, un incremento de la escala de circuito o escala lógica también puede frenarse.
Al ajustar el número de pixeles de referencia para que adelgace acero cuando el tamaño de bloque se encuentra a la altura de un tamaño predeterminado, la degradación de la precisión de predicción en el modo de LM debido a un número insuficiente de pixeles de referencia puede evitarse.
Particularmente cuando es comparativamente difícil realizar una intra predicción debido al contenido complejo de una imagen (es decir, fluctuaciones espaciales del valor de pixel son violentas) , una unidad de predicción más pequeña es probable que se establezca dentro de una imagen. Al garantizar un número suficiente de pixeles de referencia en tal caso, la degradación de precisión de predicción en el modo de LM puede evitarse.
Aquí, se proporciona una descripción de que el número de pixeles de referencia que se adelgaza cuando se calcula un coeficiente por la sección 44 de cálculo de coeficiente cambia de acuerdo con la relación de referencia. Es decir, la sección 44 de cálculo de coeficiente también tiene una función de una sección de adelgazamiento que adelgaza los pixeles de referencia mencionados cuando una intra predicción en el modo de LM se hace en la relación de referencia de acuerdo con el tamaño de bloque que se pronosticará. También esto aplica a una sección 94 de cálculo de coeficiente de un dispositivo 60 de descodificación de imágenes descrito a continuación. Sin embargo, en lugar de adelgazar los pixeles de referencia, el número de pixeles de referencia puede controlarse de manera variable al derivar un valor representativo de una pluralidad de valores de pixel de referencia. Si por ejemplo, la relación de referencia es "4:1", un valor promedio de valores de pixeles de cuatros pixeles de referencia consecutivos p un valor medio del mismo pueden utilizarse como valor representativo. Esto también aplica a otros escenarios descritos en la presente. Aunque es muy fácil implementar el procesamiento para adelgazar pixeles de referencia, la precisión de predicción puede mejorarse al utilizar el valor representativo anterior. (2) Segundo escenario La FIGURA 12 es una vista explicativa que muestra un ejemplo de la definición de la relación de referencia en un segundo escenario. En el segundo escenario, el controlador 42 de predicción controla la relación de referencia de acuerdo con el formato croma, además del tamaño de la unidad de predicción. Además, el controlador 42 de predicción controla por separado una primera relación de referencia como relación del número de pixeles de referencia a la izquierda en el tamaño en la dirección vertical y una segunda relación de referencia como relación del número de pixeles de referencia superiores al tamaño en la dirección horizontal.
En el segundo escenario, si el tamaño de la unidad de predicción es 4x4 pixeles y el formato croma es 4:2:0, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "1:1". En este caso, ningún pixel de referencia se adelgaza y el número I de pixeles de referencia es 2+2=4. Si el tamaño de la unidad de predicción es 4x4 pixeles y el formato croma es 4:2:2, la relación de referencia en la dirección vertical es "2:1" y la relación de referencia en la dirección horizontal es "1:1". En este caso, como resultado de la mitad de pixeles de referencia de los pixeles de referencia en la dirección vertical que se adelgaza, el número I de los pixeles de referencia es (4/2) +2=4. Si el tamaño de la unidad de predicción es 4x4 pixeles y el formato croma es 4:4:4, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "2:1". En este caso, como resultado de la mitad de pixeles de referencia de los pixeles de referencia en la dirección vertical y la dirección horizontal que se adelgaza, el número I de los pixeles de referencia es (4/2 ) + (4/2 ) =4.
Si el tamaño de la unidad de predicción es 8x8 pixeles y el formato croma es 4:2:0, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "1:1". En este caso, ningún pixel de referencia se adelgaza y el número I de los pixeles de referencia es 4+4=8. Si el tamaño de la unidad de predicción es 8x8 pixeles y el formato croma es 4:2:2, la relación de referencia en la dirección vertical es "2:1" y la relación de referencia en la dirección horizontal es "1:1". En este caso, como resultado de la mitad los pixeles de referencia de los pixeles de referencia en la dirección vertical que se adelgaza, el número I de los pixeles de referencia es (8/2) +4=8. Si el tamaño de la unidad de predicción es 8x8 pixeles y el formato croma es 4:4:4, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "2:1". En este caso, como resultado de la mitad los pixeles de referencia de los pixeles de referencia en la dirección vertical y la dirección horizontal que se adelgaza, el número I de pixeles de referencia es (8/2) + (8/2) =8.
La FIGURA 13A muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 8x8 pixeles y el formato croma es de 4:2:0. En el ejemplo de la FIGURA 13A, ni los pixeles de referencia del componente de diferencia de color ni los pixeles de referencia del componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son ocho.
La FIGURA 13B muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 8x8 pixeles y el formato croma es de 4:2:2. En el ejemplo de la FIGURA 13B, cada segundo pixel de referencia en la dirección vertical del componente de diferencia de color y el componente de luminancia se adelgaza. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son ocho.
Además, la FIGURA 13C muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 8x8 pixeles y el formato croma es de 4:4:4. En el ejemplo de la FIGURA 13C, cada segundo pixel de referencia en la dirección vertical y la dirección horizontal del componente de diferencia de color y el componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son ocho.
Si el tamaño de la unidad de predicción es 16x16 pixeles y el formato croma es 4:2:0, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "2:1". En este caso, el número I de pixeles de referencia es (8/2) + (8/2) =8. Si el tamaño de la unidad de predicción es 16x16 pixeles y el formato croma es de 4:2:2, la relación de referencia en la dirección vertical es "4:1" y la relación de referencia en la dirección horizontal es "2:1". En este caso, el número I de pixeles de referencia es (16/4) + (8/2) =8. Si el tamaño de la unidad de predicción es 16x16 pixeles y el formato croma es de 4:4:4, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "4:1". En este caso, el número I de pixeles de referencia es (16/4) + (16/4) =8.
La FIGURA 13D muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 16x16 pixeles y el formato croma es de 4:2:0. En el ejemplo de la FIGURA 13D, cada segundo pixel de referencia en la dirección vertical y la dirección horizontal del componente de diferencia de color y el componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son ocho.
Si el tamaño de la unidad de predicción es 32x32 pixeles y el formato croma es 4:2:0, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "4:1". En este caso, el número I de pixeles de referencia es (16/4) + (16/4 ) =8. Si el tamaño de la unidad de predicción es 32x32 pixeles y el formato croma es 4:2:2, la relación de referencia en la dirección vertical es "8:1" y la relación de referencia en la dirección horizontal es "4:1". En este caso, el número I de pixeles de referencia es (32/8) + (16/4) =8. Si el tamaño de la unidad de predicción es 32x32 pixeles y el formato croma es de 4:4:4, la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal ambas son "8:1". En este caso, el número I de pixeles de referencia es (32/8) + (32/8 ) =8.
En el segundo escenario, como se entenderá a partir de la descripción anterior, el controlador 42 de predicción controla la relación de referencia de modo que la relación de referencia disminuya con una resolución en incremento del componente de diferencia de color representado por el formato croma. Un incremento en el costo de procesamiento que acompaña a un tamaño de bloque en incremento del componente de diferencia de color se frena por consiguiente. También en el segundo escenario, si el formato croma es 4:2:2, el controlador 42 de predicción controla por separado la relación de referencia en la dirección vertical y la relación de referencia en la dirección horizontal de modo que el número de pixeles de referencia a la izquierda del bloque y el número de pixeles de referencia por encima del bloque se vuelve igual. Por consiguiente, los números de pixeles de referencia pueden ser los mismos en una pluralidad de casos en los cuales los formatos croma son mutuamente diferentes. Como resultado, el procesamiento de cálculo de coeficiente por la sección 44 de cálculo de coeficiente puede realizarse al utilizar un circuito común o lógica sin importar el formato croma. Por lo tanto, de acuerdo con el segundo escenario, la implementación eficiente de un circuito o lógica se promueve. (3) Tercer Escenario La FIGURA 14 es una vista explicativa que muestra un ejemplo de la definición de la relación de referencia en un tercer escenario. También en el tercer escenario, el controlador 42 de predicción controla por separado la primera relación de referencia como relación del número de pixeles de referencia a la izquierda al tamaño en la dirección vertical y la segunda relación de referencia como relación del número de pixeles de referencia superiores al tamaño en la dirección horizontal. En el tercer escenario, el controlador 42 de predicción controla las relaciones de referencia de modo que la relación de referencia en la dirección vertical sea igual a la relación de referencia en la dirección horizontal o menor al mismo tamaño.
En el tercer escenario, las relaciones de referencia en la dirección vertical y la dirección horizontal ambas son "1:1" si el tamaño de la unidad de predicción es de 4x4 pixeles. En este caso, el formato croma es de 4:2:0, el número I de pixeles de referencia es 2+2=4. Si el formato croma es de 4:2:2, el número I de pixeles de referencia es 4+2=6. Si el formato croma es de 4:4:4, el número I de pixeles de referencia es 4+4=8.
Si el tamaño de la unidad de predicción es 8x8 pixeles, la relación de referencia en la dirección vertical es "2:1" y la relación de referencia en la dirección horizontal es "1:1". En este caso si el formato croma es 4:2:0, el número I de pixeles de referencia es (4/2) +4=6. Si el formato croma es 4:2:2, el número I de pixeles de referencia es (8/2) +4=8. Si el formato croma es 4:4:4, el número I de pixeles de referencia es (8/2) +8=12.
La FIGURA 15A muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 8x8 pixeles y el formato croma es de 4:2:0. En el ejemplo de la FIGURA 15A, menos de la mitad de los pixeles de referencia en la dirección vertical de pixeles de referencia del componente de diferencia de color y los pixeles de referencia del componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son seis.
Si el tamaño de la unidad de predicción es 16x16 pixeles, la relación de referencia en la dirección vertical es "4 : 1" y la relación de referencia en la dirección horizontal es "1:1". En este caso si el formato croma es 4:2:0, el número I de pixeles de referencia es (8/4) +8=10. Si el formato croma es 4:2:2, el número I de pixeles de referencia es (16/4) +8=12. Si el formato croma es 4:4:4, el número I de pixeles de referencia es (16/4 ) +16=20.
La FIGURA 15B muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 16x16 pixeles y el formato croma es de 4:2:0. En el ejemplo de la FIGURA 15B, tres cuartos de la mitad baja de pixeles de referencia en la dirección vertical de pixeles de referencia del componente de diferencia de color y los pixeles de referencia del componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son diez .
Si el tamaño de la unidad de predicción es 32x32 pixeles, la relación de referencia en la dirección vertical es "8:1" y la relación de referencia en la dirección horizontal es "2:1". En este caso si el formato croma es 4:2:0, el número I de pixeles de referencia es (16/8) + (16/2) =10. Si el formato croma es 4:2:2, el número I de pixeles de referencia es (32/8 ) + ( 16/2 ) =12. Si el formato croma es 4:4:4, el número I de pixeles de referencia es (32/8) + (32/2) =20.
En un dispositivo que codifica o descodifica imágenes, el valor de pixel se almacena en una memoria de tramas o memoria de línea en la mayoría de los casos y se accede en unidades de línea en la dirección horizontal. Por lo tanto, si la relación de referencia en la dirección vertical se hace menor que la relación de referencia en la dirección horizontal como en el tercer escenario, el número de veces para acceder a una memoria puede reducirse incluso si el número de pixeles de referencia se utiliza es el mismo. Por consiguiente, el procesamiento de cálculo de coeficiente mediante la sección 44 de cálculo de coeficiente puede realizarse a alta velocidad. Además, al utilizar pixeles de referencia en una línea superior del bloque de preferencia similar en el tercer escenario, el valor de pixel de referencia puede adquirirse en un tiempo corto a través de acceso continuo a la memoria. (4) Cuarto escenario La FIGURA 16 es una vista explicativa que muestra un ejemplo de la definición de la relación de referencia en un cuarto escenario. En el cuarto escenario, el controlador 42 de predicción controla la relación de referencia de modo que la relación de referencia disminuye con las capacidades de disminución de un dispositivo que codifica y descodifica imágenes. En HEVC, por ejemplo, el perfil, el nivel, o ambos pueden utilizarse como parámetros que representan capacidades de un dispositivo. El perfil y el nivel normalmente pueden especificarse en un conjunto de parámetros de secuencia de una corriente codificada.
Con referencia a la FIGURA 16, en el cuarto escenario, las capacidades de un dispositivo se clasifican en dos categorías "alta" y "baja". Con respecto a la unidad de predicción que tiene el tamaño de 4x4 pixeles, la relación de referencia es "1:1" sin importar las capacidades del dispositivo. Con respecto a la unidad de predicción que tiene el tamaño de 8x8 pixeles o más, en contraste, la relación de referencia cuando las capacidades son "bajas" es la mitad de la relación de referencia cuando las capacidades son "altas" .
Por ejemplo, aunque la relación de referencia cuando las capacidades son "altas" es "1:1" para la unidad de predicción de 8x8 pixeles, la relación de referencia cuando las capacidades son "bajas" es "2:1". Con respecto a la unidad de predicción que tiene el tamaño de 16x16 pixeles, aunque la relación de referencia cuando las capacidades son "altas" es "2:1", la relación de referencia cuando las capacidades son "bajas" es "4:1". Con respecto a la unidad de predicción que tiene el tamaño de 32x32 pixeles, aunque la relación de referencia cuando las capacidades son "altas" es "4:1", la relación de referencia cuando las capacidades son "bajas" es "8 : 1" .
La FIGURA 17A muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 16x16 pixeles, el formato croma es de 4:2:0, las capacidades son "altas", y la relación de referencia es "2:1". En el ejemplo de la FIGURA 17A, la mitad de los pixeles de referencia de los pixeles de referencia del componente de diferencia de color y los pixeles de referencia del componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son ocho.
La FIGURA 17B muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 16x16 pixeles, el formato croma es de 4:2:0, las capacidades son "bajas", y la relación de referencia es "4:1". En el ejemplo de la FIGURA 17B, tres cuartos de la mitad inferior de pixeles de referencia de los pixeles de referencia del componente de diferencia de color y los pixeles de referencia del componente de luminancia se adelgazan. Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son cuatro.
Al controlar la relación de referencia de acuerdo con el nivel de capacidades de un dispositivo (por ejemplo, la capacidad de procesamiento de un descodificador) similar en el cuarto escenario, el número de pixeles de referencia además puede reducirse cuando el uso de un dispositivo de menores capacidades se asume. Por consiguiente, el costo de procesamiento que excede la capacidad de procesamiento de un dispositivo puede evitarse que surja el procesamiento de cálculo de coeficiente en el modo de Lm. (5) Quinto Escenario Xiaoran Cao Tsinghua et al., propone en el "Informe CE6.bl sobre Método de Intra Predicción de Corta Distancia" (JCTVC-E278, marzo de 2011) el método de intra predicción de distancia corta que mejora la eficiencia de codificación al utilizar una unidad de predicción no cuadrada de tamaño pequeño. En el método de intra predicción de corta distancia, por ejemplo, las unidades de predicción de varios tamaños tales como 1x4 pixeles, 2x8 pixeles, 4x16 pixeles, 4x1 pixeles, 8x2 pixeles, y 16x4 pixeles pueden establecerse en una imagen. En este caso, qué tamaño en la dirección vertical y qué tamaño en la dirección horizontal de la unidad de predicción es más grande depende de los ajustes de la unidad de predicción. De esta manera, en el quinto escenario, cuando el método de intra predicción de corta distancia se utiliza, el controlador 42 de predicción seleccipna de manera dinámica la relación de referencia que corresponde con la dirección a la cual la relación de referencia más grande en la dirección vertical y la relación de referencia en la dirección horizontal corresponde y controla la relación de referencia seleccionada.
La FIGURA 18A muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 2x8 pixeles y el formato croma es de 4:2:0. En el ejemplo de la FIGURA 18A, el tamaño en la dirección horizontal es mayor que el tamaño en la dirección vertical y de esta manera, aunque la relación de referencia en la dirección vertical es "1:1", la relación de referencia en la dirección horizontal es "2:1". Como resultado, el número Ic de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son l+(4/2)=3.
La FIGURA 18B muestra un ejemplo de ajustes de pixel de referencia cuando el tamaño de PU es de 16x4 pixeles y el formato croma es de 4:2:0. En el ejemplo de la FIGURA 18B, el tamaño en la dirección vertical es mayor que el tamaño en la dirección horizontal y de esta manera, aunque la relación de referencia en la dirección horizontal es "1:1", la relación de referencia en la dirección vertical es "4:1". Como resultado, el número lc de pixeles de referencia del componente de diferencia de color y el número IL de pixeles de referencia del componente de luminancia ambos son (8/4) +2=4.
Cuando, igual que en el quinto escenario, el método de intra predicción de corta distancia se utiliza, al seleccionar de manera dinámica y controlar la relación de referencia que corresponde con la dirección en la cual el tamaño es más grande, la degradación en la precisión de predicción puede evitarse al evitar la reducción del número de pixeles de referencia en la dirección en la cual el número del mismo es menor.
Por lo tanto, cinco escenarios característicos de control de la relación de referencia mediante el controlador 42 de predicción se han descrito en detalle. El control de la relación de referencia mediante el controlador 42 de predicción de acuerdo con estos escenarios puede realizarse por mapeo, por ejemplo, entre el tamaño de bloque predefinido en especificaciones estándar de un esquema de codificación de imágenes y la relación de referencia. Al definir de manera uniforme tal mapeo con anticipación, la necesidad de soportar patrones de ajuste de muchos pixeles de referencia se elimina de modo que un circuito o lógica para descodificación puede hacerse fácilmente común.
Aunque la profundidad de bits de los datos de imagen utilizada por muchos usos en 8 bits, una mayor profundidad de bits tales como 10 bits o 12 bits puede utilizarse para datos de imagen para algunos usos. De esta manera, si la profundidad de bit excede un número predeterminado de bits (por ejemplo, 8 bits) , la sección 44 de cálculo de coeficiente puede reducir el valor de pixel de referencia al número predeterminado de bits antes de calcular el coeficiente OÍ y el coeficiente ß de una función de predicción utilizando el valor de pixel de referencia reducido. Por consiguiente, el coeficiente a y el coeficiente ß pueden calcularse utilizando un circuito común de tamaño pequeño o lógica sin importar la profundidad de bit.
Un ejemplo en el cual el controlador 42 de predicción controla la "relación de referencia" como relación del número de pixeles de referencia con el tamaño de bloque se describe principalmente aquí. Sin embargo, el concepto sustancialmente equivalente a la relación de referencia puede expresarse por otro término, por ejemplo, una "relación de reducción" que significa la relación de pixeles de referencia a reducir. La "relación de referencia" o "relación de reducción" puede expresarse por, en lugar del formato anterior tal como "1:1", "2:1", y "4:1", el formato de porcentaje similar a "100% (0%) " , "50% (50%)", o "25% (75%)" o el formato numérico en el margen de 0 a 1.
Los cinco escenarios anteriores sólo son ejemplos para descripción. Por ejemplo, dos escenarios o más de los cinco escenarios anteriores pueden combinarse. El mapeo entre el tamaño de bloque y la relación de referencia (o la relación de reproducción) como se muestra en cada escenario de hecho, puede definirse con anticipación, seleccionarse de manera adaptable. En este caso, la información que especifica el mapeo seleccionado puede transmitirse desde el lado de codificación hasta el lado de descodificación dentro del conjunto de parámetros o el área de encabezado de una corriente codificada. *****<Flujo de Procesamiento al Momento de Codificación de Acuerdo con una Modalidad> Después, el flujo de procesamiento al momento de codificación se describirá utilizando las FIGURAS 19 y 20. La FIGURA 19 es un diagrama de flujo que muestra un ejemplo del flujo de procesamiento de intra predicción al momento de la codificación por la sección 40 de intra predicción que tiene la configuración se ilustra en la FIGURA 2.
Con referencia a la FIGURA 19, los datos de imagen pronosticados en varios métodos de predicción primero se generan por la sección 46 de predicción para el componente de luminancia de la unidad de codificación que se procesará y el modo de predicción óptimo y la disposición de unidades de predicción se decide por la sección 48 de determinación de modo (etapa S100) .
Después, el procesamiento de predicción en el modo de LM se realiza para el componente de diferencia de color por la sección 44 de cálculo de coeficiente y la sección 46 de predicción (etapa S110) . Además, el procesamiento de intra predicción en el modo sin LM (por ejemplo, Modo 0 a Modo 3 ilustrados en la FIGURA 8) se realiza para el componente de diferencia de color mediante la sección 44 de cálculo de coeficiente y la sección 46 de predicción (etapa S120) . El procesamiento en la etapa S110 y la etapa S120 puede realizarse para cada unidad de predicción bajo el control del controlador 42 de predicción.
A continuación, la sección 48 de determinación de modo calcula el valor de función de costo basándose en los datos de imagen originales y los datos de imagen pronosticados para cada uno de los modos de predicción del componente de diferencia de color (etapa S130) . De esta manera, la sección 48 de determinación de modo decide el modo de predicción óptimo al comparar los valores de función de costos (etapa S140) .
La FIGURA 20 es un diagrama de flujo que muestra un ejemplo de un flujo detallado de procesamiento de predicción de modo de L en la etapa S110 de la FIGURA 19.
Con referencia a la FIGURA 20, el controlador 42 de predicción primero adquiere la relación de referencia para cada unidad de predicción de acuerdo con el tamaño de la unidad de predicción y otros parámetros, (por ejemplo, el formato croma, perfil, o nivel) (etapa Slll) .
A continuación, la sección 44 de cálculo de coeficiente establece los pixeles de referencia para que se mencionen por la fórmula de cálculo (por ejemplo la Fórmula (3) y Fórmula (4) anteriores) para calcular coeficientes de una función de predicción de acuerdo con la relación de referencia instruida por el controlador 42 de predicción (etapa S112) . El número de pixeles de referencia establecido aquí puede reducirse de acuerdo con la relación de referencia. Además, los componentes de luminancia de los pixeles de referencia pueden remuestrearse dependiendo del formato croma.
A continuación, la sección 44 de cálculo de coeficiente calcula el coeficiente o¡ de una función de predicción utilizando valores de pixel de pixeles de referencia establecidos de acuerdo con, por ejemplo, la Fórmula (3) anterior (etapa S113) . Además, la sección 44 de cálculo de coeficiente calcula el coeficiente ß de una función de predicción utilizando valores de pixel de pixeles de referencia establecidos de acuerdo con, por ejemplo, la Fórmula (4) anterior (etapa S114).
Después, la sección 46 de predicción calcula el valor de pixel pronosticado de cada pixel que va a predecirse al sustituir el valor del componente de luminancia correspondiente en una función de predicción (por ejemplo, la Fórmula (1) anterior) construida al utilizar el coeficiente a y el coeficiente ß (etapa S115). <3. Configuración Ejemplar del Dispositivo de Descodificación de Imágenes de Acuerdo con una Modalidad> En esta sección, una configuración ejemplar de un dispositivo de descodificación de imágenes de acuerdo con una modalidad se · describirá utilizando las FIGURAS 21 y 22.
Ejemplo de Configuración General La FIGURA 21 es un diagrama de bloque que muestra un ejemplo de una configuración de un dispositivo 60 de descodificación de imágenes de acuerdo con una modalidad. Con referencia a la FIGURA 21, el dispositivo 60 de descodificación de imágenes incluye una memoria intermedia 61 de acumulación, una sección 62 de descodificación sin pérdidas, una sección 63 de cuantificación inversa, una sección 64 de transformada ortogonal inversa, una sección 65 de adición, un filtro 66 de desbloqueo, una memoria intermedia 67 de clasificación, una sección 68 de conversión de D/A (Digital a Análogo) , una memoria 69 de tramas, selectores 70 y 71, una sección 80 de compensación de movimiento y una sección 90 de intra predicción.
La memoria intermedia 61 de acumulación almacena temporalmente una corriente codificada ingresada mediante una línea de transmisión utilizando un medio de almacenamiento.
La sección 62 de descodificación sin pérdidas descodifica una corriente codificada ingresada desde la memoria intermedia 61 de acumulación de acuerdo con el método de codificación utilizado al momento de la codificación. También, la sección 62 de descodificación sin pérdidas descodifica la información multiplexada en la región de encabezado de la corriente codificada. La información que se multiplexa en la región de encabezado de la corriente codificada puede incluir el perfil y el nivel en un conjunto de parámetros de secuencia, y la información sobre la inter predicción y la información sobre la intra predicción en el encabezado de bloque, por ejemplo. La sección 62 ' de descodificación sin pérdidas produce la información sobre inter predicción en la sección 80 de compensación de movimiento. También la sección 62 de descodificación sin pérdidas produce la información sobre intra predicción en la sección 90 de intra predicción.
La sección 63 de cuantificación inversa cuantifica inversamente los datos cuantificados que se han descodificado por la sección 62 de descodificación sin pérdidas. La sección 64 de transformada ortogonal inversa genera datos de error pronosticados al realizar transformación ortogonal inversa sobre los datos del coeficiente de transformada ingresados desde la sección 63 de cuantificación inversa de acuerdo con el método de transformación ortogonal utilizado al momento de la codificación. Después, la sección 64 de transformada ortogonal inversa produce los datos de error pronosticados generados en la sección 65 de adición.
La sección 65 de adición agrega los datos de error pronosticados ingresados desde la sección 64 de transformada ortogonal inversa y los datos de imagen pronosticados ingresados desde el selector 71 para generar por consiguiente los datos de imagen descodificados. Después, la sección 65 de adición produce los datos de imagen descodificados generados en el filtro 66 de desbloqueo y la memoria 69 de tramas.
El filtro 66 de desbloqueo elimina la distorsión de bloque al filtrar los datos de imagen descodificados ingresados desde la sección 65 de adición, y produce los datos de imagen descodificados después de filtrar en la memoria intermedia 67 de clasificación y la memoria 69 de tramas .
La memoria intermedia 67 de clasificación genera una serie de datos de imagen en una secuencia de tiempo al clasificar las imágenes ingresadas desde el filtro 66 de desbloqueo. Después, la memoria intermedia 67 de clasificación produce los datos de imagen generados en la sección 68 de conversión de D/A.
La sección 68 de conversión de p/A convierte los datos de imagen en un formato digital ingresado desde la memoria intermedia 67 de clasificación en una señal de imagen en un formato análogo. Después, la sección 68 de conversión de D/A provoca que una imagen se despliegue al producir la señal de imagen análoga en una pantalla (no mostrada) conectada al dispositivo 60 de descodificación de imágenes, por ejemplo.
La memoria 69 de tramas se almacena, utilizando un medio de almacenamiento con los datos de imágenes descodificados antes de filtrar la entrada de la sección 65 de adición, y los datos de imagen descodificados después de filtrar la entrada del filtro 66 de desbloqueo.
El selector 70 conmuta el destino de salida de los datos de imagen desde la memoria 70 de tramas entre la sección 80 de compensación de movimiento y la sección 90 de intra predicción por cada bloque en la imagen de acuerdo con la información de modo adquirida por la sección 62 de descodificación sin pérdidas. Por ejemplo, en el caso en que se especifica el modo de inter predicción, el selector 70 produce los datos de imagen descodificados después de filtración que se suministran desde la memoria 70 de tramas hasta la sección 80 de compensación de movimiento como los datos de imagen de referencia. También, en el caso en que se especifica el modo de intra predicción, el selector 70 produce los datos de imagen descodificados antes de la filtración que se suministra desde la memoria 70 de tramas hasta la sección 90 de intra predicción como datos de imagen de referencia.
El selector 71 conmuta la fuente de salida de los datos de imagen pronosticados que se suministran a la sección 65 de adición entre la sección 80 de compensación de movimiento y la sección 90 de intra predicción de acuerdo con información de modo adquirida por la sección 62 de descodificación sin pérdidas. Por ejemplo, en el caso en que se especifica el modo de inter predicción, el selector 71 suministra a la sección 65 de adición los datos de imagen pronosticados producidos desde la sección 80 de compensación de movimiento. También, en el caso en que se especifica el modo de intra predicción, el selector 71 suministra a la sección 65 de adición los datos de imagen pronosticados producidos desde la sección 90 de intra predicción.
La sección 80 de compensación de movimiento realiza un proceso de compensación de movimiento basándose en la información sobre la inter predicción ingresada desde la sección 62 de descodificación sin pérdidas y los datos de imagen de referencia desde la memoria 69 de tramas, y genera datos de imagen pronosticados. Después, la sección 80 de compensación de movimiento produce los datos de imagen pronosticados generados en el selector 71.
La sección 90 de intra predicción realiza un proceso de intra predicción basada en la información sobre la intra predicción ingresada desde la sección 62 de descodificación sin pérdidas y los datos de imagen de referencia desde la memoria 69 de tramas, y genera datos de imagen pronosticados. Después, la sección 90 de intra predicción produce los datos de imagen pronosticados generados en el selector 71. El proceso de intra predicción de la sección 90 de intra predicción se describirá posteriormente en detalle. 3-2. Ejemplo de Configuración de la Sección de Intra Predicción La FIGURA 22 es un diagrama de bloque que muestra un ejemplo de una configuración detallada de una sección 90 de intra predicción del dispositivo 60 de descodificación de imágenes mostrado en la FIGURA 21. Con referencia a la FIGURA 22, la sección 90 de intra predicción incluye un controlador 92 de predicción, una sección 94 de cálculo de coeficiente, y una sección 96 de predicción.
El controlador 92 de predicción controla el procesamiento de intra predicción mediante la sección 90 de intra predicción. Por ejemplo, el controlador 92 de predicción establece una o más unidades de predicción en cada unidad de codificación basándose en la infqrmación de modo de predicción contenida en la información en una intra predicción. El controlador 92 de predicción realiza procesamiento de intrapredicción del componente de luminaricia (Y) y después realiza el procesamiento de intra predicción de los componentes de diferencia de color (Cb, Cr) . En el procesamiento de intra predicción del componente de luminancia, el controlador 92 de predicción provoca que la sección 96 de predicción genere un valor de pixel pronosticado del componente de luminancia de cada pixel en el modo de predicción especificado por la información del modo de predicción. Similarmente, · en el procesamiento intra predicción del componente de luminancia, el controlador 92 de predicción provoca que la sección 96 de predicción genere un valor de pixel pronosticado en el componente de diferencia de color de cada pixel en el modo de predicción especificado por la información de modo de predicción.
En la presente modalidad, los candidatos del modo de predicción para el componente de diferencia de color contienen el modo de LM antes mencionado. Después, el controlador 92 de predicción controla de manera variable la relación del número de pixeles de referencia cuando los coeficientes de una función de predicción en el modo de LM se calculan en el tamaño de bloque, es decir, la relación de referencia. El control de la relación de referencia mediante el controlador 92 de predicción típicamente se realiza de acuerdo con el tamaño del bloque. Si por ejemplo, el tamaño del bloque excede un tamaño predeterminado, el controlador 92 de predicción puede controlar la relacipn de referencia de manera que el número de pixeles de referencia para calcular coeficientes de una función de predicción se vuelve constante. El mapeo entre el tamaño del bloque y la relación de referencia puede definirse con anticipación y almacenarse en un medio de almacenamiento del dispositivo 60 de descodificación de imágenes o puede especificarse de manera dinámica dentro del área de encabezado de una corriente codificada. Además, el controlador 92 de predicción puede controlar la relación de referencia de acuerdo con el formato croma. También, el controlador 92 de predicción puede controlar la relación de referencia de acuerdo con el perfil de nivel que define capacidades de un dispositivo. El control de la relación de referencia por el controlador 92 de predicción puede realizarse de acuerdo con uno de los cinco escenarios anteriores, cualquier combinación de los mismos, u otros escenarios.
La sección 94 de cálculo de coeficiente calcula coeficientes de una función de predicción utilizados por la sección 96 de predicción cuando el modo de LM se especifica para el componente de diferencia de color al referirse a pixeles alrededor de la unidad de predicción a la cual pertenece el pixel que va a pronosticarse, es decir, pixeles de referencia. La función de predicción utilizada por la sección 96 de predicción típicamente es una función lineal del valor del componente de luminancia y se representa por ejemplo, por la Fórmula (1) anterior. El número de pixeles de referencia mencionados por la sección 94 de cálculo de coeficiente para calcular coeficientes de una función de predicción se controla por, como se describe en lo anterior, el controlador 92 de predicción. Si la relación de referencia no es "1:1", la sección 94 de cálculo de coeficiente puede calcular coeficientes de una función de predicción por ejemplo, al adelgazar tantos pixeles de referencia como el número de acuerdo con la relación de referencia y después utilizar sólo los pixeles de referencia restantes. La sección 94 de cálculo de coeficiente puede calcular coeficientes de una función de predicción utilizando un circuito común o lógica para una pluralidad de tamaños de bloque que excede un tamaño predeterminado. Además, si la profundidad de bits de un valor de pixel excede un número predeterminado de bits, la sección 94 de cálculo de coeficiente puede reducir el valor de pixel de referencia al número predeterminado de bits antes de calcular coeficientes de una función de predicción utilizando el valor de pixel de referencia reducido.
La sección 96 de predicción genera el valor de pixel del componente de luminancia y el valor de pixel del componente de diferencia de color del pixel que va a pronosticarse de acuerdo con el modo de predicción específico utilizando datos de imagen de referencia de una memoria 69 de tramas bajo el control del controlador 92 de predicción. Los candidatos de modo de predicción utilizados para el componente de diferencia de color mediante la sección 96 de predicción pueden contener el modo de LM anterior. Cuando el modo de LM se especifica, la sección 96 de predicción calcula el valor de pixel pronosticado del componente de diferencia de color al restar el valor (remuestreado si es necesario) del componente de luminancia correspondiente en una función de predicción construida al utilizar el coeficiente a y el coeficiente ß calculados por la sección 94 de cálculo de coeficiente. La sección 96 de predicción produce los datos de imagen pronosticados generados como resultado de la predicción en una sección 65 de adición mediante un selector 71. <4. Flujo de Procesamiento al Momento de la Descodificación de Acuerdo con una Modalidad> A continuación, el flujo de procesamiento al momento de la descodificación se describirá utilizando la FIGURA 23. La FIGURA 23 es un diagrama de flujo que muestra un ejemplo del flujo de procesamiento de intra predicción al momento de la descodificación por la sección 90 de intrapredicción que tiene la configuración que se ilustra en la FIGURA 22.
Con referencia a la FIGURA 23, el controlador 92 de predicción primero establece una o más unidades de predicción en cada unidad de codificación (etapa S200) . Después, el procesamiento en las etapas S210 a S260 puede realizarse en cada unidad de predicción bajo el control del controlador 42 de predicción.
A continuación, el controlador 92 de predicción reconoce el modo de predicción del componente de luminancia especificado por la información de modo de predicción (etapa S210) . Después, la sección 96 de predicción genera el valor de pixel pronosticado del componente de luminancia de cada pixel en la unidad de predicción de acuerdo con el modo de predicción especificado utilizando datos de imagen de referencia de la memoria 69 de tramas (etapa S220) .
A continuación, el controlador 92 de predicción reconoce el modo de predicción del componente de diferencia de color especificado por la información de modo , de predicción (etapa S230) . Entonces, el controlador 92 de predicción determina si el modo de LM se especifica (etapa S240) . Si el modo de LM se especifica, el controlador 92 de predicción provoca que la sección 94 de cálculo de coeficiente y la sección 96 de predicción realice procesamiento de predicción del componente de diferencia de color en el modo de LM (etapa S250) . El procesamiento de predicción del modo de LM en la etapa S250 puede ser similar al procesamiento de predicción del modo de LM descrito utilizando la FIGURA 20. Por otro lado, si el modo de LM no se especifica, el controlador 92 de predicción provoca que la sección 96 de predicción realice procesamiento de intra predicción del componente de diferencia de color en el modo sin LM (etapa S260) . <5. Modificaciones> En la modalidad anterior, la sección 46 de predicción de la sección 40 de intra predicción del dispositivo 10 de codificación de imágenes calcula el valor de pixel pronosticado del componente de diferencia de color en el modo de LM de acuerdo con la Fórmula (1) . De manera similar, la sección 96 de predicción de la sección 90 de intra predicción del dispositivo 60 de descodificación de imágenes calcula el valor de pixel pronosticado del componente de diferencia de color en el modo de LM de acuerdo con la Fórmula (1) anterior. ReL' (x,y) en el lado derecho de la Fórmula (1) representa el valor de la posición de pixel (x, y) del componente de luminancia de una imagen descodificada después del remuestreo. De esta manera, cuando el cálculo del valor de pixel pronosticado se realiza en bloques, el valor de pixel del componente de luminancia después del remuestreo en bloques se mantiene hasta que el valor de pixel pronosticado del componente de diferencia de color se calcula.
Por ejemplo, LCUi mostrado en la parte izquierda de la FIGURA 24 se divide en 10 unidades de codificación CU0 a CU9. Como ejemplo, el tamaño de LCUi es de 128x128 pixeles, el tamaño de las unidades de codificación CU0 y Cu5 es de 64x64 pixeles, y el tamaño de las unidades de codificación CUi a CU4 y CU6 a CU9 es de 32x32 pixeles. El cálculo del valor de pixel pronosticado normalmente se realiza por cada unidad de codificación y de esta manera, si el formato croma es de 4:2:0 en este caso, una memoria de 32X32 pixeles (particularmente para las unidades de codificación CU0 y CU5) puede proporcionarse para mantener los valores de pixel de los componentes de luminancia después del remuestreo. Por otro lado, el tamaño de LCU2 mostrado a la derecha de la FIGURA 24 es de 128x128 pixeles y sólo una CUi0 se contiene dentro de LCU2. Si el formato croma es de 4:2:0 en este caso, una memoria de 64X64 pixeles puede proporcionarse para mantener los valores de pixel de los componentes de luminancia después del remuestreo. La cantidad de consumo de recursos de memoria incrementa con una profundidad de bits en incremento de un pixel.
El incremento anterior de la cantidad de consumo de recursos de memoria no es deseable para un dispositivo cuyos recursos de memoria se limitan. De esta manera, en esta sección, dos modificaciones para reducir la cantidad de consumo de recursos de memoria junto con la introducción del modo de LM se describirá. 5-1. Primera Modificación En una primera modificación, la sección 46 de predicción del dispositivo 10 de codificación de imágenes y la sección 96 de predicción del dispositivo 60 de descodificación de imágenes adelgazan los componentes de luminancia que corresponden con cada componente de diferencia de color en cierta proporción de adelgazamiento. El componente de luminancia que corresponde con cada componente de diferencia de color corresponde con cada componente de luminancia después del remuestreo de acuerdo con, por ejemplo, la Fórmula (2) anterior. Después, la sección 46 de predicción y la sección 96 de predicción generan los valores pronosticados de cada componente de diferencia de color que corresponde con los componentes de luminancia adelgazados al utilizar los valores de los componentes de luminancia que no se adelgazan.
La FIGURA 25 es una vista explicativa que ilustra un ejemplo del procesamiento de adelgazamiento de acuerdo con la presente modificación. Con referencia a la FIGURA 25, la unidad de predicción (PU) de 8x8 pixeles se muestra como ejemplo. Se asume que el formato croma de 4:2:0 y la proporción de adelgazamiento es de 25%. La proporción de adelgazamiento indica la relación del número de pixeles después del adelgazamiento en el número de pixeles antes del adelgazamiento. En el ejemplo de la FIGURA 25, el número de componentes de diferencia de color contenidos en una PU es de 4x4. El número de componentes de luminancia que corresponde con cada componente de diferencia de color también es de 4x4 debido al remuestreo. Como resultado de adelgazar los componentes de luminancia después del remuestreo en la proporción de adelgazamiento de 25%, el número de componentes de luminancia utilizado para predecir el componente de diferencia de color en el modo de LM es de 2x2. Más específicamente, en el ejemplo a la derecha inferior de la FIGURA 25, entre cuatro componentes de luminancia Luí a Lu4, los componentes de luminancia Lu2, Lu3, Lu4 distintos al componente de luminancia Luí se adelgazan. De manera similar, entre cuatro componentes de luminancia Lu5 a Lu8, los componentes de luminancia Lu6, Lu7, Lu8 distintos al componente de luminancia Lu5 se adelgazan. El componente de diferencia de color Cul en la izquierda inferior de la FIGURA 25 corresponde con el componente de luminancia Luí que no se adelgaza. Por lo tanto, la sección 46 de predicción y la sección 96 de predicción pueden generar los valores pronosticados del componente .de diferencia de color Cul al sustituir el valor del componente de luminancia Luí en el lado derecho de la Fórmula (1) anterior. Por otro lado, por ejemplo, el componente de diferencia de color Cu2 corresponde con el componente de luminancia Lu2 adelgazado. En este caso, la sección 46 de predicción y la sección 96 de predicción generan los valores pronosticados del componente de diferencia de color Cu2 utilizando el valor de cualquier componente de luminancia que no se adelgace. Por ejemplo, el valor pronosticado del componente de diferencia de color Cu2 puede ser el doble del valor pronosticado del componente de diferencia de color Cul o un valor obtenido por la interpolación lineal de dos valores pronosticados de los componentes de diferencia de color Cul, Cu5.
De manera más general, por ejemplo, el valor de pixel pronosticado Prc(x, y) del componente de diferencia de color cuando la proporción de adelgazamiento es de 25%, puede calcularse por técnicas representadas por la siguiente Fórmula (5) o Fórmula (6) . La Fórmula (5) representa la duplicación de un valor pronosticado a partir de pixeles adyacentes .
Ecuación Matemática 8 (xmod2==0&& mod2 =0) (xmod2 =1 &&j> od2 = 0) ( 5 ) (*mod2«0&& mod2 * l) (xmod2 = l&&j>mod2 =l) La Fórmula (6) representa la interpolación lineal valor pronosticado.
Ecuación Matemática 9 (jrtnod2=0&&pmod2 = 0) (a¦ Re¿ [x ],y] l ß) l (<¾ ot [x í,y] > fi) (x iñod 2 = ! & & y raod 2 = 0) (6) 2 (jrmód2 » 1 ¿fe &/mod2 = I) De manera incidental la Fórmula (5) y la Fórmula (6) sólo son ejemplos y otras fórmulas también pueden utilizarse .
La proporción de adelgazamiento anterior afecta la cantidad de recursos de memoria para contener los valores de pixel después del remuestreo de los componentes de luminancia. La cantidad de consumo de recursos de memoria disminuye con un número de incremento de componentes de luminancia que se adelgazará. Sin embargo, si el número de componentes de luminancia que se adelgaza es grande, la precisión de predicción del componente de diferencia de color puede degradarse. De esta manera, el parámetro para especificar la proporción de adelgazamiento puede especificarse en el encabezado (por ejemplo, el conjunto de parámetros de secuencia, el conjunto de parámetros de imágenes, o el encabezado del segmento) de una corriente codificada. En este caso, la sección 96 de predicción del dispositivo 60 de descodificación de imágenes decide la proporción de adelgazamiento basándose en el parámetro adquirido del encabezado. Por consiguiente, la proporción de adelgazamiento puede cambiarse de manera flexible de acuerdo con los requisitos (por ejemplo, de los cuales el ahorro de recursos de memoria y la eficiencia de codificación deben tener mayor prioridad) para cada dispositivo.
Con referencia a las FIGURAS 26A a 26C, en contraste al ejemplo en la FIGURA 25, la proporción de adelgazamiento es de 50% en cada caso. En estos ejemplos, la mitad de los componentes de luminancia de los componentes de luminancia después del muestreo se adelgaza. Sin embargo, incluso si la proporción de adelgazamiento es la misma, los patrones de la posición de componentes de luminancia que va a adelgazarse (después de esto, denominados patrones de adelgazamiento), son mutuamente diferentes.
En el ejemplo de la FIGURA 26A, entre cuatro componentes de luminancia Luí a Lu4 , los componentes de luminancia Lu2 , Lu4 se adelgazan. De manera similar, entre cuatro componentes de luminancia Lu5 a Lu8, los componentes de luminancia Lu6, Lu8 se adelgazan. También en este caso, por ejemplo, el valor pronosticado del componente de diferencia de color Cu2 que corresponde con el componente de luminancia adelgazado Lu2 puede ser la replicación del valor pronosticado del componente de diferencia de color Cul o un valor obtenido por la interpolación lineal de los dos valores pronosticados de los componentes de diferencia de color Cul, Cu5. En el patrón de adelgazamiento de la FIGURA 26A, los componentes de luminancia que se adelgazarán se distribuyen uniformemente en la PU. Por lo tanto, en comparación con otros patrones de adelgazamiento de la misma proporción de adelgazamiento, el patrón de adelgazamiento en la FIGURA 26A realiza una mayor precisión de predicción.
En el ejemplo de la FIGURA 26B, los componentes de luminancia se adelgazan en cada tercera fila. Tal patrón de adelgazamiento es ventajoso en que por ejemplo, en un dispositivo que contiene valores de pixeles en una memoria en línea, los valores de muchos componentes de luminancia pueden accederse por medio de acceso de memoria a la vez . En el ejemplo de la FIGURA 26C, por otro lado, los componentes de luminancia se adelgazan en cada tercera columna. Tal patrón de adelgazamiento es ventajoso ya que, por ejemplo, si el formato croma es 4:2:2 y el número de pixeles en la dirección vertical es mayor, más componentes de frecuencia en la dirección de columna pueden mantenerse.
El parámetro para especificar el patrón de adelgazamiento de una pluralidad de candidatos de patrón de adelgazamiento puede especificarse en el encabezado de una corriente codificada. En este caso, la sección 96 de predicción del dispositivo 60 de descodificación de imágenes decide las posiciones de los componentes de luminancia que se adelgazarán basándose en el parámetro adquirido del encabezado. Por consiguiente, el patrón de adelgazamiento puede cambiarse de manera flexible de acuerdo con los requisitos para cada dispositivo.
Además, la sección 46 de predicción y la sección 96 de predicción pueden decidir las proporciones de adelgazamiento de acuerdo con la relación de referencia anterior. Si por ejemplo, el número de pixeles de referencia mencionados cuando los coeficientes de una función de predicción se calculan es menor, más componentes de luminancia pueden adelgazarse. En este punto, la sección 46 de predicción y la sección 96 de predicción pueden adelgazar los componentes de luminancia en posiciones que corresponden con posiciones de adelgazamiento de pixeles de referencia.
Las FIGURAS 27A y 27B cada una muestra ejemplos de correspondencia entre posiciones de adelgazamiento de pixeles de referencia y posiciones de adelgazamiento de componentes de luminancia. En el ejemplo de la FIGURA 27A, el tamaño de PU es de 16x16 pixeles, el formato croma es de 4:2:0, y la relación de referencia es 2:1. En este caso, por ejemplo, la proporción de adelgazamiento se decide en favor del 25% y los patrones de adelgazamiento similares a los ejemplos en la FIGURA 25 pueden seleccionarse. En el ejemplo de la FIGURA 27B, por otro lado, el tamaño de PU es de 16x16 pixeles, el formato croma es de 4:2:0, la relación de referencia en la dirección vertical es de 2:1, y la relación de referencia en la dirección horizontal es de 1:1. En este caso, por ejemplo, la proporción de adelgazamiento se decide en favor del 50% y los patrones de adelgazamiento similares al ejemplo en la FIGURA 26B pueden seleccionarse.
En el ejemplo de la FIGURA 27A, todos los componentes de luminancia del bloque que se pronosticarán se adelgazan en filas en las cuales el pixel de referencia se adelgaza. Todos los componentes de luminancia del bloque que se pronosticarán se adelgazan en columnas en las cuales el pixel de referencia se adelgaza. Al decidir las posiciones de adelgazamiento de esta manera, la determinación de las posiciones de adelgazamiento se simplifica y la implementación del procesamiento de adelgazamiento de acuerdo con la presente modificación puede hacerse aún más fácil. También en el ejemplo de la FIGURA 27B, todos los componentes de luminancia del bloque que se pronosticarán se adelgazan en filas en las cuales el pixel de referencia se adelgaza. Al decidir las posiciones de adelgazamiento de esta manera, el acceso a los componentes de luminancia puede saltarse completamente en filas que corresponden con las posiciones de adelgazamiento sin importar los pixeles de referencia pixeles que van a pronosticarse. Por consiguiente, la implementación del procesamiento de adelgazamiento se hace aún más fácil y también la velocidad de procesamiento puede incrementarse al reducir el número de veces de acceso a memoria. 5-2. Segunda Modificación En una segunda modificación, el orden del nuevo procesamiento por la sección 40 de intra predicción del dispositivo 10 de codificación de imágenes y la sección 90 de intra predicción del dispositivo 60 de descodificación de imágenes se adoptan.
La FIGURA 28 es una vista explicativa que ilustra el orden del nuevo procesamiento adoptado para la presente modificación. Con referencia a la FIGURA 28, como ejemplo, LCU incluye unidades de codificación CU0, CUi, CU2 y otras unidades de codificación se muestran. Además, la unidad de codificación CU0 se divide en cuatro unidades de predicción PU0Q, PU0i, PU02, y PU03. La unidad de codificación CUj, se divide en cuatro unidades de predicción PUio, PUn, PUi2, y PUi3. La unidad de codificación CU2 se divide en cuatro unidades de predicción PU20/ PU2i, PU22 y PU23. De acuerdo con la técnica existente, el procesamiento de intra predicción para la LCU se realiza igual que Y0o ~* ??? ? G02 ? Y03 ? Cb00 ? Cb01 ? Cb02 ? Cb03 ? Cr00 ? Cr01 ? Cr02 ? Cr03 ? Y10 ? ... representa una intra predicción del componente de luminancia de la unidad de predicción PUNN y C1?NN Y Crm cada uno representa una intra predicción de un componente de diferencia de color de la unidad de predicción PUNN. ES decir, de acuerdo con la técnica existente, se realiza procesamiento de intra predicción para cada componente en cada unidad de codificación. Tal orden de procesamiento aquí se denomina como "orden por componente" . En la presente modificación, por otro lado, por ejemplo, el controlador 42 de predicción de la sección 40 de intra predicción del dispositivo 10 de codificación de imágenes y el controlador 92 de predicción de la sección 90 de intra predicción del dispositivo 60 de descodificación de imágenes controla el procesamiento de cada una de las secciones de manera que el procesamiento de intra predicción se realiza para cada unidad de predicción en cada unidad de codificación. Tal orden del nuevo procesamiento se denomina como "orden por PU" . Cuando por ejemplo, el orden por PU se aplica a LCU en la FIGURA 28, el procesamiento de intra predicción del componente de luminancia Y0o y los dos componentes de diferencia de color Cb0o/ Cr0o de la unidad de predicción PU00 primero se realiza. A continuación, el procesamiento de intra predicción del componente de luminancia Y0i y los dos componentes de diferencia de color Cboi, Cr0i de la unidad de predicción PU0i se realiza. Entonces, el procesamiento de intra predicción de tres componentes se repite en el orden de unidades de predicción PU02, PU03, PUio. ...
En el orden por componente de acuerdo con la técnica existente, la cantidad de recursos de memoria para mantener los valores del componente de luminancia mencionados para intra predicción en el modo de LM se ve afectado por el tamaño de la unidad de codificación máxima. Si por ejemplo, el tamaño de la unidad de codificación máxima es de 128x128 pixeles, el formato croma es de 4:2:0, y la profundidad de bits es de 10 bits, los recursos de memoria de 64x64x10 bits se necesitan. En el orden de PU antes descrito, por otro lado, la cantidad de recursos de memoria para mantener los valores de componente de luminancia mencionados para intra predicción en el modo de LM se ve afectado por el tamaño de la unidad de predicción máximo. Si por ejemplo, la unidad de codificación se divide en cuatro unidades de predicción o más, la cantidad de recursos de memoria necesaria para el caso del orden por PU es un cuarto de la cantidad de recursos de memoria necesarios para el caso de orden por componente. Por lo tanto, al adoptar el orden anterior por PU, la cantidad de consumo de recursos de memoria puede reducirse. <6. Aplicación Ejemplar> El dispositivo 10 de codificación de imágenes y el dispositivo 60 de descodificación de imágenes de acuerdo con la modalidad descrita en lo anterior puede aplicarse a varios aparatos electrónicos tales como un transmisor y un receptor de satélite de difusión, difusión por cable, tal como TV por cable, distribución en Internet, distribución en terminales mediante comunicación celular, y similares, un dispositivo de grabación que graba imágenes en un medio tal como un disco óptico, un disco magnético o una memoria flash, un dispositivo de reproducción que reproduce imágenes del medio de almacenamiento, y similares. Cuatro aplicaciones ejemplares se describirán a continuación. 6-1. Primera Aplicación Ejemplar La FIGURA 29 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de una televisión que adopta la modalidad descrita en lo anterior. Una televisión 900 incluye una antena 901, un sintonizador 902, un desmultiplexor 903, un descodificador 904, una sección 905 de procesamiento de señales de video, una sección 906 de visualización, una sección 907 de procesamiento de señales de audio, un altavoz 908, una interfaz 909 externa, una sección 910 de control, una interfaz 911 de usuario y un bus 912.
El sintonizador 902 extrae una señal de un canal deseado de las señales de difusión recibidas mediante la antena 901 y desmodula la señal extraída. Después, el sintonizador 902 produce una corriente de bits codificada obtenida por la desmodulación en el desmultiplexor 903. Es decir, el sintonizador 902 sirve como medio de transmisión de la televisión 900 para recibir una corriente codificada en la cual se codifica una imagen.
El desmultiplexor 903 separa una corriente de video y una corriente de audio de un programa que va a verse de la corriente de bits codificada, y produce cada corriente que se ha separado del descodificador 904. También, el desmultiplexor 903 extrae los datos auxiliares tales como EPG (Guía de Programación Electrónica) de la corriente de bits codificada y suministra los datos extraídos a la sección 910 de control. Adicionalmente , el desmultiplexor 903 puede realizar desaleatorización en el caso de que la corriente de bits codificada se aleatorice.
El descodificador 904 descodifica la corriente de video y la corriente de audio ingresada desde " el desmultiplexor 903. Después, el descodificador 904 produce datos de video generados por el proceso de descodificación en la sección 905 de procesamiento de señales de video. También, el descodificador 904 produce los datos de audio generados por el proceso de descodificación en la sección 907 de procesamiento de señales de audio.
La sección 905 de procesamiento de señales de video reproduce los datos de video ingresados desde el descodificador 904, y provoca que la sección 906 de visualización despliegue el video. La sección 905 de procesamiento de señales de video también puede provocar que la sección 906 de visualización despliegue una pantalla de aplicación suministrada mediante una red. Además, la sección 905 de procesamiento de señales de video puede realizar un proceso adicional tal como remoción de ruido, por ejemplo, en los datos de video de acuerdo con el ajuste. Además, la sección 905 de procesamiento de señales de video puede generar una imagen de una GUI (Interfaz de Usuario Gráfica) tal como un menú, un botón, un cursor o similares, por ejemplo, y superponer la imagen generada en una imagen de salida .
La sección 906 de visualización se impulsa por una señal de impulsión suministrada por la sección 905 de procesamiento de señales de video, y despliega un video o una imagen en una pantalla de video de un dispositivo de visualización (por ejemplo, una pantalla de cristal líquido, una pantalla de plasma, una OLED, o similares.
La sección 907 de procesamiento de señales de audio realiza procesos de reproducción tal como conversión de D/A y amplificación en los datos de audio ingresados desde el descodificador 904, y produce audio desde el altavoz 908. También, la sección 907 de procesamiento de señales de audio puede realizar un proceso adicional tal como eliminación de ruido en los datos de audio.
La interfaz 909 externa es una interfaz para conectar la televisión 900 y un aparato externo o una red. Por ejemplo, una corriente de video o una corriente de audio recibida mediante la interfaz 909 externa puede descodificarse por el descodificador 904. Es decir, la interfaz 909 externa también sirve como medio de transmisión de la televisión 900 para recibir una corriente codificada en la cual se codifica una imagen.
La sección 910 de control incluye un procesador tal como un CPU (Unidad de Procesamiento Central) y una memoria tal como una RAM (Memoria de Acceso Aleatorio) , una ROM (Memoria de Sólo Lectura), o similares. La memoria almacena un programa que será ejecutado por la CPU, datos de programación, datos de EPG, datos adquiridos mediante una red, y similares. El programa almacenado en la memoria se lee y se ejecuta por la CPU al momento de la activación de la televisión 900, por ejemplo. La CPU controla la operación de la televisión 900 de acuerdo con una señal de operación ingresada desde la interfaz 911 de usuario, por ejemplo, al ejecutar el programa.
La interfaz 911 de usuario se conecta a la sección 910 de control. La interfaz 911 de usuario incluye un botón y un conmutador utilizado por un usuario para operar la televisión 900, y una sección de recepción para una señal de control remoto, por ejemplo. La interfaz 911 de usuario detecta una operación de un usuario mediante estos elementos estructurales, genera una señal de operación, y produce la señal de operación generada en la sección 910 de control.
El bus 912 se interconecta al sintonizador 902, el desmultiplexor 903, el descodificador 904, la sección 905 de procesamiento de señal de video, la sección 907 " de procesamiento de señal de audio, la interfaz 909 externa, y la sección 910 de control.
En la televisión 900 configurada como se describe en lo anterior, el descodificador 904 tiene una función del dispositivo 600 de descodificación de imágenes de acuerdo con la modalidad descrita en lo anterior. Por consiguiente, un incremento en el costo de procesamiento que acompaña la extensión del tamaño de bloque puede impedirse incluso cuando el modo de LM se adopta para descodificar imágenes de la televisión 900. 6-2. Segunda Aplicación Ejemplar La FIGURA 30 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de un teléfono móvil que adopta la modalidad descrita en lo anterior. Un teléfono 920 móvil incluye una antena 921, una sección 922 de comunicación, un codee 923 de audio, un altavoz 924, un micrófono 925, una sección 926 de cámara, una sección 927 de procesamiento de imágenes, una sección 928 de desmultiplexión, una sección 929 de grabación/reproducción, una sección 930 de visualización, una sección 931 de control, una sección 932 de operación, y un bus 933.
La antena 921 se conecta a la sección 922 de comunicación. El altavoz 924 y el micrófono 925 se conectan al códec 923 de audio. La sección 932 de operación se conecta a la sección 931 de control. El bus 933 se interconecta con la sección 922 de comunicación, el códec 923 de audio, la sección 926 de cámara, la sección 927 de procesamiento de imágenes, la sección 928 de desmultiplexión, la sección 929 de grabación/reproducción, la sección 930 de visualización, y la sección 931 de control.
El teléfono 920 móvil realiza la operación tal como transmisión/recepción de señal de audio, transmisión/recepción de correos electrónicos o datos de imágenes, captura de imágenes, grabación de datos, y similares, en varios modos de operación que incluyen un modo de comunicación de audio, un modo de comunicación de datos, u modo de captura de imágenes, y un modo de videoteléfono.
En el modo de comunicación de audio, una señal de audio análoga generada por el micrófono 925 se suministra al códec 923 de audio. El códec 923 de audio convierte la señal de audio análoga en datos de audio, y convierte de A/D y comprime los datos de audio convertidos. Después, el códec 923 de audio produce los datos de audio comprimidos en la sección 922 de comunicación. La sección 922 de comunicación codifica y modula los datos de audio, y genera una señal de transmisión. Después, la sección 922 de comunicación transmite la señal de transmisión generada a una estación base (no mostrada) mediante la antena 921. También, la sección 922 de comunicación amplifica una señal inalámbrica recibida mediante la antena 921 y convierte la frecuencia de la señal inalámbrica, y adquiere una señal recibida. Después, la sección 922 de comunicación desmodula y descodifica la señal recibida y genera datos de audio, y produce los datos de audio generados en el códec 923 de audio. El códec 923 de audio extiende y convierte D/A los datos de audio, y genera una señal de audio análoga. Después, el códec 923 de audio suministra la señal de audio generada al altavoz 924 y provoca que se reproduzca el audio .
También, en el modo de comunicación de datos, la sección 931 de control genera datos de texto que forman un correo electrónico, de acuerdo con una operación de un usuario mediante la sección 932 de operación, por ejemplo. Además, la sección 931 de control provoca que el texto se despliegue en la sección 930 de visualización . Además, la sección 931 de control genera datos de correo electrónico de acuerdo con una instrucción de transmisión del usuario mediante la sección 932 de operación, y produce los datos de correo electrónico generados a la sección 922 de comunicación. Después, la sección 922 de comunicación codifica y modula los datos de correo electrónico, y genera una señal de transmisión. Luego, la sección 922 de comunicación transmite la señal de transmisión generada a una estación base (no mostrada) mediante la antena 921. También, la sección 922 de comunicación amplifica una señal inalámbrica recibida mediante la antena 921 y convierte la frecuencia de la señal inalámbrica, y adquiere una señal recibida. Después, la sección 922 de comunicación desmodula y descodifica la señal recibida, restablece los datos de correo electrónico, y produce los datos de correo electrónico restablecidos en la sección 931 de control. La sección 931 de control provoca que la sección 930 de visualización despliegue el contenido del correo electrónico, y también, provoca que los datos de correo electrónico se almacenen en el medio de almacenamiento de la sección 929 de grabación/reproducción .
La sección 929 de grabación/reproducción incluye un medio de almacenamiento legible y grabable arbitrario. Por ejemplo, el medio de almacenamiento puede ser un medio de almacenamiento integrado tal como una RAM, una memoria flash, o similares, o un medio de almacenamiento externamente montado tal como un disco duro, un disco magnético, un disco magneto-óptico, un disco óptico, una memoria USB, una tarjeta de memoria, o similares.
Además, en el modo de captura de imágenes, la sección 926 de cámara captura una imagen de un objeto, genera datos de imagen, y produce los datos de imagen generados en la sección 927 de procesamiento de imágenes, por ejemplo. La sección 927 de procesamiento de imágenes codifica los datos de imagen ingresados desde la sección 926 de cámara, y provoca que la corriente codificada se almacene en el medio de almacenamiento de la sección 929 de grabación/reproduceión .
Además, en el modo de videoteléfono, la sección 928 de desmultiplexión multiplexa una corriente de video codificada por la sección 927 de procesamiento de imágenes y una corriente de audio ingresada desde el códec 923 de audio, y produce la corriente multiplexada en la sección 922 de comunicación, por ejemplo. La sección 922 de comunicación codifica y modula la corriente, y genera una señal de transmisión. Después, la sección 922 de comunicación transmite la señal de transmisión generada a una estación base (no mostrada) mediante la antena 921. También, la sección 922 de comunicación amplifica una señal inalámbrica recibida mediante la antena 921 y convierte la frecuencia de la señal inalámbrica, y adquiere una señal recibida. Estas señales de transmisión y señales recibidas pueden incluir una corriente de bits codificada. Después, la sección 922 de comunicación desmodula y descodifica la señal recibida, restablece la corriente, y produce la corriente restablecida en la sección 928 de desmultiplexión . La sección 928 de desmultiplexión separa una corriente de video y una corriente de audio de la corriente de entrada, y produce la corriente de video en la sección 927 de procesamiento de imágenes y la corriente de audio en el codee 923 de audio. La sección 927 de procesamiento de imágenes descodifica la corriente de video, y genera los datos de video. Los datos de video se suministran a la sección 930 de visualización, y una serie de imágenes se despliega por la sección 930 de visualización. El códec 923 de audio extiende y convierte D/A la corriente de audio, y genera una señal de audio análoga. Después, el códec 923 de audio suministra la señal de audio generada al altavoz 924 y provoca que el audio se reproduzca.
En el teléfono 920 móvil configurado de esta manera, la sección 927 de procesamiento de imágenes tiene "una función del dispositivo 10 de codificación de imágenes y el dispositivo 60 de descodificación de imágenes de acuerdo con la modalidad descrita en lo anterior. Por consiguiente, un incremento en el costo de procesamiento que acompaña a la extensión de tamaño de bloque puede impedirse incluso cuando el modo de L se adopta para codificar y descodificar imágenes del teléfono 920 móvil. 6-3. Tercera Aplicación Ejemplar La FIGURA 31 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de un dispositivo de grabación/reproducción que adopta la modalidad descrita en lo anterior. Un dispositivo 940 de grabación/ eproducción codifica y graba en un medio de grabación, los datos de audio y los datos de video de un programa de difusión recibido, por ejemplo. El dispositivo 940 de grabación/reproducción también puede codificar y grabar en el medio de grabación, datos de audio y datos de video adquiridos de otro dispositivo, por ejemplo. Además el dispositivo 940 de grabación/reproducción reproduce, utilizando un monitor o un altavoz, datos grabados en el medio de grabación, de acuerdó con una instrucción de un usuario, por ejemplo. En este tiempo, el dispositivo 940 de grabación/reproducción descodifica los datos de audio y los datos de video.
El dispositivo 940 de grabación/reproducción incluye un sintonizador 941, una interfaz 942 externa, un codificador 943, una HDD 944 (Unidad de Disco Duro), una unidad de disco 945, un selector 946, un descodificador 947, una OSD 948 (Visualización en Pantalla) , una sección 949 de control, y una interfaz 950 de usuario.
El sintonizador 941 extrae una señal de un canal deseado de las señales de difusión recibidas mediante una antena (no mostrada) y desmodula la señal extraída. Después, el sintonizador 941 produce una corriente de bit codificada obtenida por la desmodulación en el selector 946. Es decir, el sintonizador 941 sirve como medio de transmisión del dispositivo 940 de grabación/reproducción.
La interfaz 942 externa es una interfaz para conectar el dispositivo 940 de grabación/reproducción y un aparato externo o una red. Por ejemplo, la interfaz 942 externa puede ser una interfaz IEEE 1394, una interfaz de red, una interfaz de USB, una interfaz de memoria flash, o similares. Por ejemplo, los datos de video y los datos de audio recibidos por la interfaz 942 externa se ingresan en el codificador 943. Es decir, la interfaz 942 externa sirve como medio de transmisión del dispositivo 940 de grabación/reproducción.
En caso de que no se codifiquen los datos de video y los datos de audio ingresados desde la interfaz 942 externa, el codificador 943 codifica los datos de video y los datos de audio. Después, el codificador 943 produce la corriente de bit codificada en el selector 946.
La HDD 944 graba en un disco duro interno una corriente de bit codificada, que se comprende de datos de contenido comprimidos de video o audio, varios programas, y otras piezas de datos. También, la HDD 944 lee estas piezas de datos del disco duro al momento de reproducir un video o audio .
La unidad 945 de disco graba o lee datos en un medio de grabación que se monta. Un medio de grabación que se monta en la unidad 945 del disco puede ser un disco de DVD (un DVD-video, un DVD-RAM, un DVD-R, un DVD-RW, un DVD+, un DVD+RW, o similares) , un disco Blu-ray (marca comercial registrada) , o similares, por ejemplo.
El selector 946 selecciona, al momento de grabar un video, o audio, una corriente de bit codificada ingresada desde el sintonizador 941 o el codificador 943, y produce la corriente de bit codificada seleccionada en la HDD 944 o la unidad 945 de disco. También, el selector 946 produce, al momento de reproducir un video o audio, una corriente de bit codificada ingresada desde la HDD 944 o la unidad 945 de disco al descodificador 947.
El descodificador 947 descodifica la corriente de bit codificada, y genera datos de video y datos de audio. Después, el descodificador 947 produce los datos de video generados en la OSD 948. También, el descodificador 904 produce los datos de audio generados en un altavoz externo.
La OSD 948 reproduce los datos de video ingresados desde el descodificador 947, y despliega un video. También, la OSD 948 puede superponer una imagen de una GUI, tal como un menú, un botón, un cursor o similares, por ejemplo, en un video desplegado.
La sección 949 de control incluye un procesador tal como una CPU, y una memoria tal como una RAM o una ROM. La memoria almacena un programa que se ejecutará por la CPU, datos de programación, y similares. Un programa almacenado en la memoria se lee y se ejecuta por la CPU al momento de la activación del dispositivo 940 de grabación/reproducción, por ejemplo. La CPU controla la operación del dispositivo 940 de grabación/reproducción de acuerdo con una señal de operación ingresada desde la interfaz 950 de usuario, por ejemplo, al ejecutar el programa.
La interfaz 950 de usuario se conecta a la sección 949 de control. La interfaz 950 de usuario incluye un botón y un conmutador utilizado por un usuario para operar el dispositivo 940 de grabación/reproducción, y una sección de recepción para una señal de control remoto, por ejemplo. La interfaz 950 de usuario detecta una operación de un usuario mediante estos elementos estructurales, genera una señal de operación, y produce la señal de operación generada en la sección 949 de control.
En el dispositivo 940 de grabación/reproducción configurado de esta manera, el codificador 943 tiene una función del dispositivo 10 de codificación de imágenes de acuerdo con la modalidad descrita en lo anterior. También, el descodificador 947 tiene una función del dispositivo 60 de descodificación de imágenes de acuerdo con la modalidad descrita en lo anterior. Por consiguiente, un incremento en el costo de procesamiento que acompaña la extensión del tamaño de bloque puede impedirse incluso cuando el modo de ML se adopta para codificar y descodificar imágenes del dispositivo 940 de grabación/reproducción. 6-4. Cuarta Aplicación Ejemplar La FIGURA 32 es un diagrama de bloque que muestra un ejemplo de una configuración esquemática de un dispositivo de captura de imágenes que adopta la modalidad descrita en lo anterior. Un dispositivo 960 de captura de imágenes captura una imagen de un objeto, genera una imagen, codifica los datos de imagen y graba los datos de imagen en un medio de grabación .
El dispositivo 960 de captura de imágenes incluye un bloque 961 óptico, una sección 962 de captura de imágenes, una sección 963 de procesamiento de señales, una sección 964 de procesamiento de imágenes, una sección 965 de visualización, una interfaz 966 externa, una memoria 967, una unidad 968 de medios, una OSD 969, una sección 970 de control, una interfaz 971 de usuario, y un bus 972.
El bloque 961 óptico se conecta a la sección 962 de captura de imágenes. La sección 962 de captura de imágenes se conecta a la sección 963 de procesamiento de señales. La sección 965 de visualización se conecta a la sección 964 de procesamiento de imágenes. La interfaz 971 de usuario se conecta a la sección 970 de control. El bus 972 se interconecta con la sección 964 de procesamiento de imágenes, la interfaz 966 externa, la memoria 967, la unidad 968 de medios, la OSD 969 y la sección 970 de control.
El bloque 961 óptico incluye una lente de enfoque, un mecanismo de detención de apertura, y similares. El bloque 961 óptico forma una imagen óptica de un objeto en una superficie de captura de imagen de la sección 962 de captura de imágenes. La sección 962 de captura de imágenes incluye un sensor de imagen tal como un CCD, un CMOS o similares, y convierte mediante la conversión fotoeléctrica la imagen óptica formada en la superficie de captura de imágenes en una señal de imagen la cual es una señal eléctrica. Después, la sección 962 de captura de imágenes produce la señal de imagen en la sección 963 de procesamiento de señales.
La sección 963 de procesamiento de señales realiza varios procesos de señales de cámara, tales como corrección de Knee, corrección gama, corrección de color y similares, en la señal de imagen ingresada desde la sección 962 de captura de imágenes. La sección 963 de procesamiento de señales produce los datos de imagen después del proceso de señales de cámara en la sección 964 de procesamiento de imágenes.
La sección 964 de procesamiento de imágenes codifica los datos de imagen ingresados desde la sección 963 de procesamiento de señales, y genera datos codificados. Después, la sección 964 de procesamiento de imágenes produce los datos codificados generados en la interfaz 966 externa o la unidad 968 de medios. También, la sección 964 de procesamiento de imágenes descodifica los datos codificados ingresados desde la interfaz 966 externa o la unidad 968 de medios, y genera datos de imagen. Después, la sección 964 de procesamiento de imágenes produce los datos de imagen generados en la sección 965 de visualización . También, la sección 964 de procesamiento de imágenes puede producir datos de imagen ingresados desde la sección 963 de procesamiento de señales en la sección 965 de visualización, y provocar que la imagen se despliegue. Además, la sección 964 de procesamiento de imágenes puede superponer datos para visualización adquirida desde la OSD 969 en una imagen que se reproducirá en la sección 965 de visualización .
La OSD 969 genera una imagen de una GUI, tal como un menú, un botón, un cursor o similares, por ejemplo, y produce la imagen generada en la sección 964 de procesamiento de imágenes .
La interfaz 966 externa se configura como una terminal de entrada/salida de USB, por ejemplo. La interfaz 966 externa conecta al dispositivo 960 de captura de imágenes y una impresora al momento de imprimir una imagen, por ejemplo. También, una unidad se conecta a la interfaz 966 externa cuando es necesario. Un medio removible, tal como un disco magnético, un disco óptico, p similares, por ejemplo, se monta en la unidad, y un programa leído desde el medio removible puede instalarse en el dispositivo 960 de captura de imágenes. Además, la interfaz 966 externa puede configurarse como interfaz de red para conectarse a una red tal como una LAN, la Internet o similares. Es decir, la interfaz 966 externa sirve como medio de transmisión del dispositivo 960 de captura de imágenes.
Un medio de grabación que se monta en la unidad 968 de medios puede ser un medio removible legible y grabable arbitrario, tal como un disco magnético, un disco magneto óptico, un disco óptico, una memoria de semiconductor o similares, por ejemplo. También, un medio de grabación puede montarse de manera fija en la unidad 968 de medios, que configura una sección de almacenamiento no transportable tal como una unidad de disco duro integrada o una SSD (Unidad de Estado Sólido), por ejemplo.
La sección 970 de control incluye un procesador tal como una CPU; y una memoria tal como RAM o una ROM. La memoria almacena un programa que se ejecutará por la CPU, datos de programación y similares. Un programa almacenado en la memoria se lee y ejecuta por la CPU al momento de la activación del dispositivo 960 de captura de imágenes, por ejemplo. La CPU controla la operación del dispositivo 960 de captura de imágenes de acuerdo con una señal de operación ingresada desde la interfaz 971 de usuario, por ejemplo, al ejecutar el programa.
La interfaz 971 de usuario se conecta la sección 970 de control. La interfaz 971 de usuario incluye un botón, un conmutador y similares utilizado por un usuario para operar el dispositivo 960 de captura de imágenes, por ejemplo. La interfaz 971 de usuario detecta una operación de un usuario mediante estos elementos estructurales, genera una señal de operación, y produce la señal de operación generada en la sección 970 de control.
En el dispositivo 960 de captura de imágenes configurado de esta manera, la sección 964 de procesamiento de imágenes tiene una función del dispositivo 10 de codificación de imágenes y el dispositivo 60 de descodificación de imágenes de acuerdo con la modalidad descrita en lo anterior. Por consiguiente, un incremento en el costo de procesamiento que acompaña la extensión del tamaño de bloque puede detenerse incluso cuando el modo de LM se adopta para codificar y descodificar imágenes del dispositivo 960 de captura de imágenes. <7. Compendio> Por lo tanto, el dispositivo 10 de codificación de imágenes y el dispositivo 60 de descodificación de imágenes de acuerdo con una modalidad se han descrito utilizando las FIGURAS 1 a 32. De acuerdo con la presente modalidad, cuando el modo de L utiliza una función del valor del componente de luminancia correspondiente se adopta para intra predicción del componente de diferencia de color para codificar o descodificar imágenes, la relación del número de pixeles de referencia mencionados para calcular coeficientes de la función en el tamaño de bloque se controla de manera variable. Por lo tanto, un incremento en el costo de procesamiento puede evitarse o mitigarse al frenar un incremento del número de pixeles de referencia que acompañan la extensión del tamaño de bloque.
También de acuerdo con la presente modalidad, la relación se controla de modo que el número de pixeles de referencia es constante cuando el tamaño de bloque excede un tamaño predeterminado. De acuerdo con tal configuración, coeficientes de la función pueden calcularse utilizando un circuito común o lógica para una pluralidad de tamaños de bloque. Por lo tanto, un incremento en la escala del circuito o lógica provocado por la adopción del modo de LM también puede frenarse .
También de acuerdo con la presente modalidad, pixeles de referencia no se reducen excesivamente cuando el tamaño de bloque cae por debajo de un tamaño predeterminado. Por lo tanto, la degradación de la precisión de predicción en el modo de LM debido a un número insuficiente de pixeles de referencia puede evitarse. Un tamaño de bloque relativamente grande normalmente puede establecerse cuando una imagen en el bloque es monótona y una predicción puede realizarse fácilmente. Por lo tanto, cuando el tamaño de bloque aún es grande, el riesgo de degradación extrema de la precisión de predicción provocada por la reducción de más pixeles de referencia es pequeño.
También de acuerdo con la presente modalidad, la relación puede controlarse por separado en la dirección vertical y en la dirección horizontal del bloque. De acuerdo con tal configuración, coeficientes de la función pueden calcularse utilizando un circuito común o lógica sin que dependa del formato croma. Además, se vuelve posible dejar más pixeles de referencia dispuestos a lo largo de la dirección horizontal que pueden accederse con menos cantidad de acceso de memoria y reducir más pixeles de referencia dispuestos a lo largo de la dirección vertical. Además, cuando se utiliza el método de intra predicción de corta distancia, pixeles de referencia que se reducirán pueden cambiarse de manera adaptable de acuerdo con la forma del bloque .
De acuerdo con las dos modificaciones descritas en lo anterior, la cantidad de consumo de recursos de memoria junto con la introducción del modo de LM puede reducirse efectivamente .
Adicionalmente , en la presente especificación, un ejemplo se ha descrito principalmente donde la información sobre intra predicción y la información sobre inter predicción se multiplexa en el encabezado de la corriente codificada, y la corriente codificada se transmite desde el lado de codificación hasta el lado de descodificación. Sin embargo, el método para transmitir esta información no se limita a tal ejemplo. Por ejemplo, esta información puede transmitirse o grabarse como datos individuales que se asocian con una corriente de bits codificada, sin que se multiplexen en la corriente de bits codificada. El término "asociar" aquí significa permitir una imagen incluida en una corriente de bits (o una parte de una imagen, tal como una porción o un bloque) y la información que corresponde con la imagen a enlazarse entre sí al momento de la descodificación. Es decir, esta información puede transmitirse en una línea de transmisión diferente desde la imagen (o la corriente de bits) . 0, esta información puede grabarse en un medio de grabación diferente (o en un área de grabación diferente en el mismo medio de grabación) de la imagen (o la corriente de bits) . Además, esta información y la imagen (o la corriente de bits) pueden asociarse entre sí en la base de unidades arbitrarias tal como una pluralidad de tramas, una trama, una parte de una trama o similares, por ejemplo.
Hasta ahora, una modalidad preferida de la presente descripción se ha descrito en detalle mientras se refiere a los dibujos anexos, pero el alcance técnico de la presente descripción no se limita a tal ejemplo. Es aparente que una persona que tiene experiencia ordinaria en la técnica de la tecnología de la presente descripción puede realizar varias alteraciones o modificaciones dentro del alcance de las ideas técnicas descritas en las reivindicaciones, y éstas, desde luego, se entienden para encontrarse dentro del alcance técnico de la presente descripción.
Adicionalmente, la presente tecnología también puede configurarse como sigue: (1) Un aparato de procesamiento de imágenes que incluye: una sección de predicción que genera un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se codificará al utilizar una función de un valor de un componente de luminancia correspondiente; una sección de cálculo de coeficiente que calcula un coeficiente de la función utilizada por la sección de predicción al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y un controlador que controla una relación de un número de pixeles de referencia utilizado por la sección de cálculo de coeficiente con un tamaño de bloque del bloque. (2) El aparato de procesamiento de imágenes de acuerdo con (1) , en donde el controlador controla la relación de acuerdo con el tamaño de bloque. (3) El aparato de procesamiento de imágenes de acuerdo con (2), en donde el controlador ejerce control en una forma que la relación cuando el tamaño de bloque es de un primer tamaño se vuelve menor que la relación cuando el tamaño de bloque es de un segundo tamaño, el cual es menor que el primer tamaño . (4) El aparato de procesamiento de imágenes de acuerdo, con (3) , en donde el controlador controla la relación en una forma que el número de pixeles de referencia se vuelve constante cuando el tamaño de bloque excede un tamaño predeterminado . (5) El aparato de procesamiento de imágenes de acuerdo con (4) , en donde la sección de cálculo de coeficiente calcula el coeficiente para una pluralidad de tamaños de bloque que excede el tamaño predeterminado utilizando un circuito común o lógica. (6) El aparato de procesamiento de imágenes de acuerdo con cualquiera de (1) a (5) , en donde el controlador controla la relación de acuerdo con el mapeo definido con anticipación entre el tamaño de bloque y la relación. (7) El aparato de procesamiento de imágenes de acuerdo con cualquiera de (1) a (6) , en donde el controlador controla la relación al cambiar el número de pixeles de referencia adelgazados al calcular el coeficiente. (8) El aparato de procesamiento de imágenes de acuerdo con (7) , en donde el controlador establece el número de pixeles de referencia que se adelgazará a cero cuando el tamaño de bloque caiga por debajo de un tamaño predeterminado. (9) El aparato de procesamiento de imágenes de acuerdo con (1) , en donde el controlador controla por separado una primera relación que es una relación de un número de pixeles de referencia a la izquierda del bloque en un tamaño del bloque en una dirección vertical y una segunda relación que es una relación de un número de pixeles de referencia superiores del bloque en un tamaño del bloque en una dirección horizontal. (10) El aparato de procesamiento de imágenes de acuerdo con (9) , en donde el controlador controla la primera relación o la segunda relación en una forma que la primera relación se vuelve igual a o menor que la segunda relación con respecto a un tamaño de bloque idéntico. (11) El aparato de procesamiento de imágenes de acuerdo con (9) , en donde, cuando se utiliza un método de intra predicción de corta distancia, el controlador controla sólo una relación que corresponde con una dirección en la cual una de la primera y la segunda relación que es mayor en tamaño corresponde . (12) El aparato de procesamiento de imágenes de acuerdo con (9) , en donde, cuando un formato croma que representa una resolución del componente de diferencia de color es 4:2:2, el controlador controla la primera relación en una forma que el número de pixeles de referencia a la izquierda del bloque se vuelve igual al número de pixeles de referencia superiores del bloque. (13) El aparato de procesamiento de imágenes de acuerdo con (1) , en donde el controlador controla la relación de acuerdo con un formato croma que representa una resolución del componente de referencia de color. (14) El aparato de procesamiento de imágenes de acuerdo con (13), en donde el controlador ejerce control en una forma en que la relación cuando el formato croma representa una primera resolución se vuelve menor que la relación cuando el formato croma representa una segunda resolución, la cual es menor que la primera resolución. (15) El aparato de procesamiento de imágenes de acuerdo con (5) , en donde, cuando una profundidad de bits de un valor de pixel excede un número predeterminado de bits, la sección de cálculo de coeficiente calcula el coeficiente utilizando los valores de pixeles de los pixeles de referencia reducidos al número predeterminado de bits . (16) Un método de procesamiento de imágenes que incluye : generar un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se descodificará al utilizar una función de un valor de un componente de luminancia correspondiente; calcular un coeficiente de la función al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y controlar una relación de un número de pixeles de referencia utilizados para calcular el coeficiente en un tamaño de bloque del bloque. (17) Un aparato de procesamiento de imágenes que incluye : una sección de predicción que genera un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se codificará al utilizar una función de un valor de un componente de luminancia correspondiente; una sección de cálculo de coeficiente que calcula un coeficiente de la función utilizada por la sección de predicción al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y un controlador que controla una relación de un número de pixeles de referencia utilizados por la sección de cálculo de coeficiente en un tamaño de bloque del bloque. (18) Un método de procesamiento de imágenes que incluye: generar un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se codificará al utilizar una función de un valor de un componente de luminancia correspondiente; calcular un coeficiente de la función al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y controlar una relación de un número de pixeles de referencia utilizados para calcular el coeficiente en un tamaño de bloque del bloque (19) Un aparato de procesamiento de imágenes que incluye : una sección de predicción que realiza una intra predicción de un componente de diferencia de color de una imagen utilizando un componente de luminancia de la imagen que se descodificará; y un controlador que controla de manera variable un pixel de referencia mencionado cuando la intra predicción se realiza por la sección de predicción. (20) Un método de procesamiento de imágenes que incluye: realizar una intra predicción de un componente de diferencia de color de una imagen utilizando un componente de luminancia de la imagen que se descodificará; y controlar de manera variable un pixel de referencia mencionado cuando la intra predicción del componente de diferencia de color se realiza .
Lista de Signos de Referencia 10 dispositivo de codificación de imágenes (aparato de procesamiento de imágenes) 42 controlador de predicción 44 sección de cálculo de coeficiente (sección de adelgazamiento) 46 sección de predicción 60 dispositivo de descodificación de imágenes (aparato de procesamiento de imágenes) 92 controlador de predicción 94 sección de cálculo de coeficiente (sección de adelgazamiento) 96 sección de predicción

Claims (20)

REIVINDICACIONES
1. Un aparato de procesamiento de imágenes que comprende : una sección de predicción que genera un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se codificará al utilizar una función de un valor de un componente de luminancia correspondiente; una sección de cálculo de coeficiente que calcula un coeficiente de la función utilizada por la sección de predicción al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y un controlador que controla una relación de un número de pixeles de referencia utilizado por la sección de cálculo de coeficiente con un tamaño de bloque del bloque.
2. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde el controlador controla la relación de acuerdo con el tamaño de bloque.
3. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 2, en donde el controlador ejerce control en una forma que la relación cuando el tamaño de bloque es de un primer tamaño se vuelve menor que la relación cuando el tamaño de bloque es de un segundo tamaño, el cual es menor que el primer tamaño.
4. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 3, en donde el controlador controla la relación en una forma que el número de pixeles de referencia se vuelve constante cuando el tamaño de bloque excede un tamaño predeterminado.
5. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 4, en donde la sección de cálculo de coeficiente calcula el coeficiente para una pluralidad de tamaños de bloque que exceden el tamaño predeterminado utilizando un circuito común o lógica.
6. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde el controlador controla la relación de acuerdo con el mapeo definido con anticipación entre el tamaño de bloque y la relación.
7. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde el controlador controla la relación al cambiar el número de pixeles de referencia adelgazados al calcular el coeficiente.
8. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 7, en donde el controlador establece el número de pixeles de referencia que se adelgazará a cero cuando el tamaño de bloque caiga por debajo de un tamaño predeterminado .
9. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde el controlador controla por separado una primera relación que es una relación de un número de pixeles de referencia a la izquierda del bloque en un tamaño del bloque en una dirección vertical y una segunda relación que es una relación de un número de pixeles de referencia superiores del bloque en un tamaño del bloque en una dirección horizontal.
10. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 9, en donde el controlador controla la primera relación o la segunda relación en una forma que la primera relación se vuelve igual a o menor que la segunda relación con respecto a un tamaño de bloque idéntico.
11. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 9, en donde, cuando se utiliza un método de intra predicción de corta distancia, el controlador controla sólo una relación que corresponde con una dirección en la cual una de la primera y la segunda relación que es mayor en tamaño corresponde.
12. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 9, en donde, cuando un formato croma que representa una resolución del componente de diferencia de color es 4:2:2, el controlador controla la primera relación en una forma que el número de pixeles de referencia a la izquierda del bloque se vuelve igual al número de pixeles de referencia superiores del bloque.
13. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde el controlador controla la relación de acuerdo con un formato croma que representa una resolución del componente de referencia de color.
14. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 13, en donde el controlador ejerce control en una forma que la relación cuando el formato croma representa una primera resolución se vuelve menor que la relación cuando el formato croma representa una segunda resolución, la cual es menor que la primera resolución.
15. El aparato de procesamiento de imágenes de acuerdo con la reivindicación 5, en donde, cuando una profundidad de bits de un valor de pixel excede un número predeterminado de bits, la sección de cálculo de coeficiente calcula el coeficiente utilizando los valores de pixel de los pixeles de referencia reducidos al número predeterminado de bits .
16. Un método de procesamiento de imágenes que comprende : generar un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se descodificará al utilizar una función de un valor de un componente de luminancia correspondiente; calcular un coeficiente de la función al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y controlar una relación de un número de pixeles de referencia utilizados para calcular el coeficiente en un tamaño de bloque del bloque .
17. Un aparato de procesamiento de imágenes que comprende : una sección de predicción que genera un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se codificará al utilizar una función de un valor de un componente de luminancia correspondiente; una sección de cálculo de coeficiente que calcula un coeficiente de la función utilizada por la sección de predicción al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y un controlador que controla una relación de un número de pixeles de referencia utilizados por la sección de cálculo de coeficiente en un tamaño de bloque del bloque.
18. Un método de procesamiento de imágenes que comprende : generar un valor pronosticado de un componente de diferencia de color de un pixel de una imagen que se codificará al utilizar una función de un valor de un componente de luminancia correspondiente; calcular un coeficiente de la función al mencionar un pixel alrededor de un bloque al cual pertenece el pixel; y controlar una relación de un número de pixeles de referencia utilizados para calcular el coeficiente en un tamaño de bloque del bloque.
19. Un aparato de procesamiento de imágenes que comprende : una sección de predicción que realiza una intra predicción de un componente de diferencia de color de una imagen utilizando un componente de luminancia de la imagen que se descodificará; y un controlador que controla de manera variable un pixel de referencia mencionado cuando la intra predicción se realiza por la sección de predicción.
20. Un método de procesamiento de imágenes que comprende : realizar una intra predicción de un componente de diferencia de color de una imagen utilizando un componente de luminancia de la imagen que se descodificará; y controlar de manera variable un pixel de referencia mencionado cuando la intra predicción del componente de diferencia de color se realiza. RESUMEN DE LA INVENCIÓN Se proporciona un dispositivo de procesamiento de imágenes proporcionado con: una unidad de predicción que, cuando realiza intra predicción que es una de la bases de una función de predicción construida dinámicamente, para evitar o mitigar un incremento en el costo de procesamiento necesario para construir la función de predicción, generar un valor pronosticado para la croma de un pixel de una imagen descodificada utilizando un función del valor de la luma correspondiente; una unidad de cálculo de coeficiente que calcula los coeficientes de la función utilizados por' la unidad de predicción al mencionar los pixeles vecinos del bloque al cual pertenece el pixel; y una unidad de control que controla la relación del número de pixeles de referencia utilizados por la unidad de cálculo de coeficiente en el tamaño de bloque del bloque.
MX2013013764A 2011-06-03 2012-04-04 Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes. MX2013013764A (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011125473 2011-06-03
JP2011145411 2011-06-30
JP2011210542A JP2013034162A (ja) 2011-06-03 2011-09-27 画像処理装置及び画像処理方法
PCT/JP2012/059168 WO2012165039A1 (ja) 2011-06-03 2012-04-04 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
MX2013013764A true MX2013013764A (es) 2014-01-08

Family

ID=47258904

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013013764A MX2013013764A (es) 2011-06-03 2012-04-04 Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes.

Country Status (12)

Country Link
US (4) US9153040B2 (es)
EP (1) EP2717578A1 (es)
JP (1) JP2013034162A (es)
KR (1) KR20140019388A (es)
CN (4) CN106878709A (es)
AU (1) AU2012263915A1 (es)
BR (1) BR112013030378A2 (es)
CA (1) CA2837043A1 (es)
MX (1) MX2013013764A (es)
RU (1) RU2013152459A (es)
TW (1) TW201251468A (es)
WO (1) WO2012165039A1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10362305B2 (en) 2015-03-27 2019-07-23 Sony Corporation Image processing device, image processing method, and recording medium

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013034162A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
JP2015008341A (ja) * 2011-10-31 2015-01-15 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
KR20130050900A (ko) * 2011-11-08 2013-05-16 한국전자통신연구원 인트라 예측 방법 및 그 장치
US9956687B2 (en) 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
BR112015025113B1 (pt) 2013-04-05 2023-03-21 Mitsubishi Electric Corporation Dispositivo de decodificação de imagem a cores, e, método de decodificação de imagem a cores
CN105474639B (zh) 2013-07-10 2018-08-07 凯迪迪爱通信技术有限公司 视频编码装置、视频解码装置、视频系统、视频编码方法、视频解码方法以及程序
JP2015173312A (ja) * 2014-03-11 2015-10-01 ソニー株式会社 画像符号化装置および方法、並びに画像復号装置および方法
CN104918050B (zh) * 2014-03-16 2019-11-08 上海天荷电子信息有限公司 使用动态排列重组的参考像素样值集的图像编解码方法
US9923004B2 (en) * 2014-09-30 2018-03-20 Qualcomm Incorporated Hardware acceleration of computer vision feature detection
KR102264163B1 (ko) 2014-10-21 2021-06-11 삼성전자주식회사 텍스쳐를 처리하는 방법 및 장치
US9743092B2 (en) * 2015-10-13 2017-08-22 Nokia Technologies Oy Video coding with helper data for spatial intra-prediction
US10475238B2 (en) * 2016-07-25 2019-11-12 University Of Toronto Hölder adaptive image synthesis
US9712830B1 (en) 2016-09-15 2017-07-18 Dropbox, Inc. Techniques for image recompression
CN116962687A (zh) * 2016-11-29 2023-10-27 成均馆大学校产学协力团 影像编码/解码方法、装置以及对比特流进行存储的记录介质
CN109274969B (zh) 2017-07-17 2020-12-22 华为技术有限公司 色度预测的方法和设备
WO2019059107A1 (ja) * 2017-09-20 2019-03-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN110719478B (zh) 2018-07-15 2023-02-07 北京字节跳动网络技术有限公司 跨分量帧内预测模式导出
CN110858903B (zh) * 2018-08-22 2022-07-12 华为技术有限公司 色度块预测方法及装置
CN110876061B (zh) * 2018-09-03 2022-10-11 华为技术有限公司 色度块预测方法及装置
EP4199514A1 (en) * 2018-09-20 2023-06-21 LG Electronics Inc. Method and device for image decoding on basis of cclm prediction in image coding system
WO2020094067A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Simplified parameter derivation for intra prediction
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
GB2580192A (en) 2018-12-20 2020-07-15 Canon Kk Piecewise modeling for linear component sample prediction
GB2580326A (en) 2018-12-28 2020-07-22 British Broadcasting Corp Video encoding and video decoding
GB2591806B (en) * 2020-02-07 2023-07-19 British Broadcasting Corp Chroma intra prediction in video coding and decoding
CN111914938B (zh) * 2020-08-06 2024-01-30 上海金桥信息股份有限公司 一种基于全卷积二分支网络的图像属性分类识别方法
TWM619722U (zh) * 2021-04-22 2021-11-11 滿拓科技股份有限公司 偵測物件深度和水平距離的系統

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3575508B2 (ja) * 1996-03-04 2004-10-13 Kddi株式会社 符号化動画像再生装置
JP2003037843A (ja) * 2001-07-23 2003-02-07 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003289544A (ja) * 2002-03-27 2003-10-10 Sony Corp 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
TWI273832B (en) * 2002-04-26 2007-02-11 Ntt Docomo Inc Image encoding device, image decoding device, image encoding method, image decoding method, image decoding program and image decoding program
KR20060105407A (ko) * 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
CN1615019A (zh) * 2003-11-05 2005-05-11 华为技术有限公司 一种视频宏块模式编码方法
US7511714B1 (en) * 2003-11-10 2009-03-31 Nvidia Corporation Video format conversion using 3D graphics pipeline of a GPU
JP4747494B2 (ja) * 2004-03-03 2011-08-17 ソニー株式会社 データ処理装置およびその方法と符号化装置
US7649539B2 (en) * 2004-03-10 2010-01-19 Microsoft Corporation Image formats for video capture, processing and display
JP2005348093A (ja) * 2004-06-03 2005-12-15 Sony Corp 画像処理装置、そのプログラムおよびその方法
US20060002468A1 (en) * 2004-06-22 2006-01-05 Minhua Zhou Frame storage method
US20080037642A1 (en) * 2004-06-29 2008-02-14 Sony Corporation Motion Compensation Prediction Method and Motion Compensation Prediction Apparatus
KR100695141B1 (ko) * 2005-02-15 2007-03-14 삼성전자주식회사 영상처리시스템에 있어서 메모리 억세스장치 및 방법, 데이터 기록장치 및 방법과 데이터 독출장치 및 방법
WO2007027008A1 (en) * 2005-07-15 2007-03-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image
US7747096B2 (en) * 2005-07-15 2010-06-29 Samsung Electronics Co., Ltd. Method, medium, and system encoding/decoding image data
US8488889B2 (en) * 2005-07-22 2013-07-16 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US8509551B2 (en) * 2005-07-22 2013-08-13 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program
CN100417228C (zh) * 2005-10-31 2008-09-03 连展科技(天津)有限公司 一种基于h.264/avc标准的帧图像的帧内预测模式选择方法
JP2007214641A (ja) * 2006-02-07 2007-08-23 Seiko Epson Corp 符号化装置、復号化装置、画像処理装置及び画像処理方法をコンピュータに実行させるためのプログラム
US7372469B2 (en) * 2006-04-12 2008-05-13 Arcadyan Technology Corporation Image transforming method
JP4747975B2 (ja) * 2006-07-14 2011-08-17 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
CN101193305B (zh) * 2006-11-21 2010-05-12 安凯(广州)微电子技术有限公司 用于视频编解码芯片中帧内预测的数据存储和交换方法
US20080123750A1 (en) * 2006-11-29 2008-05-29 Michael Bronstein Parallel deblocking filter for H.264 video codec
CN101198051B (zh) 2006-12-07 2011-10-05 深圳艾科创新微电子有限公司 基于h.264的熵解码器的实现方法及装置
KR101365569B1 (ko) * 2007-01-18 2014-02-21 삼성전자주식회사 인트라 예측 부호화, 복호화 방법 및 장치
US8837575B2 (en) * 2007-03-29 2014-09-16 Cisco Technology, Inc. Video processing architecture
JP5369425B2 (ja) * 2007-10-31 2013-12-18 富士通株式会社 画像復元装置、画像復元プログラム、画像復元方法
CN101222646B (zh) * 2008-01-30 2010-06-02 上海广电(集团)有限公司中央研究院 一种适用于avs编码的帧内预测装置及预测方法
CN101304528B (zh) * 2008-06-10 2010-11-17 浙江大学 视频处理器视频数据与存储器存储空间的映射方法
US8666182B2 (en) * 2008-08-13 2014-03-04 University-Industry Cooperation Group Of Kyung-Hee University Method for generating thumbnail image in image frame of the H.264 standard
US8265152B2 (en) * 2008-10-10 2012-09-11 Arecont Vision, Llc. System and method for low-latency processing of intra-frame video pixel block prediction
KR101127962B1 (ko) * 2008-12-22 2012-03-26 한국전자통신연구원 영상 처리 장치 및 영상 처리를 위한 프레임 메모리 관리 방법
US8542938B2 (en) * 2008-12-31 2013-09-24 Entropic Communications, Inc. System and method for intra-frame compression using predictive coding
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP5544996B2 (ja) * 2010-04-09 2014-07-09 ソニー株式会社 画像処理装置および方法
US9288500B2 (en) * 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
JP2013034163A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
JP2013034162A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
EP4387225A3 (en) * 2011-09-28 2024-07-03 Sun Patent Trust Image decoding apparatus, image encoding and decoding apparatus and computer-readable medium storing a bitstream
JP2013150173A (ja) * 2012-01-19 2013-08-01 Sony Corp 画像処理装置および方法
US9503724B2 (en) * 2012-05-14 2016-11-22 Qualcomm Incorporated Interleave block processing ordering for video data coding
US20170332103A1 (en) * 2016-05-13 2017-11-16 Intel Corporation Interleaving luma and chroma coefficients to reduce the intra prediction loop dependency in video encoders and decoders
US20180131936A1 (en) * 2016-11-10 2018-05-10 Intel Corporation Conversion buffer to decouple normative and implementation data path interleaving of video coefficients

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10362305B2 (en) 2015-03-27 2019-07-23 Sony Corporation Image processing device, image processing method, and recording medium

Also Published As

Publication number Publication date
CN106888378A (zh) 2017-06-23
AU2012263915A1 (en) 2013-09-19
CN103563383B (zh) 2017-01-18
CA2837043A1 (en) 2012-12-06
CN106878709A (zh) 2017-06-20
KR20140019388A (ko) 2014-02-14
JP2013034162A (ja) 2013-02-14
US9153040B2 (en) 2015-10-06
US20130343648A1 (en) 2013-12-26
US10652546B2 (en) 2020-05-12
TW201251468A (en) 2012-12-16
BR112013030378A2 (pt) 2016-12-13
US20170078669A1 (en) 2017-03-16
US10666945B2 (en) 2020-05-26
CN106878710A (zh) 2017-06-20
US20150334392A1 (en) 2015-11-19
US20170078685A1 (en) 2017-03-16
WO2012165039A1 (ja) 2012-12-06
EP2717578A1 (en) 2014-04-09
CN103563383A (zh) 2014-02-05
RU2013152459A (ru) 2015-06-10
US9569861B2 (en) 2017-02-14

Similar Documents

Publication Publication Date Title
US20200204796A1 (en) Image processing device and image processing method
US10652546B2 (en) Image processing device and image processing method
KR102007626B1 (ko) 텔레비전 장치, 휴대 전화기, 재생 장치, 카메라 및 신호 처리 방법
WO2012153578A1 (ja) 画像処理装置及び画像処理方法
CN106385586A (zh) 图像处理设备和图像处理方法
JP5884313B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
CN103563374A (zh) 图像处理设备及方法
CN104205847A (zh) 图像处理装置和图像处理方法
JP2015216626A (ja) 画像処理装置及び画像処理方法
WO2012043166A1 (ja) 画像処理装置及び画像処理方法
JP6217826B2 (ja) 画像処理装置及び画像処理方法
AU2015255186B2 (en) Image Processing Device and Image Processing Method

Legal Events

Date Code Title Description
FA Abandonment or withdrawal