MX2014008982A - Dispositivo de procesamiento de imagenes y metodos de procesamiento de imagenes. - Google Patents

Dispositivo de procesamiento de imagenes y metodos de procesamiento de imagenes.

Info

Publication number
MX2014008982A
MX2014008982A MX2014008982A MX2014008982A MX2014008982A MX 2014008982 A MX2014008982 A MX 2014008982A MX 2014008982 A MX2014008982 A MX 2014008982A MX 2014008982 A MX2014008982 A MX 2014008982A MX 2014008982 A MX2014008982 A MX 2014008982A
Authority
MX
Mexico
Prior art keywords
image
unit
dependent
base
rps
Prior art date
Application number
MX2014008982A
Other languages
English (en)
Inventor
Yoshitomo Takahashi
Ohji Nakagami
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2014008982A publication Critical patent/MX2014008982A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information

Abstract

La presente tecnología se refiere a un dispositivo de procesamiento de imágenes y un método de procesamiento de imágenes que son capaces de generar de forma eficiente una imagen de vistas múltiples. Una unidad de determinación de una unidad de codificación no base determina la información de administración de la dirección de visión para administrar una imagen base de una vista base, a ser almacenada en una memoria intermedia de imágenes decodificadas, cuando se codifica una imagen dependiente de una vista dependiente. Una unidad de codificación de la unidad de codificación no base genera los datos codificados al codificar la imagen base y la imagen dependiente. Una unidad de suministro de la unidad de codificación no base, suministra la información de administración de la dirección de visión que se determina, y los datos codificados que se generan. La presente tecnología puede ser aplicada a un dispositivo de procesamiento de imágenes que codifica una imagen de vistas múltiples, por ejemplo.

Description

DISPOSITIVO DE PROCESAMIENTO DE IMÁGENES Y MÉTODO DE PROCESAMIENTO DE IMÁGENES CAMPO TÉCNICO La presente tecnología se refiere a un dispositivo de procesamiento de imágenes y un método de procesamiento de imágenes. En particular, la presente tecnología se refiere a un dispositivo de procesamiento de imágenes y un método de procesamiento de imágenes que son capaces de generar de forma eficiente una imagen de vistas múltiples.
ANTECEDENTES DE LA INVENCIÓN Con el objetivo de mejorar adicionalmente la eficiencia de la codificación, en comparación con el método AVC (Codificación Avanzada de Video) , se han hecho progresos en la estandarización de un método de codificación conocido como HEVC (Codificación de Video de Alta Eficiencia), y en el momento de la redacción de este documento, se ha propuesto el método RPS (Conjunto de Imágenes de Referencia) (NPLs 1 y 2) . El método RPS sirve para indicar claramente el estado de la memoria intermedia de imágenes decodificadas, para cada imagen .
LISTA DE CITAS Documentos No Relacionados con Patentes NPL 1: Thomas Wiegand, Woo-jin Han, Benjamín Bross, Jens-Rainer Ohm, Gary J. Sullivan, "WD : Borrador de Trabajo 4 de High-Efficiency Video Coding", JCTVC-F_803_d5, Turin, IT, 14-22 de Julio de 2011.
NPL2: "Reporte de JCT-VC AHG: Reference picture buffering and lista construction (AHG21)", Joint Collaborative Team on Video Codeing (JCT-VC) de ITU-T SG16 WP3 e ISO/IEC JTC1/SC29/WG11, Génova, CH, 21-30 de Noviembre, 2011.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Problema Técnico Sin embargo, en el método RPS en el estado presente, las imágenes de vistas múltiples no son tomadas en cuenta, y por lo tanto, el método RPS no puede ser aplicado a la generación de imágenes de vistas múltiples.
En consideración de situaciones tales como esta, la presente tecnología hace posible generar de forma eficiente imágenes de vistas múltiples.
Solución al Problema Un dispositivo de procesamiento de imagen de un primer aspecto de la presente tecnología incluye, una unidad de determinación, que determina la información de administración de la dirección de visión para administrar la imagen base de la vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas cuando se decodifica una imagen dependiente de una vista dependiente; una unidad de codificación, que genera datos codificados al codificar la imagen base y la imagen dependiente; y una unidad de suministro, que suministra la información de administración de la dirección de visión, que se determina por la unidad de determinación y los datos codificados que se generan por la unidad de codificación.
Un método de procesamiento de imagen de un primer aspecto de la presente tecnología, en el cual, un dispositivo de procesamiento de imagen incluye una etapa de determinación, para determinar la información de administración de la dirección de visión, para administrar una imagen base de una vista base, la cual se almacena en la memoria intermedia de imágenes decodificadas cuando se codifica una imagen dependiente de una vista dependiente; una etapa de codificación, para generar los datos codificados al codificar la imagen base y la imagen dependiente; y una etapa de suministro, para suministrar la información de administración de la dirección de visión que se determina en la etapa de determinación y los datos codificados que se generan en la etapa de codificación.
En el primer aspecto de la presente tecnología, se determina la información de administración de dirección de la visión para administrar la imagen base de la vista base, la cual se almacena en la memoria intermedia de imágenes decodificadas cuando se codifica la imagen dependiente de la vista dependiente, los datos codificados se generan al codificar la imagen base y se suministra la imagen dependiente, y la información de administración de la dirección de la visión que se determina, y los datos codificados que se generan.
Un dispositivo de procesamiento de imágenes de un segundo aspecto de la presente tecnología incluye una unidad de recepción, que recibe la información de administración de la dirección de visión, para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se decodifica una imagen dependiente de una vista dependiente, y los datos codificados en los cuales se codifica la imagen base y la imagen dependiente; y una unidad de codificación, que decodifica los datos codificados que se codifican y administra la imagen base de la memoria intermedia de imágenes decodificadas, con base en la información de administración de la dirección de visión.
Un método de procesamiento del segundo aspecto de la presente tecnología, en el cual, un dispositivo de procesamiento de imagen incluye una etapa de recepción, para recibir la información de administración de la dirección de visión para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas cuando se decodifica una imagen dependiente de una vista dependiente, y los datos codificados, en los cuales se codifica la imagen base y la imagen dependiente; y una etapa de decodificación, para decodificar los datos codificados que se codifican y administrar la imagen base de la memoria intermedia de imágenes de codificadas con base en la información de administración de la dirección de visión.
En el segundo aspecto de la presente tecnología, se recibe la información de administración de la dirección de visión para administrar la imagen base de la vista base, la cual se almacena en la memoria intermedia de imágenes decodificadas cuando se decodifica la imagen dependiente de la vista dependiente, y los datos codificados, en los cuales se codifica la imagen base y la imagen dependiente, los datos codificados que están codificados, se decodifican, y la imagen base de la memoria intermedia de imágenes decodificadas, se administra con base en la información de administración de la dirección de visión.
Además, los dispositivos de procesamiento de imágenes el primer aspecto y el segundo aspecto, pueden ser materializados haciendo que una computadora ejecute un programa.
Además, con el fin de materializar los dispositivos de procesamiento de imágenes del primer aspecto y el segundo aspecto, es posible proporcionar el programa, a ser ejecutado por la computadora, al suministrar el programa a través de un medio de registro, o registrando el programa en un medio de registro .
Efectos Ventajosos de la Invención De acuerdo con el primer aspecto de la presente tecnología, es posible generar datos codificados en los cuales, se generan de forma eficiente imágenes de vistas múltiples .
Además, de acuerdo con el segundo aspecto de la presente tecnología, es posible decodificar datos codificados, en los cuales se generan de forma eficiente imágenes de vistas múltiples .
BREVE DESCRIPCIÓN DE LOS DIBUJOS [Fig. 1] La Fig. 1 es un diagrama de bloques que muestra un ejemplo de configuración de una modalidad de un dispositivo de codificación, el cual es un dispositivo de procesamiento de imágenes al cual se aplica la presente tecnología.
[Fig. 2] La Fig. 2 es un diagrama de bloques que muestra un ejemplo de configuración de una unidad de codificación no base.
[Fig. 3] La Fig. 3 es un diagrama de bloques que muestra un ejemplo de la configuración de una unidad de codificación.
[Fig. 4] La Fig. 4 es un diagrama que muestra un ejemplo de la sintaxis de un SPS.
[Fig. 5] La Fig. 5 es un diagrama que muestra un ejemplo de la sintaxis de un encabezamiento de sección.
[Fig. 6] La Fig. 6 es un diagrama que muestra un ejemplo de la sintaxis de un PPS.
[Fig. 7] La Fig. 7 es un diagrama que muestra un ejemplo de la sintaxis de un RPS.
[Fig. 8] La Fig. 8 es un diagrama que ilustra un ejemplo de la codificación.
[Fig. 9] La Fig. 9 es un diagrama que ilustra el proceso de asignación del índice de referencia.
[Fig. 10] La Fig. 10 es un diagrama de flujo que ilustra un ejemplo del proceso de codificación.
[Fig. 11] La Fig. 11 es un diagrama de flujo que ilustra un proceso de codificación.
[Fig. 12] La Fig. 12 es un diagrama de flujo que ilustra el proceso de codificación de la información del RPS.
[Fig. 13] La Fig. 13 es un diagrama de flujo que ilustra el proceso de generación de la información del RPS.
[Fig. 14] La Fig. 14 es un diagrama de flujo que ilustra el proceso de determinación.
[Fig. 15] La Fig. 15 es un diagrama de bloques que muestra un ejemplo de configuración de una modalidad del dispositivo de decodificación, el cual es un dispositivo de procesamiento de imágenes al cual se aplica la presente tecnología .
[Fig. 16] La Fig. 16 es un diagrama de bloques que muestra un ejemplo de configuración de una unidad de decodificación no base.
[Fig. 17] La Fig. 17 es un diagrama de bloques que muestra un ejemplo de la configuración de una unidad de decodificación.
[Fig. 18] La Fig. 18 es un diagrama de flujo que ilustra el proceso de desmultiplexión.
[Fig. 19] La Fig. 19 es un diagrama de flujo que ilustra un proceso de decodificación.
[Fig. 20] La Fig. 20 es un diagrama de flujo que ilustra un proceso de administración.
[Fig. 21] La Fig. 21 es un diagrama que muestra otro ejemplo de la sintaxis del SPS.
[Fig. 22] La Fig. 22 es un diagrama que muestra un ejemplo de configuración de una modalidad de una computadora.
[Fig. 23] La Fig. 23 es un diagrama que muestra un ejemplo esquemático de la configuración de un dispositivo al cual se aplica la presente tecnología.
[Fig. 24] La Fig. 24 es un diagrama que muestra un ejemplo esquemático de configuración de un teléfono móvil al cual se aplica la presente tecnología.
[Fig. 25] La Fig. 25 es un diagrama que muestra un ejemplo esquemático de configuración de un dispositivo de registro y reproducción, al cual se aplica la presente tecnología.
[Fig. 26] La Fig. 26 es un diagrama que muestra un ejemplo esquemático de la configuración de un dispositivo de formación de imágenes, al cual se aplica la presente tecnología.
DESCRIPCIÓN DETALLADA DE LAS MODALIDADES Ejemplo de Configuración de Una modalidad del Dispositivo de Codificación La Fig. 1 es un diagrama de bloques que muestra un ejemplo de configuración de una modalidad del dispositivo de codificación, el cual es un dispositivo de procesamiento de imágenes al cual se aplica la presente tecnología.
El dispositivo 10 de codificación de la Fig. 1 es un dispositivo que codifica datos de imagen de imágenes de vistas múltiples, y se compone de una unidad 11 de codificación base y una unidad 12 de codificación no base.
La unidad 11 de codificación base codifica una imagen (llamada de aquí en adelante imagen base) de un punto de vista predeterminado (una vista base) dentro de los datos de imagen de la imagen de vistas múltiples, usando el método HEVC, y transmite la imagen. La unidad 11 de codificación base suministra la imagen decodificada de la imagen base y la información del RPS (Conjunto de Imágenes de Referencia), que se obtienen durante la codificación, a la unidad 12 de codificación no base.
La unidad 12 de codificación no base codifica una imagen (llamada de aquí en adelante como imagen dependiente) de un punto de vista (una vista dependiente) que es diferente del punto de vista de la imagen base (vista base) dentro de los datos de imagen de la imagen de vistas múltiples, usando un método que corresponde al método HEVC, y transmite la imagen.
La unidad 12 de codificación no base recibe la imagen decodificada de la imagen base y la información del RPS desde la unidad 11 de codificación base, y lleva a cabo la codificación, usándolas. A partir de aquí, se dará la descripción de la codificación de la unidad 12 de codificación no base, en la cual se lleva a cabo la codificación usando un método que corresponde al método HEVC.
Ejemplo de Configuración de la Unidad 12 de Codificación No Base La Fig. 2 es un diagrama de bloques que muestra un ejemplo de configuración de la unidad 12 de codificación no base de la Fig. 1.
La unidad 12 de codificación no base se compone de una unidad 31 de codificación y una unidad 32 de determinación.
La unidad 31 de codificación lleva a cabo la codificación de las unidades de sección usando un método que se adapta al método HEVC con relación a la imagen dependiente que se introduce. La unidad 31 de codificación suministra los datos codificados y los similares, de las unidades de sección que se obtienen como resultado de la codificación, a la unidad 32 de determinación. Además, cuando se codifica la imagen dependiente, la unidad 31 de codificación genera la información del RPS como la información de administración para administrar el estado de la DPB (memoria intermedia de imágenes decodificadas) 132 (Fig. 3) y suministra la información del RPS a la unidad 32 de determinación.
La unidad 32 de determinación determina (genera) el SPS, el PPS y el encabezamiento de la sección, con relación a la imagen dependiente. El SPS, el PPS y el encabezamiento de la sección se describirán a partir de aquí, con referencia a las Figs. 5 a 7 y las similares. Además, la unidad 32 de determinación agrega el SPS a los datos codificados, a los cuales se agrega el PPS, en unidades de la secuencia, y suministra el flujo de bitios que se obtiene como resultado, como el flujo de bitios codificado. La unidad 32 de determinación funciona como una unidad de suministro.
Ejemplo de Configuración de la Unidad 31 de Codificación La Fig. 3 es un diagrama de bloques que muestra un ejemplo de configuración de la unidad 31 de codificación de la Fig. 2.
La unidad 31 de codificación de la Fig. 3 se compone de una unidad 121 de conversión A/D, una memoria 122 intermedia de rearreglo de la pantalla, una unidad 123 de cálculo, una unidad 124 de transformación ortogonal, una unidad 125 de cuantificación, una unidad 126 de codificación sin pérdidas, una memoria 127 intermedia de acumulación, una unidad 128 de cuantificación inversa, una unidad 129 de transformación ortogonal inversa, una unidad 130 de adición, un filtro 131 de desbloqueo, una DPB 132, una unidad 133 de predicción intra de la pantalla, una unidad 134 de predicción y compensación del movimiento, una unidad 135 de selección, una unidad 136 de generación del RPS y una unidad 137 de control de la tasa.
La unidad 121 de conversión A/D de la unidad 31 de codificación somete a la conversión A/D las imágenes dependientes, las cuales son imágenes de una dirección de punto de vista que difieren de la imagen base, transmite las imágenes dependientes a la memoria 122 intermedia de rearreglo de la pantalla y hace que la memoria 122 intermedia de rearreglo de la pantalla almacene la imagen dependiente. La memoria 122 intermedia de rearreglo de la pantalla rearregla las imágenes dependientes de las unidades de cuadros, que están en el orden de despliegue almacenado, al orden de decodificación, de acuerdo con la estructura del GOP (Grupo de Imágenes) . La memoria 122 intermedia de rearreglo de la pantalla transmite las imágenes dependientes de las unidades de cuadros a la unidad 123 de cálculo, la unidad 133 de predicción intra de la pantalla y la unidad 134 de predicción y compensación del movimiento.
La unidad 123 de cálculo funciona como una unidad de codificación y codifica las imágenes dependientes objetivo de la codificación, al calcular el delta de las imágenes de predicción que se suministran desde la unidad 135 de selección, y las imágenes dependientes, objetivo de la codificación, que se transmiten desde la memoria 122 intermedia de rearreglo de la pantalla. Específicamente, la unidad 123 de cálculo sustrae las imágenes de predicción que se suministran desde la unidad 135 de selección, de las imágenes dependientes objetivo de la codificación que se transmite desde la memoria 122 intermedia de rearreglo de la pantalla. La unidad 123 de cálculo transmite las imágenes, que se obtienen como resultado de la sustracción, a la unidad 124 de transformación ortogonal, como la información residual. Además, cuando las imágenes de predicción no se suministran desde la unidad 135 de selección, la unidad 123 de cálculo transmite las imágenes dependientes, que se leen desde la memoria 122 intermedia de rearreglo de la pantalla, a la unidad 124 de transformación ortogonal, en una manera inalterada, como la información residual.
La unidad 124 de transformación ortogonal somete la información residual, de la unidad 123 de cálculo, a una transformación ortogonal, como por ejemplo la Transformación Discreta del Coseno o la Transformación de Karhunen-Loeve, y suministra los coeficientes que se obtienen como resultado a la unidad 125 de cuantificación .
La unidad 125 de cuantificación cuantifica los coeficientes que se suministran desde la unidad 124 de transformación ortogonal. Los coeficientes cuantificados se introducen a la unidad 126 de codificación sin pérdidas.
La unidad 126 de codificación sin pérdidas lleva a cabo la codificación sin pérdidas, tal como la codificación de longitud variable (por ejemplo, CAVLC (Codificación de Longitud Variable Adaptable al Contexto) o las similares) o codificación aritmética (por ejemplo, CABAC (Codificación Aritmética Binaria Adaptable al Contexto) o las similares) con relación a los coeficientes cuantificados que se suministran desde la unidad 125 de cuantificación. La unidad 126 de codificación sin pérdidas suministra los datos codificados que se obtienen como resultado de la codificación sin pérdidas, a la memoria 127 intermedia de acumulación, y hace que la memoria 127 intermedia de acumulación acumule los datos codificados .
La memoria 127 intermedia de acumulación almacena temporalmente los datos codificados que se suministran desde la unidad 126 de codificación sin pérdidas y suministra los datos codificados a la unidad 32 de determinación (Fig. 2) en unidades de secciones.
Además, los coeficientes cuantificados que se transmiten por la unidad 125 de cuantificación también se introducen a la unidad 128 de cuantificación inversa. Después de ser sometidos a la cuantificación inversa, los coeficientes se suministran a la unidad 129 de transformación ortogonal inversa.
La unidad 129 de transformación ortogonal inversa somete los coeficientes que se suministran desde la unidad 128 de cuantificación inversa, a una transformación ortogonal inversa, tal como la Transformación Discreta del Coseno inversa o la Transformación de Karhunen-Loeve inversa, y suministra la información residual, que se obtiene como resultado a la unidad 130 de adición.
La unidad 130 de adición agrega la información residual, la cual es la imagen dependiente objetivo de la decodificación, que se suministra desde la unidad 129 de transformación ortogonal inversa, a la imagen de predicción que se suministra desde la unidad 135 de selección y obtiene una imagen dependiente que se decodifica localmente. Además, cuando la imagen de predicción no se suministra desde la unidad 135 de selección, la unidad 130 de adición trata la información residual, que se suministra desde la unidad 129 de transformación ortogonal inversa, como la imagen dependiente decodificada, que se decodifica localmente. La unidad 130 de adición suministra la imagen dependiente que se decodifica localmente, al filtro 131 de desbloqueo.
El 1231 elimina la distorsión de bloque al filtrar la imagen dependiente, la cual se suministra desde la unidad 130 de adición y se decodifica localmente. El filtro 131 de desbloqueo suministra la imagen dependiente que se obtiene como resultado, a la unidad 133 de predicción intra de la pantalla y la DPB 132 y hace que la imagen dependiente sea acumulada .
La DPB (memoria intermedio de imágenes decodificadas) 132 almacena la imagen dependiente, la cual se suministra desde el filtro 131 de desbloqueo y se decodifica localmente. Además, la imagen decodificada de la imagen base que se suministra desde la unidad 11 de codificación base, también se suministra a la DPB 132, y se almacena en la misma. La imagen dependiente y la imagen base que se acumulan en la DPB 132 se suministran a la unidad 134 de predicción y compensación del movimiento como imágenes de referencia.
La unidad 133 de predicción intra de la pantalla lleva a cabo la predicción intra de la pantalla de todos los modos de predicción intra que son candidatos, usando como la imagen de referencia la imagen dependiente después de eliminación de la distorsión de bloque que se suministra desde el filtro 131 de desbloqueo, y genera la imagen de predicción.
Además, la unidad 133 de predicción intra de la pantalla calcula los valores de la función de costo (descrito en detalle a continuación) con relación a todos los modos de predicción intra que son candidatos. Además, la unidad 133 de predicción intra de la pantalla determina el modo de predicción intra con el valor de la función de costo más bajo como el modo de predicción intra óptimo. La unidad 133 de predicción intra de la pantalla suministra la imagen de predicción que se genera usando el modo de predicción intra óptimo y el valor de la función de costo correspondiente a la unidad 135 de selección. Cuando la unidad 133 de predicción intra de la pantalla recibe la notificación de la selección de la imagen de predicción que se genera usando el modo de predicción intra óptimo, desde la unidad 135 de selección, la unidad 133 de predicción intra de la pantalla suministra la información de predicción intra de la pantalla que indica el modo de predicción intra óptimo, y los similares, a la unidad 32 de determinación de la Fig. 2. La información de predicción intra de la pantalla se incluye en el encabezamiento de la sección como la información relacionada con la codificación.
Además, el valor de la función de costo también se conoce como el costo de RD (Distorsión de la Tasa) . Por ejemplo, el valor de la función de costo se calcula con base en un método del modo de Alta complejidad y el modo de Baja Complejidad, tales como aquellos definidos en el J (Modelo Conjunto) , el cual es el conjunto de programas de referencia en el método H.264/AVC.
Específicamente, cuando se adopta el modo de Alta Complejidad como el método de cálculo del valor de la función de costo, se lleva a cabo la codificación sin pérdidas con relación a todos los modos de predicción que son candidatos, y se calcula el valor de la función de costo que se representa en la siguiente Ecuación (3) con relación a cada modo de predicción.
Costo (Modo) = D + ?-R ... (3) D es el delta (la distorsión) de la imagen original y la imagen decodifica, R es la cantidad de código generada, que incluye los coeficientes de la transformación ortogonal, y ? es el multiplicador de Lagrange que se proporciona como una función del parámetro de cuantificación QP.
Por otro lado, cuando se adopta el modo de Baja Complejidad como el método de cálculo del valor de la función de costo, la generación de la imagen decodificada, y el cálculo del bitio de encabezamiento, como por ejemplo la información que indica el modo de predicción, se llevan a cabo con relación a todos los modos de predicción que son candidatos, y se calcula la función de costo que se representa por la siguiente Ecuación (4), con relación a cada modo de predicción .
Costo (Modo) = D + QPparaQuant (QP) -Encabezamiento_Bitio ... (4) D es el delta (la distorsión) de la imagen original y la imagen decodificada, Encabezamiento_bitio es el bitio de Encabezamiento con relación al modo de predicción QPparaQuant es una función que se proporciona como la función del parámetro de cuantificación QP.
En el modo de Baja Complejidad, es suficiente generar solo la imagen decodificada con relación a todos los modos de predicción, y ya que no es necesario llevar a cabo la codificación sin pérdidas, la cantidad de cálculo requerida es poca. Además, aquí, se asume que el modo de Alta Complejidad se adopta como el modo de cálculo del valor de la función de costo .
La unidad 134 de predicción y compensación del movimiento genera un vector de movimiento al llevar a cabo el proceso de predicción del movimiento de todos los modos de predicción Ínter que son candidatos, con base en la imagen dependiente que se suministra desde la memoria 122 intermedia de rearreglo de la pantalla y la imagen de referencia que se suministra desde la DPB 132. Específicamente, la unidad 134 de predicción y compensación del movimiento genera el vector de movimiento comparando la imagen de referencia con la imagen dependiente que se suministra desde la memoria 122 intermedia de rearreglo de la pantalla, para cada modo de predicción inter .
Además, el modo de predicción inter es la información que indica el tamaño, la dirección de predicción, y el índice de referencia de los bloques que son los objetivos de la predicción inter. Las direcciones de predicción incluyen la predicción (predicción de LO) de la dirección hacia adelante, que usa una imagen de referencia con un tiempo de despliegue que antecede al de la imagen dependiente que es el objetivo de la predicción inter, la predicción (predicción de Ll) de la dirección hacia atrás, que usa una imagen de referencia con un tiempo de despliegue que es posterior al de la imagen dependiente, que es el objetivo de la predicción inter, y la predicción (predicción Bi) en ambas direcciones, que usa la imagen de referencia con un tiempo de despliegue que antecede, y una imagen de referencia con un tiempo de referencia que es posterior, al de la imagen dependiente que es el objetivo de la predicción ínter. Además, el índice de referencia es un número para especificar la imagen de referencia. Por ejemplo, mientras más cercano esté el índice de referencia de la imagen de referencia a la imagen de referencia, que es el objetivo de la predicción, menor será el número.
Además, la unidad 134 de predicción y compensación del movimiento funciona como una unidad de generación de imágenes de predicción y lleva a cabo el proceso de compensación del movimiento, al leer la imagen de referencia desde la DPB 132 con base en el vector de movimiento generado, para cada modo de predicción. La unidad 134 de predicción y compensación del movimiento suministra a la unidad 135 de selección la imagen de predicción que se genera como resultado.
Además, usando la imagen de predicción, la unidad 134 de predicción y compensación del movimiento calcula el valor de la función de costo con relación a cada modo de predicción ínter, y determina el modo de predicción ínter en el cual, el valor de la función de costo es el más bajo, como el modo de medición ínter óptimo. Además, la unidad 134 de predicción y compensación del movimiento suministra la imagen de predicción y el valor de la función de costo, que se generan usando el modo de predicción inter óptimo, a la unidad 135 de selección.
Además, la unidad 134 de predicción y compensación del movimiento recibe la notificación de la selección de la imagen de predicción que se genera usando el modo de predicción inter óptimo, desde la unidad 135 de selección, la unidad 134 de predicción y compensación del movimiento transmite la información de movimiento a la unidad 32 de determinación de la Fig. 2. La información del movimiento se compone del modo de predicción inter, el índice del vector de predicción, el vector de movimiento residual, el cual es el delta obtenido al sustraer el vector de movimiento indicado por el índice del vector de movimiento del vector de movimiento presente, y los similares. Además, el índice del vector de movimiento es la información para especificar un vector de movimiento, de los vectores de movimiento que son candidatos, usados en la generación de la imagen de predicción de la imagen dependiente decodificada . La información de movimiento se incluye en el encabezamiento de la sección como la información relacionada con la codificación.
La unidad 135 de selección determina uno un modo de predicción intra óptimo y un modo de predicción inter óptimo como el modo de predicción óptimo, con base en los valores de la función de costo que se suministran desde la unidad 133 de predicción intra de la pantalla y la unidad 134 de predicción y compensación del movimiento. Además, la unidad 135 de selección suministra la imagen de predicción del modo de predicción óptimo a la unidad 123 de cálculo y la unidad 130 de adición. Además, la unidad 135 de selección notifica a la unidad 133 de predicción intra de la pantalla o a la unidad 134 de predicción y compensación del movimiento de la selección de la imagen de predicción del modo de predicción óptimo .
La unidad 136 de generación del RPS controla la imagen dependiente y la imagen base que se acumulan en la DPB 132 como la imagen de referencia. Específicamente, la unidad 136 de generación del RPS determina la imagen que será suministrada a la unidad 134 de predicción y compensación del movimiento como la imagen de referencia de la imagen dependiente y (la imagen decodificada de) la imagen base, que se acumulan en la DPB 132 y hace que la imagen seleccionada sea suministrada a la unidad 134 de predicción y compensación del movimiento. Además de la unidad 136 de generación del RPS determina las imágenes innecesarios entre las imágenes (la imagen dependiente y la imagen base) que se acumulan en la DPB 132 y elimina las imágenes innecesarias.
Además, la unidad 136 de generación del RPS genera la información del RPS que indica el estado de la DPB 132 de la imagen dependiente objetivo de la codificación, y suministra la información del RPS a la unidad 32 de determinación de la Fig. 2. La unidad 136 de generación del RPS funciona como la unidad de determinación que determina la información del RPS de la imagen dependiente objetivo de la codificación.
La unidad 137 de control de la tasa controla la tasa de la operación de cuantificación de la unidad 125 de cuantificación, de modo tal que no ocurra el desbordamiento o el subdesbordamiento, con base en los datos codificados que se acumulan en la memoria 127 intermedia de acumulación.
Ejemplos de Configuración del SPS y el Encabezamiento de la Sección La Fig. 4 es un diagrama que muestra un ejemplo de la sintaxis del SPS (=seq_parámetros_conjunto_rbsp ( ) ) , y la Fig. 5 es un diagrama que muestra un ejemplo de la sintaxis del encabezamiento de la sección (= Sección_encabezamiento ( ) ) .
La lista de RPS, la cual es la información del RPS, se define en el PPS o el encabezamiento de la sección, la lista de RPS a la que se hace referencia desde una pluralidad de imágenes, se define en el PPS, y la lista de RPS que se especializa para una imagen especifica, se define en el encabezamiento de la sección. En el encabezamiento de la sección, cuando ref_pic_con unto_vistas múltiples_pps_bandera del encabezamiento de la sección, mostrado en la Fig. 5, es "0" (cuando ! ref_pic_conjunto_vistas múltiples_pps_bandera es "1") , se lee vistas múltiples_ref_pic_conjunto (vistas múltiples_num_ref_pic_conjuntos) . En otras palabras, cuando ref_pic_conjunto_vistas múltiples_pps_bandera es "0", se hace referencia a la lista de RPS que se define en el encabezamiento de la sección, como el RPS que se especializa para una imagen especifica.
Por otro lado, cuando ref_pic_conjunto_vistas múltiples_pps_bandera es "1", se hace referencia a la lista de RPS que se define en el PPS, la cual se comparte por una pluralidad de imágenes y se especifica por un índice que indica vistas múltiples_ref_pic_conjunto_idx. En otras palabras, cuando ref_pic_conjunto_vistas múltiples_pps_bandera es "1", de las listas de RPS que se definen en el PPS como compartidas por una pluralidad de imágenes, se hace referencia a la lista de RPS que se especifica por el índice que indica vistas múltiples_ref_pic_conjunto_idx .
Ejemplo de la Estructura del PPS La Fig. 6 es un diagrama que muestra un ejemplo de la sintaxis del PPS (=pic_parámetros_conjunto_rbsp ( ) ) .
El vistas múltiples_num_ref_pic_conjuntos mostrado en la Fig. 6 indica el número total de listas de RPS (listas de RPS) . El índice predeterminado (un número que indica la lista de RPS) se introduce en el argumento idx de vistas múltiples_ref_pic_conj unto ( idx) de la cláusula para de la Fig. 6, y se llama a vistas múltiples_ref_pic_conjunto (idx) , es decir, la lista de RPS. El argumento idx de vistas múltiples_ref_pic_conj unto ( idx) es un valor dentro del rango de 0 = idx < vistas múltiples_num_ref_pic_conjuntos.
Ejemplo de la estructura del RPS La Fig. 7 es un diagrama que muestra un ejemplo de la sintaxis del RPS (= vistas múltiples_ref_pic_conjunto (idx) ) .
En la Fig. 7, la primera ref_pic_coj unto_temporal_misma_bandera es la información (la bandera) que indica si el patrón de la imagen que se mantiene en la DPB 132 es o no igual a una de las listas de RPS que se definen por la imagen base.
Cuando es igual a una de las listas de RPS que se define por la imagen base, la bandera ref_pic_conjunto_temporal_misma_bandera es "1". Por lo tanto, cuando ref_pic_conj unto_temporal_misma_bandera = "1", ya que es igual a una (de los patrones de) de las listas de RPS de la imagen base, la lista de RPS se especifica por ref_pic_conjunto_idx. En este caso, la unidad 136 de generación del RPS administra (controla) la imagen de la dirección temporal que se mantiene en la DPB 132 usando la información de RPS de la imagen base que se suministra desde la unidad 11 de codificación base, es decir, usando la lista de RPS que es igual a la pluralidad de listas de RPS de la imagen base.
Por otro lado, cuando son diferentes de todos los patrones de la lista de RPS que se definen en la imagen base, la bandera ref_pic_conjunto_temporal_misma_bandera es "0". Por lo tanto, cuando ref_pic_conj unto_temporal_misma_bandera = "O", la Imagen de la misma dirección que se mantiene en la DPB 132 se define por la unidad 136 de generación del RPS. Por lo tanto, se puede decir que desde ref_pic_conj unto_temporal_misma_bandera a la linea anterior a num_negativo_vistaidx_pics del RPS mostrado en la Fig. 7 es la información de administración de la dirección temporal para administrar la imagen (la imagen dependiente) de la dirección temporal que se mantiene en la DPB 132.
Por otro lado, la denotación de num_negativo_vistaidx_pics, num_positivo_vistaidx_pics y las siguientes es la definición para la administración de una imagen base de la dirección de visión (la dirección del punto de vista) que difiere de aquella de la imagen dependiente y se suministra desde la unidad 11 de codificación base. En otras palabras, se puede decir que la denotación de num_negativo_vistaidx_pics, num_positivo_vistaidx_pics y las siguientes mostradas en la Fig. 7, es la información de administración de la dirección de la vista para administrar la imagen (la imagen base) de una dirección de visión diferente (la dirección del punto de vista) que se mantiene en la DPB 132.
Con el fin de administrar la imagen de una dirección de visión diferente (la dirección del punto de vista), la dirección de visión se especifica por Vistaldx (= vistaidx) . En otras palabras, Vistaldx es el índice de la dirección el punto de vista que corresponde a un POC (Conteo del Orden de la Imagen) . Por ejemplo, Vistaldx se sitúa en un número o los simulares que se asigna desde más a la izquierda en el orden de la dirección hacia la derecha a una pluralidad de cámaras que forman las imágenes de la imagen de vistas múltiples (la imagen base y la imagen dependiente) . Por lo tanto, es posible especificar claramente la imagen de una dirección de visión usando Vistaldx. La administración de la imagen usando Vistaldx se lleva a cabo de la misma forma como en el caso del POC que se describe a partir de aquí con referencia a la Fig. 8 en la unidad 136 de generación del RPS. Sin embargo, en la presente modalidad, la imagen (la imagen base) de una dirección de visión diferente se limita a una imagen del mismo tiempo (el mismo POC) como aquel de la imagen decodificada que se mantiene en la DPB 132. num_negativo_vistaidx_pics indica el número de imágenes que están enfrente de la imagen decodificada en la dirección de visión. num_positivo_vistaidx_pics indica el número de imágenes que están detrás de la imagen decodificada en la dirección de la visión. La suma de num_negativo_vistaidx_pics y num_positivo_vistaidx_pics indica el número total de imágenes de la dirección de visión de la DPB 132 en un punto en el tiempo en el cual se decodifica la imagen decodificada. delta_vistaidx_sO_menosl [i] y delta_vistaidx si menosl[i] indican los valores de los valores de delta -1 de la dirección de visión (Vistaldx) de la imagen decodificada y la imagen objetivo, los cuales sirven para especificar la imagen de una dirección de visión que se mantiene en la DPB 132. delta_vistaidx_sO_menosl [i] corresponde al valor de delta -1 de la dirección de visión de la dirección hacia adelante, y delta_vistaidx_sl_menosl [i] corresponde al valor de delta -1 de la dirección de visión de la dirección hacia atrás. Delta_vistaidx_sO_menosl [i] y delta_vistaidx_sl_menosl [i] también se denotan de forma concisa como AVistaldx. usado_por_curr_pic_sO_bandera [i] y usado_por_curr_pic_sl_bandera [i] son banderas que indican si la imagen objetivo es o no una imagen a la que se hace referencia desde la imagen decodificada. Cuando usado_por_curr_pic_sO_bandera [i] o usado_por_curr_pic_sl_bandera [i] es "1", esto indica que la imagen objetivo es una imagen de referencia. Cuando usado_por_curr_pic_sO_bandera [i] o usado_por_curr_pic_sl_bandera [ i] es "0" esto indica que la imagen objetivo no es una imagen de referencia, pero se mantiene el orden a ser usado en el futuro. El hecho de que usado_por_curr_pic_sO_bandera [i] es la dirección de visión de la dirección hacia adelante, y usado_por_curr_pic_sl_bandera [ i] es la dirección de visión de la dirección hacia atrás, es igual a AVistaldx.
Además, cuando hay dos dirección es de visión, es decir, cuando hay dos puntos de vista, la definición desde num_negativo_vistaidx_pics a usado_por_curr_pic_sl_bandera [i] puede ser indicada usando solamente una bandera que indica si la imagen de una dirección de visión de diferencia se mantiene o no en la DPB 132. Cuando la bandera indica que la imagen de una dirección de visión diferente se mantiene en la DPB 132, la imagen de la dirección de visión diferente inevitablemente se vuelve la imagen que es referenciada (la imagen de referencia) .
Ejemplo de la Codificación La Fig. 8 muestra un ejemplo de la codificación de la dirección temporal (el POC) .
La Fig. 8 es un ejemplo de la codificación cuando el número de imágenes que pueden ser referenciadas por la imagen actual en la dirección de LO y la dirección de Ll es 1, el número total de imágenes mantenidas en la DPB 132 es 3, y el número total de listas de RPS es 4.
En la Fig. 8, por ejemplo, cuando una imagen de Bs de POC = 2 es la imagen actual (la imagen decodificada) , de las cuatro listas de RPS, desde RPS #0 a RPS #3, se lee la lista de RPS de RPS #0. La imagen de Bs de POC = 2 hace referencia a la imagen I de POC = 0 en la dirección cronológicamente hacia adelante (la dirección de LO) ; por lo tanto, el POC de la imagen actual - el POC de la imagen objetivo - 1 =2 - 0 - 1 =1. Además, se hace referencia a la imagen P del POC = 4 en la dirección cronológicamente hacia atrás (la dirección de Ll); por lo tanto, el POC de la imagen actual - el POC de la imagen actual - 1 = 4 - 2 - 1 = 1.
Por ejemplo, cuando la imagen P del POC =4 es la imagen actual, de las cuatro listas de RPS, desde RPS #0 a RPS #3, se lee la lista de RPS de RPS #2. La imagen P de POC = 4 hace referencia solamente a la imagen I del POC = 0 en la dirección cronológicamente hacia adelante (la dirección de LO) ; por lo tanto, la dirección de LO se vuelve el POC de la imagen actual - el POC de la imagen objetivo - 1 = 4 - 0 - 1 = 3.
Cuando la imagen B del POC = 5 es la imagen actual, o las cuatro listas de RPS, desde RPS #0 a RPS #3, se lee la lista de RPS de RPS #1. La imagen B del POC =5 hace referencia a la imagen P del POC =4 en la dirección cronológicamente hacia adelante (la dirección LO) ; por lo tanto, el POC de la imagen actual - el POC de la imagen objetivo - 1 = 5 - 4 - 1 = 0. Además, se hace referencia a la imagen Bs del POC = 6 en la dirección cronológicamente hacia atrás (la dirección Ll) ; por lo tanto, el POC de la imagen actual - el POC de la imagen objetivo - 1 = 6 - 5 - 1 = 0. Aquí, el POC de la imagen actual - el POC de la imagen objetivo - 1 = 8 - 5 - 1 = 2, el cual es el valor que corresponde a la imagen P del POC =8 de la dirección cronológicamente hacia atrás (la dirección Ll), está entre paréntesis () . Los paréntesis corresponden a usado_por_curr_pic_sl_bandera [i] de la Fig. 7, e indican una imagen no referenciada que se mantiene en la DPB 132 pero no es referenciada.
La descripción cada anteriormente es la descripción de la codificación de la dirección temporal (el ????; sin embargo, la codificación también se lleva a cabo en la dirección de la visión de la misma forma como en el caso de la dirección temporal usando Vistaldx. Al administrar imagen de la misma manera como en el caso del POC, usando Vistaldx, es posible especificar una imagen que está presente en la DPB 132 en una pluralidad de vistas (puntos de vista) , y, es posible distinguir la imagen de referencia y la imagen de no referencia .
La Fig. 9 es un diagrama que ilustra el programa del proceso de asignación del índice de referencia.
En la Fig. 9, num_ref_idx_10_activo_menosl indica el número de imágenes de referencia de la dirección LO que están cronológicamente enfrente, y num_ref_idx_ll_activo_menosl indica el número de imágenes de referencia de la dirección Ll, que están cronológicamente detrás.
De la misma forma como la imagen B de AVC (Codificación Avanzada de Video) , de acuerdo con el programa mostrado en la Fig. 9, un índice de referencia pequeño se asigna a una imagen, la cual es una imagen que está cronológicamente antes de la imagen decodificada en la dirección LO, en el orden del POC, donde APOC es pequeño. Un índice de referencia pequeño se asigna a una imagen, que esta cronológicamente después de la imagen decodificada en la dirección Ll, donde APOC es pequeño. La asignación también se lleva a cabo con relación al índice de la vista de la dirección de visión, de la misma forma como la asignación del índice de referencia de la dirección temporal .
Descripción del Proceso de Codificación Las Figs. 10 y 11 son diagramas de flujo que ilustran el proceso de codificación de la unidad 31 de codificación de la Fig. 3.
En la etapa Sil de la Fig. dispositivo 10 de codificación, a unidad 121 de conversión A/D de la unidad 31 de codificación somete la imagen dependiente, de las unidades de cuadros, de un punto de vista predeterminado que se introduce, a la conversión A/D. La unidad 121 de conversión A/D transmite la imagen dependiente a la memoria 122 intermedia de rearreglo de la pantalla y hace que la memoria 122 intermedia de rearreglo de la pantalla almacene la imagen dependiente.
En la etapa S12, la memoria 122 intermedia de rearreglo de la pantalla rearregla la imagen dependiente de los cuadros del orden de despliegue almacenado, en el orden de decodificación, de acuerdo con la estructura del GOP. La memoria 122 intermedia de rearreglo de la pantalla suministra la imagen dependiente, después del rearreglo, de las unidades de cuadros, a la unidad 123 de cálculo, la unidad 133 de predicción intra de la pantalla y la unidad 134 de predicción y compensación del movimiento.
En la etapa S13, la unidad 136 de generación del RPS determina el POC de la imagen dentro de la DPB 132, de acuerdo con la estructura del GOP.
En la etapa S14, la unidad 136 de generación del RPS borra las imágenes innecesarias de la DPB 132.
En la etapa S15, la unidad 136 de generación del RPS lleva a cabo un proceso de codificación de información del RPS que codifica la información del RPS. El proceso se describirá con referencia a la Fig. 12.
En la etapa S16, a unidad 136 de generación del RPS determina la imagen a suministrar a la unidad 134 de predicción y compensación del movimiento, como la imagen de referencia, entre las imágenes dentro de la DPB 132 y hace que la imagen determinada sea suministrada a la unidad 134 de predicción y compensación del movimiento.
En la etapa S17, la unidad 133 de predicción intra de la pantalla lleva a cabo el proceso de predicción intra de la pantalla, de todos los modos de predicción intra que son candidatos, usando la imagen de referencia que se suministra desde la unidad 130 de adición. En este momento, la unidad 133 de predicción intra de la pantalla calcula los valores de la función de costo, con relación a todos los modos de predicción intra que son candidatos. Además, la unidad 133 de predicción intra de la pantalla determina el modo de predicción intra con el valor de la función costo más pequeño, como el modo de predicción intra óptimo. La unidad 133 de predicción intra de la pantalla suministra la imagen de predicción que se genera usando el modo de predicción intra óptimo, y el valor de la función de costo correspondiente a la unidad 135 de selección.
En la etapa S18, la unidad 134 de predicción y compensación del movimiento lleva a cabo el proceso de predicción y compensación del movimiento, con base en la imagen dependiente que se suministra desde la memoria 122 intermedia de rearreglo de la pantalla, y la imagen de referencia que se suministra desde la DPB 132.
Específicamente, la unidad 134 de predicción y compensación del movimiento genera un vector de movimiento, al llevar a cabo el proceso de predicción el movimiento de todos los modos de predicción ínter que son candidatos, . Con base en la imagen dependiente que se suministra desde la memoria 122 intermedia de rearreglo de la pantalla y la imagen de referencia que se suministra desde la DPB 132. Además, la unidad 134 de predicción y compensación del movimiento lleva a cabo el proceso de compensación del movimiento al leer la imagen de referencia desde la DPB 132, con base en el vector de movimiento generado para cada modo de predicción. La unidad 134 de predicción y compensación del movimiento suministra la imagen de predicción que se genera como resultado, a la unidad 135 de selección.
En la etapa S19, la unidad 134 de predicción y compensación del movimiento calcula el valor de la función de costo con relación a cada modo de predicción ínter, y determina el modo de predicción inter, en el cual, el valor de la función de costo es el más pequeño, como el modo de medición inter óptimo. Además, la unidad 134 de predicción y compensación del movimiento suministra la imagen de predicción y el valor de la función de costo que se genera usando el modo de predicción inter óptimo, a la unidad 135 de selección.
En la etapa S20, la unidad 135 de selección determina, del modo de predicción intro óptimo y el modo de predicción inter óptimo, aquel en el cual, el valor de la función de costo es el más bajo, como el modo de predicción óptimo, con base en los valores de la función de costo que se suministran desde la unidad 133 de predicción intra de la pantalla y la unidad 134 de predicción y compensación del movimiento. Además, la unidad 135 de selección suministra la imagen de predicción del modo de predicción óptimo a la unidad 123 de cálculo y la unidad 130 de adición.
En la etapa S21, la unidad 135 de selección determina si el modo de predicción óptimo es el modo de predicción inter óptimo o no. Cuando el modo de predicción óptimo se determina como el modo de predicción inter óptimo, en la etapa S21, la unidad 135 de selección notifica a la unidad 134 de predicción y compensación del movimiento de la selección de la imagen de predicción que se genera usando el modo de predicción inter óptimo .
Además, en la etapa S22, la unidad 134 de predicción y compensación del movimiento transmite la información de movimiento a la unidad 32 de determinación (Fig. 2) y el proceso procede a la etapa S24.
Por otro lado, cuando se determina que el modo de predicción óptimo no es el modo de predicción inter óptimo, en la etapa S21, es decir, el modo de predicción óptimo es el modo de predicción intra óptimo, la unidad 135 de selección notifica a la unidad 133 de predicción intra de la pantalla de la selección de la imagen de predicción que se genera usando el modo de predicción intra óptimo.
Además, en la etapa S23, la unidad 133 de predicción intra de la pantalla trasmite la información de predicción intra de la pantalla a la unidad 32 de determinación y el proceso procede a la etapa S24.
En la etapa S24, la unidad 123 de cálculo sustrae la imagen de predicción, que se suministra desde la unidad 135 de selección, de la imagen dependiente que se suministra desde la memoria 122 intermedia de rearreglo de la pantalla. La unidad 123 de cálculo transmite a imagen, que se obtiene como resultado de la sustracción, a la unidad 124 de transformación ortogonal, como la información residual.
En la etapa S25, la unidad 124 de transformación ortogonal somete la información residual, de la unidad 123 de cálculo, a la transformación ortogonal, y suministra los coeficientes, que se obtienen como resultado, a la unidad 125 de cuantificación .
En la etapa S26, la unidad 125 de cuantificación cuantifica los coeficientes que se suministran desde la unidad 124 de transformación ortogonal. El coeficiente cuantificado se introduce a la unidad 126 de codificación sin pérdidas y la unidad 128 de cuantificación inversa.
En la etapa S27, la unidad 126 de codificación sin pérdidas somete los coeficientes cuantificados, que se suministran desde la unidad 125 de cuantificación, a la codificación sin pérdidas.
En la etapa S28, de la Fig. 11, la unidad 126 de codificación sin pérdidas suministra los datos codificados, que se obtienen como resultado del proceso de codificación sin pérdidas, a la memoria 127 intermedia de acumulación, y hace que el memoria 127 intermedia de acumulación acumule los datos codificados .
En la etapa S29, la memoria 127 intermedia de acumulación transmite los datos codificados, que se acumulan, a la unidad 32 de determinación.
En la etapa S30, la unidad 128 de cuantificación inversa somete los coeficientes cuantificados , que se suministran desde la unidad 125 de cuantificación, a cuantificación inversa .
En la etapa S31, la unidad 129 de transformación ortogonal inversa somete a transformación ortogonal inversa los coeficientes que se suministran desde la unidad 128 de cuantificación inversa, y suministra la información residual, que se obtiene como resultado, a la unidad 130 de adición.
En la etapa S32, la unidad 130 de adición agrega la información residual, que se suministra desde la unidad 129 de transformación ortogonal inversa, a la imagen de predicción que se suministra desde la unidad 135 de selección y obtiene una imagen dependiente (una imagen decodificada) que se decodifica localmente. La unidad 130 de adición suministra la imagen dependiente que se obtiene, a la filtro 131 de desbloqueo .
En la etapa S33, el filtro 131 de desbloqueo elimina la distorsión de bloque al llevar a cabo el filtrado sobre la imagen dependiente, la cual se suministra a la unidad 130 de adición, y se decodifica localmente.
En la etapa S34, el filtro 131 de desbloqueo suministra la imagen dependiente, después del filtrado, a la DPB 132, hace que la DPB 132 acumule la imagen dependiente, y el proceso termina. La imagen dependiente que se acumula en la DPB 132 se transmite a la unidad 134 de predicción y compensación del movimiento, como la imagen de referencia, de acuerdo con el control de la unidad 136 de generación del RPS.
Además, los procesos de las etapas S17 y S34 de las Figs . 10 y 11 se llevan a cabo en unidades de codificación, por ejemplo. Además, en el proceso de codificación de las Figs. 10 y 11, con el fin de facilitar la descripción, el proceso de predicción intra de la apantalla y el proceso de compensación del movimiento siempre se llevan a cabo; sin embargo, existe el caso en el cual, solo se lleva a cabo uno de estos; dependiendo del tipo de la imagen o los similares.
Descripción. del Proceso de Codificación de la Información del RPS Se dará la descripción del proceso de codificación de la información del RPS de la etapa S15 de la Fig. 10, con referencia a la Fig. 12.
Primero en la etapa S51, la unidad 136 de generación del RPS adquiere la información de RPS de la imagen base.
En la etapa S52, la unidad 136 de generación del RPS determina si el POC de la imagen dentro de la DPB 132 es igual o no al POC que se indica por la información del RPS de la imagen base. En la etapa S52, cuando el POC de la imagen dentro de la DPB 132 se determina como igual al POC que se indica por la información el RPS de la imagen base, el proceso procede a la etapa S53, y la unidad 136 de generación del RPS codifica el índice de la información del RPS de la imagen base, Por otro lado, en la etapa S52, cuando el POC de la imagen dentro de la DPB 132 se determina como distinto al POC que se indica por la información del RPS de la imagen base, el proceso procede a LAN etapa S54, y la unidad 136 de generación del RPS ejecuta el proceso de generación de información del RPS descrito a continuación en la Fig. 13.
En la etapa S55, la unidad 136 de generación del RPS codifica el número total de imágenes en las cuales el Vistaldx es menor que el Vistaldx de la imagen actual.
En la etapa S56, la unidad 136 de generación del RPS codifica el número total de imágenes en las cuales el Vistaldx es mayor que el Vistaldx de la imagen actual.
En la etapa S57, la unidad 136 de generación del RPS determina la imagen dentro de la DPB 132 que no es aun el objetivo del procesamiento, para ser la imagen objetivo.
Además, en la etapa S58, la unidad 136 de generación del RPS determina si el Vistaldx de la imagen actual es mayor que el Vistaldx de la imagen objetivo.
En la etapa S58, cuando el Vistaldx de la imagen actual determina como mayor que el Vistaldx de la imagen objetivo, el proceso procede a la etapa S59, y la unidad 136 de generación del RPS codifica AVistaIdx= delta_vistaidx_sO_menosl [ i ] , es decir, codifica el delta - 1, en el cual, el Vistaldx de la imagen objetivo se sustrae del Vistaldx de la imagen actual.
Además, en la etapa S60, la unidad 136 de generación del RPS codifica una bandera de presencia de la referencia (=usada_por_curr_pic_sO_bandera [i] ) de la imagen actual.
Por otro lado, en la etapa S58, cuando el Vistaldx de la imagen actual se determina como menor que el Vistaldx de la imagen objetivo, el proceso procede a la etapa S61, y la unidad 136 de generación del RPS codifica AVistaIdx=delta_vistaidx_sl_menosl [i] , es decir, codifica el delta - 1 en el cual, el Vistaldx de la imagen actual se sustrae del Vistaldx de la imagen objetivo.
Además, en la etapa S62, la unidad 136 de generación del RPS codifica una bandera de presencia de la referencia (=usado_por_curr_pic_sl_bandera [ i ] ) de la imagen objetivo.
En la etapa S63, la unidad 136 de generación del RPS determina si todas las imágenes dentro de la DPB 132 han sido determinadas o no como la imagen objetivo.
En la etapa S63, cuando se determina que no todas las imágenes dentro de la DPB 132 han sido determinadas como la imagen objetivo, el proceso regresa a la etapa S57 y se repite el proceso posterior.
Por otro lado, en la etapa S63, cuando se determina que todas las imágenes dentro de la DPB 132 han sido determinadas como la imagen objetivo, el proceso regresa a la Fig. 10.
Descripción del Proceso de Generación de la Información del RPS La Fig. 13 es un diagrama de flujo del proceso de generación de la información del RPS de la etapa S54 de la Fig. 12.
En el proceso de generación de la información del RPS, en la etapa S81, la unidad 136 de generación del RPS codifica el número total de imágenes, en la cuales el POC es menor que el POC de la imagen actual.
En la etapa S82, la unidad 136 de generación del RPS codifica el número total de imágenes, en las cuales el POC es mayor que el POC de la imagen actual.
En la etapa S83, la unidad 136 de generación del RPS determina la imagen, dentro de la DPB 132, que aún no es el objetivo del procesamiento, como la imagen objetivo.
Además, en la etapa S84, la unidad 136 de generación del RPS determina si el POC de la imagen actual es mayor que el POC de la imagen objetivo.
En la etapa S84, cuando de termina que el POC de la imagen actual es mayor que el POC de la imagen objetivo, el proceso procede a la etapa S85, y la unidad 136 de generación del RPS codifica el APOC = delta_poc_sO_menosl [i] , es decir, codifica el delta - 1, en el cual el POC de la imagen objetivo se sustrae del POC de la imagen actual.
Además, en la etapa S86, la unidad 136 de generación del RPS codifica la bandera de presencia de la referencia (=usado_por_curr_pic_sO_bandera [ i ] ) de la imagen objetivo.
Por otro lado, en la etapa S84, cuando se determina que el POC de la imagen actual es menor que el POC de la imagen objetivo, el proceso procede a la etapa S87, y la unidad 136 de generación del RPS codifica el APOC = delta_poc_sl_menosl [i] , es decir, codifica el delta - 1 en el cual el POC de la imagen actual se sustrae del POC de la imagen objetivo.
Además, en la etapa S88, la unidad 136 de generación del RPS codifica la bandera de presencia de la referencia (=usado_por_curr_pic_sl_bandera [i] ) de la imagen objetivo.
En la etapa S89, la unidad 136 de generación del RPS determina si todas las imágenes dentro de la DPB 132 han sido determinadas o no como la imagen objetivo.
En la etapa S89, cuando se determina que no todas las imágenes dentro de la DPB 132 han sido determinadas como la imagen objetivo, el proceso regresa a la etapa S83, y los procesos posteriores se repiten.
Por otro lado, en la etapa S89, cuando se determina que todas las imágenes dentro de la DPB 132 han sido determinadas como la imagen objetivo, el proceso regresa a la Fig. 12.
Descripción del Proceso de Determinación La Fig. 14 es un diagrama de flujo del proceso de determinación de acuerdo con unidad 32 de determinación de la Fig. 2.
En el proceso de determinación, primero, en la etapa S101, la unidad 32 de determinación determina el SPS.
En la etapa S102, la unidad 32 de determinación determina el PPS.
En la etapa S103, la unidad 32 de determinación determina el encabezamiento de la sección.
En la etapa S104, la unidad 32 de determinación trasmite un flujo de bitios codificado de los datos codificados, a los cuales se agrega el SPS, el PPS y el encabezamiento de la sección, entonces el proceso termina.
Como se describe anteriormente, (la unidad 12 de codificación no base de) el dispositivo 10 de codificación define el RPS de la imagen dependiente en una forma que hace referencia al RPS de la imagen base, y lleva a cabo el suministro. Por lo tanto, es posible reducir la cantidad de código del RPS en la imagen dependiente. En otras palabras. Es posible subintrar de forma eficiente la información del RPS de la imagen dependiente. Esto es válido cuando las relaciones de referencia de la imagen base y la imagen dependiente son las mismas .
Además, en la unidad 12 de codificación no base del dispositivo 10 de codificación, la imagen base de una dirección de visión diferente, que se mantiene en la DPB 132, se administra (controla) usando el Vistaldx, de la misma forma como el caso del POC. Por lo tanto, también es posible lograr la administración de la DPB 132 en una pluralidad de vistas (puntos de vista) . En otras palabras, es posible especificar la imagen de una dirección de visión diferente, que está presente en la DPB 132, y, es posible distinguir la imagen de referencia de la imagen de no referencia.
Ejemplo de configuración de una modalidad del Dispositivo de Decodificación La Fig. 15 es un diagrama de bloques que usa un ejemplo de la configuración de una modalidad del dispositivo de decodificación, el cual es el dispositivo de procesamiento de imágenes al cual se aplica la presente tecnología.
El dispositivo de decodificación de la Fig. 15 es un dispositivo que decodifica el flujo de bitios decodificado que se suministra desde el dispositivo 10 de codificación de la Fig. 1, y se configura como una unidad 211 de decodificación base y una unidad 212 de decodificación no base.
La unidad 211 de decodificación base decodifica el flujo de bitios codificado de la imagen base, que se codifica por la unidad 11 de codificación base de la Fig. 1, y se suministra, y genera y transmite la imagen base que se obtiene como resultado. La unidad 211 de decodificación base suministra la imagen decodificada de la imagen base y la información del RPS, que se obtiene cuando se decodifica el flujo de bitios codificado de la imagen base a la unidad 212 de decodificación no base.
La unidad 212 de decodificación no base decodifica el flujo de bitios codificado de la imagen dependiente que se codifica por la unidad 12 de codificación no base de la Fig. 1 y se suministra y genera y transmite la imagen dependiente que se obtiene como resultado. La unidad 212 de decodificación no base recibe la imagen decodificada de la imagen base y la información del RPS que se suministran desde la unidad 212 de decodificación no base y lleva a cabo la decodificación usando estos.
Ejemplo de la Configuración de la Unidad 212 de Decodif cación No Base La Fig. 16 es un diagrama de bloques que muestra un ejemplo de la configuración de la unidad 212 de decodificación no base de la Fig. 15.
La unidad 212 de decodificación no base se compone de una unidad 231 de recepción y una unidad 232 de decodificación.
La unidad 231 de recepción recibe el flujo de bitios codificado de la imagen dependiente, que se codifica por la unidad 12 de codificación no base de la Fig. 1, y suministrada. La unidad 231 de recepción somete el flujo de bitios codificado a un proceso de desmultiplexion, en el SPS, el PPS, el encabezamiento de la sección y los datos codificados, y suministra estos a la unidad 232 de decodificación. Además la unidad 231 de recepción recibe la imagen codificada de la imagen base y la información del RPS que se suministran desde la unidad 212 de decodificación no base. Además, la unidad 231 de recepción suministra el flujo de bitios des multiplexado y los similares, la imagen decodificada de la imagen base y la información del RPS, desde la unidad 212 de decodificación no base, a la unidad 231 de recepción.
La unidad 232 de decodificación decodifica los datos codificados de la imagen dependiente de las unidades de sección, usando un método que corresponde al método de codificación en la unidad 31 de codificación [Fig. 2] con base en el SPS, el PPS, y el encabezamiento de la sección, y los datos codificados de la imagen dependiente, y la imagen decodificada de la imagen base y la información del RPS. La unidad 232 de decodificación transmite la imagen dependiente que se obtiene como resultado de la decodificación.
Ejemplo de Configuración de la Unidad 232 de Decodificacion La Fig. 17 es un diagrama de bloque que muestra un ejemplo de la configuración de la unidad 232 de decodificación de la Fig. 16.
La unidad 232 de decodificación de la Fig. 17 se compone de una memoria 251 intermedia de acumulación, una unidad 252 de decodificación sin pérdidas, una unidad 253 de cuantificación inversa, una unidad 254 de transformación ortogonal inversa, una unidad 255 de adición, un filtro 256 de desbloqueo, una memoria 257 intermedia de rearreglo de la pantalla, una unidad 258 de conversión D/A, una DPB 259, una unidad 260 de predicción intra de la pantalla, una unidad 261 de generación del vector de movimiento, una unidad 262 de compensación del movimiento, un conmutador 263 y una unidad 264 de procesamiento del RPS.
La memoria 251 intermedia de acumulación recibe los datos codificados de la imagen dependiente de las unidades de sección, desde la unidad 231 de recepción de la Fig. 16 y acumula los datos codificados. La memoria 251 intermedia de acumulación suministra los datos codificados que se acumulan, la unidad 252 de decodificación sin pérdidas.
La unidad 252 de decodificación sin pérdidas obtiene los coeficientes cuantificados al someter los datos codificados de la memoria 251 intermedia de acumulación a la decodificación sin pérdidas, tal como decodificación de longitud variable o decodificación aritmética. La unidad 252 de decodificación sin pérdidas suministra los coeficientes cuantificados a la unidad 253 de cuantificación inversa.
La unidad 253 de cuantificación inversa, la unidad 254 de transformación ortogonal inversa, la unidad 255 de adición, el filtro 256 de desbloqueo, la DPB 259, la unidad 260 de predicción intra de la pantalla y la unidad 262 de compensación del movimiento llevan a cabo, respectivamente, procesos similares a aquellos de la unidad 128 de cuantificación inversa, la unidad 129 de transformación ortogonal inversa, la unidad 130 de adición, el filtro 131 de desbloqueo, la DPB 132, la unidad 133 de predicción intra de la pantalla y la unidad 134 de predicción y compensación del movimiento de la Fig. 3. Por consiguiente, la imagen dependiente se decodifica.
Específicamente, la unidad 253 de cuantificación inversa somete los coeficientes cuantificados, de la unidad 252 de decodificación sin pérdidas, a cuantificación sin pérdidas, y suministra los coeficientes que se obtienen como resultado, a la unidad 254 de transformación ortogonal inversa.
La unidad 254 de transformación ortogonal inversa somete los coeficientes de la unidad 253 de cuantificación inversa a una transformación ortogonal inversa, tal como la Transformación Discreta del coseno inversa o la Transformación de Karhunen-Loeve inversa, y suministra la información, que se obtiene como resultado, a la unidad 255 de adición.
La unidad 255 de adición funciona como la unidad de decodificación y decodifica la imagen dependiente objetivo de la decodificación, al agregar la información residual, la cual es la imagen dependiente objetivo de la decodificación que se suministra desde la unidad 254 de transformación ortogonal inversa, a la imagen de predicción que se suministra desde el conmutador 263. La unidad 255 de adición suministra la imagen dependiente, que se obtiene como resultado, al filtro 256 de desbloqueo. Además, cuando la imagen de predicción no se suministra desde el conmutador 263, la unidad 255 de adición suministra la imagen dependiente, la cual es la información residual que se suministra desde la unidad 254 de transformación ortogonal inversa, al filtro 256 de desbloqueo.
El filtro 256 de desbloqueo elimina la distorsión de bloque al filtrar la imagen dependiente que se suministra desde la unidad 255 de adición. El filtro 256 de desbloqueo suministra la imagen dependiente, que se obtiene como resultado, a la memoria 257 intermedia de rearreglo de la pantalla, y hace que la memoria 257 intermedia de rearreglo de la pantalla acumule la imagen dependiente. Además, el filtro 256 de desbloqueo suministra Lam imagen dependiente después de la eliminación de la distorsión de bloque, a la DPB 259, hace que la DPB 259 acumule la imagen dependiente y también suministra la imagen dependiente a la unidad 260 de predicción intra de la pantalla.
La memoria 257 intermedia de rearreglo de la pantalla almacena la imagen dependiente, la cual se suministra desde el filtro 256 de desbloqueo, en unidades de cuadros. La memoria 257 intermedia de rearreglo de la pantalla rearregla la imagen dependiente de las unidades de cuadros, en el orden almacenado para la decodificación en el orden original de despliegue, y suministra la imagen dependiente a la unidad 258 de conversión D/A.
La unidad 258 de conversión D/A somete la imagen dependiente de las unidades de cuadros, que se suministra desde la memoria 257 intermedia de rearreglo de la pantalla, a la conversión D/A, y transmite la imagen dependiente como la imagen dependiente de un punto de vista predeterminado.
La DPB (memoria intermedia de imágenes decodificadas) 259 acumula la imagen dependiente que se suministra desde el filtro 256 de desbloqueo. Además, la imagen decodificada de la imagen base de la unidad 231 de recepción de la Fig. 16, también se suministra a, y se acumula en la DPB 259. La imagen dependiente y la imagen decodificada de la imagen base, que se acumulan en la DPB 259, son administradas (controladas) por la unidad 264 de procesamiento del RPS, y suministradas a la unidad 262 de compensación del movimiento como las imágenes de referencia .
La unidad 260 de predicción intra de la pantalla lleva a cabo la predicción intra de la pantalla del modo de predicción intra óptimo, que indica la información de predicción intra de la pantalla, la cual se suministra desde la unidad 231 de recepción de la Fig. 16, usando la imagen dependiente después de la eliminación de la distorsión del bloque, que se suministra desde el filtro 256 de desbloqueo, y genera la imagen de predicción. Además, la unidad 260 de predicción intra de la pantalla suministra la imagen de predicción al conmutador 263.
De los vectores de movimiento que se almacenan, la 161 agrega el vector de movimiento y el vector de movimiento residual, los cuales se indican por el Indice del vector de predicción, incluido en la información del movimiento que se suministra desde la unidad 231 de recepción de la Fig. 16, y restablece el vector de movimiento. La unidad 261 de generación del vector de movimiento almacena el vector de movimiento restablecido. Además, la unidad 261 de generación del vector de movimiento suministra el vector de movimiento restablecido, el modo de predicción inter que se incluye en la información del movimiento y los similares, a la unidad 262 de compensación del movimiento.
La unidad 262 de compensación del movimiento funciona como una unidad de generación de imágenes de predicción y lleva a cabo el proceso de compensación al leer la imagen de referencia de la DPB 259, con base en el vector de movimiento y el modo de predicción inter óptimo que se suministra desde la unidad 261 de generación del vector de movimiento. La unidad 262 de compensación del movimiento suministra la imagen de predicción, que se genera como resultado, al conmutador 263.
Cuando la imagen de predicción se suministra desde la unidad 260 de predicción intra de la pantalla, el 163 suministra la imagen de predicción a la unidad 255 de adición, y cuando la imagen de predicción se suministra desde la unidad 262 de compensación del movimiento, el conmutador 263 suministra la imagen de predicción a la unidad 255 de adición.
La unidad 264 de procesamiento del RPS adquiere la información del RPS de la imagen dependiente y la información del RPS de la imagen base, que se suministran desde la unidad 231 de recepción de la Fig. 16. Además, la unidad 264 de procesamiento del RPS controla la imagen dependiente y la imagen decodificada de la imagen base, que se acumulan en la DPB 259, como las imágenes de referencia. Específicamente, la unidad 264 de procesamiento del RPS determina la imagen a suministrar a la unidad 262 de compensación del movimiento, como la imagen de referencia de entre la imagen dependiente y la imagen decodificada de la imagen base, que se acumulan en la DPB 259 y hace que la imagen seleccionada sea suministrada a la unidad 262 de compensación del movimiento. Además, la unidad 264 de procesamiento del RPS determina las imágenes innecesarias de entre las imágenes (la imagen dependiente y la imagen decodificada de la imagen base, que se acumulan en la DPB 132 y elimina las imágenes innecesarias.
Descripción del Proceso de Desmultiplexión La Fig. 18 es un diagrama de flujo que ilustra el proceso de desmultiplexión, de acuerdo con la unidad 231 de recepción de la Fig. 16.
En el proceso de desmultiplexión, primero, en la etapa S141, la unidad 231 de recepción recibe el flujo de bitios codificado de la imagen dependiente, que se codifica y se suministra por la unidad 12 de codificación no base.
En la etapa S142, la unidad 231 de recepción desmultiplexa el SPS del flujo de bitios codificado de la imagen dependiente recibida y suministra el SPS a la unidad 232 de decodificación.
En la etapa S143, la unidad 231 de recepción desmultiplexa el PPS del flujo de bitios codificado y suministra el PPS a la unidad 232 de decodificación. La información del RPS de la imagen dependiente incluida en el PPS se suministra a la unidad 264 de procesamiento del RPS de la unidad 232 de decodificación.
En la etapa S144, la unidad 231 de recepción desmultiplexa el encabezamiento de la sección del flujo de bitios codificado, y suministra el encabezamiento de la sección a la unidad 232 de decodificación la información del RPS de la imagen dependiente incluida en el encabezamiento de la sección se suministra a la unidad 264 de procesamiento del RPS de la unidad 232 de decodificación.
En la etapa S145, la unidad 231 de recepción desmultiplexa los datos codificados del flujo de bitios codificados y suministra los datos codificados a la unidad 232 de decodificación.
Descripción del Proceso de Decodificación La Fig. 19 es un diagrama de flujo que ilustra el proceso de decodificación de la unidad 232 de decodificación de la Fig. 17. El proceso de decodificación se lleva a cabo para cada punto de vista.
En la etapa S161, la memoria 251 intermedia de acumulación de la unidad 232 de decodificación recibe y acumula los datos codificados de las unidades de sección de la imagen dependiente, desde la unidad 231 de recepción de la Fig. 16. La memoria 251 intermedia de acumulación suministra a la unidad 252 de decodificación sin pérdidas los datos codificados que se acumulan.
En la etapa S162, la unidad 252 de decodificación sin pérdidas somete los datos codificados, que se suministran desde la memoria 251 intermedia de acumulación, a la decodificación sin pérdidas, y suministra a la unidad 252 de decodificación sin pérdidas los coeficientes cuantificados, que se obtienen como resultado.
En la etapa S163, la unidad 253 de cuantificación inversa somete los coeficientes cuantificados de la unidad 252 de decodificación sin pérdidas, a cuantificación inversa, y suministra a la unidad 254 de transformación ortogonal inversa los coeficientes que se obtienen como resultado.
En la etapa S164, la unidad 254 de transformación ortogonal inversa somete a transformación ortogonal inversa los coeficientes de la unidad 253 de cuantificación inversa, y suministra a la unidad 255 de adición la información residual que se obtiene como resultado.
En la etapa S165, la unidad 261 de generación del vector de movimiento determina si la información del movimiento se suministra o no desde la unidad 231 de recepción de la Fig. 16. Cuando se determina que se suministra la información del movimiento, en la etapa S165, el proceso procede a la etapa S166.
En la etapa S166, la unidad 261 de generación del vector de movimiento restablece y almacena el vector de movimiento, con base en la información del movimiento y el vector de movimiento que está almacenado. La unidad 261 de generación del vector de movimiento suministra el vector de movimiento restablecido, el modo de predicción inter óptimo que se incluye en la información del movimiento y los similares, a la unidad 262 de compensación del movimiento.
En la etapa S167, la unidad 264 de procesamiento del RPS ejecuta un proceso de administración para administrar las imágenes (la imagen dependiente y la imagen decodificada de la imagen base) que se acumulan en la DPB 259. El proceso de administración se describirá en detalle a continuación, con referencia a la Fig. 20. La imagen que se suministra a la unidad 262 de compensación del movimiento como la imagen de referencia de las imágenes que se acumulan en la DPB 259, se determina con base en la información del RPS adquirida.
En la etapa S168, la unidad 262 de compensación del movimiento lleva a cabo el proceso de compensación del movimiento al leer la imagen de referencia de la DPB 259, con base en el vector de movimiento y el modo de predicción inter óptimo que se suministra desde la unidad 261 de generación del vector de movimiento. La unidad 262 de compensación del movimiento suministra al conmutador 263 la imagen de predicción que se genera como resultado del proceso de compensación del movimiento. Cuando la salida de la unidad 262 de compensación del movimiento se selecciona en el conmutador 263, la imagen de predicción de la unidad 262 de compensación del movimiento se suministra a la unidad 255 de adición.
Por otro lado, cuando se determina que la información del movimiento no se suministra en la etapa S165, es decir, cuando la información de predicción intra de la pantalla se suministra desde la unidad 231 de recepción a la unidad 260 de predicción intra de la pantalla, el proceso procede a la etapa S169.
En la etapa S169, la unidad 260 de predicción intra de la pantalla lleva a cabo el proceso de predicción intra de la pantalla del modo de predicción intra óptimo que se indica por la información de predicción intra de la pantalla, la cual se suministra desde la unidad 231 de recepción, usando la imagen de referencia que se suministra desde la unidad 255 de adición. La unidad 260 de predicción intra de la pantalla suministra al conmutador 263 la imagen de predicción que se genera como resultado. Cuando la salida de la unidad 260 de predicción intra de la pantalla se selecciona en el conmutador 263, la imagen de predicción de la unidad 260 de predicción intra de la pantalla se suministra a la unidad 255 de adición.
En la etapa S170, la unidad 255 de adición agrega la información residual, que se suministra desde la unidad 254 de transformación ortogonal inversa, a la imagen de predicción que se suministra desde el conmutador 263. La unidad 255 de adición suministra al filtro 256 de desbloqueo la imagen dependiente que se obtiene como resultado.
En la etapa S171, el filtro 256 de desbloqueo elimina la distorsión de bloque al llevar a cabo el filtrado sobre la imagen dependiente que se suministra desde la unidad 255 de adición .
En la etapa S172, el memoria 257 intermedia de rearreglo de la pantalla suministra la imagen dependiente, después del filtrado, a la memoria 257 intermedia de rearreglo de la pantalla y la DPB 259, hace que la imagen dependiente sea acumulada y suministra la imagen dependiente a la unidad 260 de predicción intra de la pantalla.
En la etapa S173, la memoria 257 intermedia de rearreglo de la pantalla almacena la imagen dependiente que se suministra desde la filtro 256 de desbloqueo en unidades de cuadros, rearregla la imagen dependiente en unidades de cuadros, en el orden almacenado, para su codificación en el orden original de despliegue, y suministra la imagen dependiente a la unidad 258 de conversión D/A.
En la etapa S174, la unidad 258 de conversión D/A somete a la conversión D/A la imagen dependiente en unidades de cuadros, que se suministra desde la unidad 258 de conversión D/A, y transmite la imagen dependiente como la imagen dependiente de un punto de vista predeterminado.
Descripción del Proceso de Adminis ración La Fig. 20 es un diagrama de flujo que ilustra el proceso de administración de la etapa S167 de la Fig. 19.
En la etapa S201, la unidad 264 de procesamiento del RPS adquiere el POC de cada RPS de la imagen base.
En la etapa S202, la unidad 264 de procesamiento del RPS determina si la POC de la imagen dependiente es igual al RPS de la imagen base, haciendo referencia a ref_pic_conjunto_temporal_mismo_bandera del RPS de la imagen dependiente .
En la etapa S202, cuando se determina que el POC de la imagen dependiente es igual al POC del RPS de la imagen base, el proceso procede a la etapa S203, y la unidad 264 de procesamiento del RPS determina el POC del RPS de la imagen base que es igual al POC de la imagen dependiente.
En la etapa S202, cuando de determina que el POC de la imagen dependiente no es igual al POC del RPS de la imagen base, el proceso procede a la etapa S204, y la unidad 264 de procesamiento del RPS calcula el POC de la imagen dependiente a partir del APOC.
En la etapa S205, la unidad 264 de procesamiento del RPS calcula el Vistaldx a partir del AVistaldx con base en el RPS de la imagen dependiente.
En la etapa S206, la unidad 264 de procesamiento del RPS determina la imagen (la imagen base y la imagen decodificada de la imagen dependiente) a ser almacenada en la DPB 259.
En la etapa S207, la unidad 264 de procesamiento del RPS borra de la DPB 259 las imágenes que no deben ser almacenadas (que no es necesario que sean almacenadas) en la DPB 259.
En la etapa S208, la unidad 264 de procesamiento del RPS determina la imagen a ser suministrada como la imagen de referencia a la unidad 262 de compensación del movimiento, de entre las imágenes que se acumulan en la DPB 259.
En la etapa S209, la unidad 264 de procesamiento del RPS asigna el índice de referencia, y regresa a la Fig. 19.
Como se describe anteriormente, (la unidad 212 de decodificación no base de) el dispositivo 201 de decodificación decodifica el flujo de bitios que se codifica por (la unidad 12 de codificación no base) el dispositivo 10 de codificación. En otras palabras, es posible decodificar la información del RPS de la imagen dependiente al recibir el flujo de bitios codificado de la imagen dependiente, en el cual, la eficiencia de codificación se mejora de modo tal que es posible hacer referencia a la información del RPS de la imagen base.
Además, en la unidad 212 de decodificación no base, la imagen base de la dirección de visión diferente que se almacena en la DPB 259, se administra (controla) usando el Vistaldx, de la misma manera como en el caso del POC. Por lo tanto, también es posible lograr la administración de la DPB 259 en una pluralidad de vistas (puntos de vista) . En otras palabras, es posible especificar la imagen de una dirección de visión diferente que está presente en la DPB 259, y, es posible distinguir la imagen de referencia de la imagen de no referencia .
Otros ejemplos La Fig. 21 muestra otro ejemplo de la sintaxis del SPS (= seq_parámetros_conjunto_rbsp ( ) ) de la imagen dependiente.
En la Fig. 21, se agrega recientemente la ref_pic_conj unto_mismo_bandera más baja. ref_pic_conjunto_mismo_bandera es la información (la bandera) que indica que el RPS de la imagen base y la imagen dependiente es el mismo. De acuerdo con ref_pic_conj unto_mismo_bandera, cuando el RPS de la imagen base y la imagen dependiente es el mismo, en el lado de la imagen dependiente, siempre se hace referencia al RPS igual a aquel de la imagen base.
La presente tecnología también puede ser aplicada a un método de codificación distinto al método HEVC descrito anteriormente, tal como AVC (Codificación Avanzada de Video) o MVC (Codificación de Video de Vistas Múltiples) Segunda modalidad Descripción de una Computadora La serie de procesos, descrita anteriormente puede ser llevada a cabo usando un conjunto de componentes físicos, y puede ser llevada a cabo usando un conjunto de componentes lógicos. Cuando la serie de procesos se lleva a cabo usando un conjunto de componentes lógicos, los programas que configuran los componentes lógicos se instalan en una computadora de uso general o las similares.
Por lo tanto, la Fig. 22 muestra un ejemplo de la configuración de una modalidad de la computadora en la cual se instala el programa, el cual ejecuta la serie de procesos descrita anteriormente.
El programa puede ser registrado por adelantado en una unidad 808 de memoria o ROM (Memoria de Solo Lectura) 802 que sirve como un medio de registro que se integra en la computadora .
Alternativamente, los programas pueden ser almacenados (registrados) en medios 811 removibles. Los medios 811 removibles pueden ser proporcionados como los así llamados paquetes informáticos. Aquí, los ejemplos de los medios 811 removibles incluyen, discos flexibles, CD-ROM (Disco compacto de Memoria de Solo Lectura), discos MO (Magneto-Ópticos), discos DVD (Disco Versátil Digital) , discos magnéticos, memorias de semiconductores y los similares.
Además, aparte de ser instalados en la computadora a través de un lector 810 desde los medios 811 removibles, tales como aquellos descritos anteriormente, es posible descargar los programas en la computadora a través de una red de comunicaciones o una red de radiodifusión, e instalar los programas en la unidad 808 de memoria. En otras palabras, los programas pueden ser transmitidos a la computadora en una manera inalámbrica, a través de un satélite artificial para radiodifusión satelital digital desde un sitio de descarga, por ejemplo, y pueden ser transmitidos a la computadora en una manera cableada a través de una red, tal como una LAN (Red de Área Local) o la Red internacional.
Una CPU (Unidad Central de Procesamiento) 801 se integra en la computadora, y una interfaz 805 de entrada-salida se conecta a la CPU 801 a través de una linea 804 común de comunicación .
Cuando se introduce un comando, por el usuario que opera una unidad 806 de entrada o las similares, a través de la interfaz 805 de entrada-salida, la CPU 801 ejecuta los programas que se almacenan en la unidad 602 de codificación de acuerdo con el comando. Alternativamente, la CPU 801 carga los programas, que están almacenados en la unidad 808 de memoria, en la RAM (Memoria de Acceso Aleatorio) RAM 803 y ejecuta los programas .
Por consiguiente, la CPU 801 ejecuta los procesos de acuerdo con el diagrama de flujo descrito anteriormente, o ejecuta los procesos que se llevan a cabo de acuerdo con la configuración de los diagramas de bloques descritos anteriormente. Además, cuando es necesario, la CPU 801 transmite los resultados de los procesos desde una unidad 807 de salida, a través de la interfaz 805 de entrada-salida, por ejemplo, o transmite los resultados desde la unidad 809 de comunicación y además hace que la unidad 808 de memoria registre los resultados, o los similares.
Además, la unidad 807 de salida se compone de un teclado, un ratón, un micrófono o los similares. Además, la unidad 807 de salida se compone de una LCD (Pantalla de Cristal Liquido), un altavoz o los similares.
Aquí, en la presente especificación, los procesos que ejecuta la computadora de acuerdo con los programas, no necesitan ser ejecutados necesariamente en el orden de la serie temporal, en el orden denotado por los diagramas de flujo. En otras palabras, los procesos que ejecuta la computadora de acuerdo con los programas incluyen proceso que se ejecutan en paralelo, o, individualmente (por ejemplo, procesamiento en paralelo o procesamiento basado en objetos) .
Además, los programas pueden ser procesados por una computadora (procesador) , y también pueden ser procesados en una manera distribuida por una pluralidad de computadoras. Además, los programas pueden ser transferidos a computadoras distantes y ejecutados.
La presente tecnología puede ser aplicada a dispositivos de codificación y dispositivos de decodificación que se usan cuando se llevan a cabo las comunicaciones a través de medios de red tales como radiodifusión satelital, TV (televisión) por cable, la Red internacional, teléfonos móviles y los similares, o, cuando se procesan en medios de registro tales como discos ópticos o magnéticos y memorias de destello.
Además, los dispositivos de codificación y los dispositivos de decodificación descritos anteriormente pueden ser aplicados a dispositivos electrónicos arbitrarios. A continuación se dará la descripción de los ejemplos de los mismos .
Tercera modalidad Ejemplo de Configuración del Dispositivo de Televisión La Fig. 23 muestra un ejemplo de la configuración esquemática de un dispositivo de televisión, al cual se aplica la presente tecnología. El aparato 900 de televisión incluye una antena 901, un sintonizador 902, un desmultiplexor 903, un decodificador 904, una unidad 905 de procesamiento de señales de video, una unidad 906 de visualización, una unidad 907 de procesamiento de señales de audio, un altavoz 908 y una unidad de 909 interfaz externa. Además, el aparato 900 de televisión incluye una unidad 910 de control, una interfaz 911 de usuario, y las similares.
El sintonizador 902 selecciona un canal deseado de una señal de radiodifusión que es recibida por la antena 901, lleva a cabo la demodulación, y transite el flujo de bitios codificado que se obtiene, al desmultiplexor 903.
El desmultiplexor 903 extrae los paquetes de audio y de video del programa, el cual es el objetivo de la visualización, desde el flujo de bitios codificados, y transmite al decodificador 904 los datos de los paquetes que se extraen. Además, el desmultiplexor 903 suministra los paquetes de datos, tales como una EPG (Guia Electrónica de Programación) a la unidad 910 de control. Además, cuando se ha llevado a cabo una encriptacion, se lleva a cabo la eliminación de la encriptacion por medio del desmultiplexor o los similares.
El decodificador 904 lleva a cabo el proceso de decodificación de los paquetes, los datos de video que se generan por el proceso de decodificación, se transmiten a la unidad 905 de procesamiento de señales de video, y los datos de audio se transmiten a la unidad 907 de procesamiento de señales de audio.
La unidad 905 de procesamiento de señales de video lleva a cabo la eliminación del ruido, el procesamiento de video y los similares, correspondientes a los ajustes del usuario con relación a los datos de video. La unidad 905 de procesamiento de señales de video genera los datos de video de un programa a ser visualizado en la unidad 906 de visualización, los datos de imagen correspondientes a los procesos basados en las aplicaciones que se suministran a través de la red, y los similares. Además, la unidad 905 de procesamiento de señales de video genera los datos de video para visualizar una pantalla de menú o los similares, tales como la selección de objetos, y sobrepone los datos de video sobre los datos de video del programa. La unidad 905 de procesamiento de señales de video genera una señal de estimulación, basada en los datos de video que se generan de esta forma, y estimula la unidad 906 de visualización.
La unidad 906 de visualización controla los dispositivos de visualización (por ejemplo, los dispositivos de apantalla de cristal liquido o los similares) con base en la señal de estimulación de la unidad 905 de procesamiento de señales de video, y hace que los dispositivos de visualización desplieguen el video del programa o los similares.
La unidad 907 de procesamiento de señales de audio somete los datos de audio a un proceso predeterminado, tal como eliminación del ruido, y lleva a cabo la transmisión del audio, al someter los datos de audio de postprocesamiento a un proceso de conversión D/A y un proceso de amplificación y suministra el resultado al altavoz 908.
La unidad 909 de interfaz externa es una interfaz para conectar los dispositivos externos a una red, y lleva a cabo la transmisión y la recepción de los datos de video, los datos de audio y los similares.
La interfaz 911 de usuario se conecta a la unidad 910 de control. La interfaz 911 de usuario se compone de un interruptor de operación, una unidad de recepción de señales de control remoto y los similares, y suministra una señal de operación correspondiente a la operación del usuario a la unidad 910 de control.
La unidad 910 de control se configura usando una CPU (Unidad Central de Procesamiento), la memoria y las similares. La memoria almacena los programas que son ejecutados por la CPU, los distintos datos que son necesarios para que la CPU lleve a cabo los procesos, los datos de la EPG, los datos que se adquieren a través de la red y los similares. Los programas que se almacenan en la memoria son leídos y ejecutados por la CPU con una temporización predeterminada, como por ejemplo, cuando se enciende el dispositivo 900 de televisión. Al ejecutar los programas, la CPU controla cada componente, de modo tal que el dispositivo 900 de televisión lleva a cabo las operaciones que corresponden a las operaciones del usuario.
Además, el dispositivo 900 de televisión cuenta con el sintonizador 902, el desmultiplexor 903, la unidad 905 de procesamiento de señales de video, la unidad 907 de procesamiento de señales de audio, la unidad 909 de interfaz externa, y los similares, y una linea 912 común de comunicación para conectar la unidad 910 de control.
En el dispositivo de televisión que se configura de esta manera, el decodificador 904 se provee con la función del dispositivo de decodificación (el método de decodificación) de la presente solicitud. Por lo tanto, también es posible realizar la administración de la DPB con relación a la imagen base de una dirección de visión diferente, y, al reducir la cantidad de código haciendo referencia al RPS de la imagen base, es posible decodificar el flujo de bitios codificado de la imagen dependiente, en la cual se mejora la eficiencia de la codificación.
Cuarta Modalidad Ejemplo de Configuración del Teléfono Móvil La Fig. 24 muestra un ejemplo de la configuración esquemática de un teléfono móvil al cual se aplica la presente tecnología. Un teléfono 920 móvil incluye una unidad 922 de comunicación, un codificador-decodificador 923 de audio, una unidad 926 de cámara, una unidad 927 de procesamiento de imágenes, una unidad 928 de desmultiplexión, una unidad 929 de registro y reproducción, una unidad 930 de visualización y una unidad 931 de control. Estos se conectan entre si a través de una linea 933 común de comunicación.
Además, la antena 921 se conecta a la unidad 922 de comunicación, y el altavoz 924 y el micrófono 925 se conectan al codificador-decodificador 923 de audio. Además, la unidad 932 de operación se conecta a la unidad 931 de control.
Al teléfono 920 móvil lleva a cabo varias operaciones, tales como, la transmisión y la recepción de señales de audio, la transmisión y recepción de correos electrónicos y datos de imagen, fotografía de imágenes y registro de datos en varios modos, tales como el modo de conferencia de audio y el modo de comunicación de datos.
En el modo de conferencia de audio, la señal de audio, la cual se genera por el micrófono 925, se convierte en datos de audio y se lleva a cabo la compresión de datos sobre los mismos, por el codificador-decodificador 923 de audio, y el resultado se suministra a la unidad 922 de comunicación. La unidad 922 de comunicación lleva a cabo un proceso de modulación, un proceso de conversión de la frecuencia o los similares, de los datos de audio y genera la señal de transmisión. Además, la unidad 922 de comunicación suministra la señal de transmisión a la antena 921 y transmite la señal de transmisión a una estación base (no se muestra) . Además, la unidad 922 de comunicación lleva a cabo la amplificación, el proceso de conversión de la frecuencia, el proceso de desmodulación y los similares, de la señal recibida, que se recibe por la antena 921, y suministra los datos de audio obtenidos al codificador-decodificador 923 de audio. El codificador-decodificador 923 de audio somete los datos de audio a expansión de datos y conversión a una señal de audio analógica, y transmite el resultado al altavoz 924.
Además, en el modo de comunicación de datos, cuando se lleva a cabo la transmisión de correos electrónicos, la unidad 931 de control recibe los datos de los caracteres que se introducen mediante la unidad 932 de operación, y despliega los caracteres que se introducen, en la unidad 930 de visualización . Además, la unidad 931 de control genera los datos del correo electrónico, con base en los comandos del usuario y los similares en la unidad 932 de operación, y suministra los datos del correo a la unidad 922 de comunicación. La unidad 922 de comunicación lleva a cabo el proceso de modulación, el proceso de conversión de la frecuencia y los similares de los datos del correo, y transmite la señal de transmisión que se obtiene desde la antena 921. Además, la unidad 922 de comunicación lleva a cabo la amplificación, el proceso de conversión de la frecuencia, el proceso de demodulación y los similares, de la señal recibida, que se recibe por la antena 921, y almacena los datos del correo. Los datos del correo se suministran a la unidad 930 de visualización, y se lleva a cabo la visualización del contenido del correo.
Además, el teléfono 920 móvil también puede hacer que la unidad 929 de registro y reproducción almacene los datos del correo que se reciben, en el medio de almacenamiento. El medio de almacenamiento es un medio de almacenamiento rescribible, arbitrario. Los ejemplos de medios de almacenamiento incluyen memorias de semiconductores, tales como memoria RAM y memoria de destello integradas, discos duros, medos removibles, tales como discos magnéticos, discos magnetópticos, discos ópticos, memorias USB o tarjetas de memoria.
Cuando se transmiten datos de imagen en el modo de comunicación de datos, los datos de imagen que se generan por la unidad 926 de cámara se suministran a la unidad 927 de procesamiento de imágenes. La unidad 927 de procesamiento de imágenes lleva a cabo los procesos de codificación de los datos de imagen y genera los datos codificados.
La unidad 928 de desmultiplexión multiplexa los datos codificados que se generan por la unidad 927 de procesamiento de imágenes y los datos de audio que se suministran desde el codificador-decodificador 923 de audio, usando un método predeterminado, y suministra los datos multiplexados a la unidad 922 de comunicación. La unidad 922 de comunicación lleva a cabo el proceso de modulación, el proceso de conversión de la frecuencia y los similares de los datos multiplexados, y transmite la señal de transmisión que se obtiene desde la antena 921. Además, la unidad 922 de comunicación lleva a cabo la amplificación, el proceso de conversión de la frecuencia, el proceso de demodulación y los similares de la señal recibida que se recibe por la antena 921, y restablece los datos multiplexados . Los datos multiplexados se suministran a la unidad 928 de desmultiplexión. La unidad 928 de desmultiplexión lleva a cabo la desmultiplexión de los datos multiplexados, y suministra los datos codificados a la unidad 927 de procesamiento de imágenes y los datos de audio a la codificador-decodificador 923 de audio. La unidad 927 de procesamiento de imágenes lleva a cabo los procesos de decodificación de los datos codificados y genera los datos de imagen. Los datos de imagen se suministran a la unidad 930 de visualización, y se lleva a cabo el despliegue de la imagen que se recibe. El codificador-decodificador 923 de audio transmite el audio que se recibe al convertir los datos de audio en una señal analógica de audio, y suministra la señal analógica de audio al altavoz 924.
En el dispositivo de teléfono móvil que se configura de esta manera, la unidad 927 de procesamiento de imágenes se provee con las funciones del dispositivo de codificación y el dispositivo de decodificación (el método de codificación y el método de decodificación) de la presente solicitud. Por lo tanto, también es posible realizar la administración de la DPB con relación a la imagen base de una dirección de visión diferente, y, al reducir la cantidad de código haciendo referencia al RPS de la imagen base, es posible generar el flujo de bitios codificado de la imagen dependiente en el cual se mejora la eficiencia de la codificación. Además, es posible lograr la administración de la DPB con relación a la imagen base de una dirección de visión diferente, y, al reducir la cantidad de código al hacer referencia al RPS de la imagen base, es posible decodificar el flujo de bitios codificado de la imagen dependiente en la cual se mejora la eficiencia de la codificación.
Quinta Modalidad Ejemplo de Conf guración del Dispositivo de Registro y Reproducción La Fig. 25 muestra un ejemplo de la configuración esquemática del dispositivo de registro y reproducción al cual se aplica la presente tecnología. Un aparato 940 de registro y reproducción registra los datos de audio y los datos de video de un programa de radiodifusión que se recibe, por ejemplo, en un medio de registro, y proporciona al usuario los datos que están registrados, con una temporización que corresponde a los comandos del usuario. Además, es posible hacer que el aparato 940 de registro y reproducción adquiera los datos de audio y los datos de video de otro dispositivo, por ejemplo, y registre los datos en el medio de registro. Además, el aparato 940 de registro y reproducción puede llevar a cabo la visualización de la imagen y la transmisión del audio en un dispositivo de monitor o los similares, al decodificar y transmitir los datos de audio y los datos de video que están registrados en el medio de registro.
El aparato 940 de registro y reproducción incluye un sintonizador 941, una unidad 942 de interfaz externa, un codificador 943, una unidad de HDD (Unidad de Disco Duro) 944, un lector 945 de discos, un selector 946, un decodificador 947, una unidad de OSD (Despliegue en Pantalla) 948, una unidad 949 de control y una unidad 950 interfaz de usuario.
El sintonizador 941 selecciona un canal deseado de una señal de radiodifusión, que se recibe por la antena (no se muestra) . El sintonizador 941 transmite al selector 946 el flujo de bitios codificado, el cual se obtiene al desmodular la señal recibida del canal deseado.
La unidad 942 de interfaz externa se compone al menos de una interfaz IEEE 1394, una unidad de interfaz de red, una interfaz USB, una interfaz de memoria de destello o los similares. La unidad 942 de interfaz externa es una interfaz para conectarse con los dispositivos externos, una red, una tarjeta de memoria o los similares, y lleva a cabo la recepción de datos, de los datos de video, los datos de audio y los similares que se registran.
El codificador 943 lleva a cabo la codificación usando un método predeterminado cuando los datos de video y los datos de audio, que se suministran desde la unidad 942 de interfaz externa no están codificados, y trasmite el flujo de bitios codificado al selector 946.
La unidad 944 de HDD registra los datos del contenido, tales como el video y el audio, varios programas, otros datos y los similares en el disco duro integrado, y, durante la reproducción y las similares, lee el contenido registrado desde el disco duro.
El lector 945 de discos lleva a cabo el registro y la reproducción de una señal, con relación a un disco óptico que se instala en el mismo. El disco óptico, por ejemplo, un disco DVD (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD+R, DVD+RW y los similares), un disco Blu-ray o los similares.
Durante el registro del video y el audio, el selector 946 selecciona el flujo de bitios codificado de uno del sintonizador 941 y el codificador 943, y suministra el flujo de bitios codificado a una de la unidad 944 de HDD y el lector 945 de discos. Además, durante la reproducción del video y el audio, el selector 946 suministra el flujo de bitios codificado, el cual se transmite desde la unidad 944 de HDD o el lector 945 de discos, al decodificador 947.
El decodificador 947 lleva a cabo el proceso de codificación del flujo de bitios codificado. El decodificador 947 suministra los datos de video que se generan al llevar a cabo el proceso de decodificación, a la unidad 948 de OSD.
Además, el decodificador 947 transmite los datos de audio que se generan al llevar a cabo el proceso de decodificación.
La unidad 948 de OSD genera los datos de video para desplegar la pantalla de menú y las similares, tales como la selección de objetos, sobrepone los datos de video sobre los datos de video que se transmiten desde el decodificador 947 y transmite el resultado.
La unidad 950 interfaz de usuario se conecta a la unidad 949 de control. La unidad 950 interfaz de usuario se compone de un interruptor de operación, una unidad de recepción de señales de control remoto y los similares, y suministra las señales de operación correspondientes a las operaciones del usuario, a la unidad 949 de control.
La unidad 949 de control se configura usando una CPU, la memoria y las similares. La memoria almacena los programas que se ejecutan por la CPU y varios datos que son necesarios para que la CPU lleve a cabo los procesos. Los programas que se almacenan en la memoria se leen y se ejecutan por la CPU con una temporización predeterminada, como por ejemplo cuando el aparato 940 de registro y reproducción se enciende. Al ejecutar los programas, la CPU controla cada componente, de modo tal que el aparato 940 de registro y reproducción lleva a cabo las operaciones que corresponden a las operaciones del usuario .
En el dispositivo de registro y reproducción que se configura de esta forma, el decodificador 947 se provee con las funciones del dispositivo de decodificación (el método de decodificación) de la presente solicitud. Por lo tanto, también es posible realizar la administración de la DPB con relación a la imagen base de una dirección de visión diferente, y, al reducir la cantidad de código al hacer referencia al RPS de la imagen base, es posible decodifica el flujo de bitios decodificado de la imagen dependiente, en el cual se mejora la eficiencia de la codificación.
Sexta Modalidad Ejemplo de Configuración del Dispositivo de Formación de Imágenes La Fig. 26 muestra un ejemplo de la configuración de un dispositivo de formación de imágenes al cual se aplica la presente tecnología. Un dispositivo 960 de formación de imágenes, hace que la unidad de visualización despliegue una imagen del objeto, y registre la imagen en un medio de registro, como datos de imagen.
El dispositivo 960 de formación de imágenes incluye un bloque 961 óptico, una unidad 962 de formación de imágenes, una unidad 963 de procesamiento de señales de la cámara, una unidad 964 de procesamiento de imágenes, una unidad 965 de visualización, una unidad 966 de interfaz externa, una unidad 967 de memoria, un lector 968 de medios, una unidad 969 de OSD, y una unidad 970 de control. Además, una unidad 971 de interfaz de usuario se conecta a la unidad 970 de control. Además, la unidad 964 de procesamiento de imágenes, la unidad 966 de interfaz externa, la unidad 967 de memoria, la lector 968 de medios, la unidad 969 de OSD, la unidad 970 de control, y las similares, se conectan entre si a través de una linea 972 común de comunicación.
El bloque 961 óptico se configura usando una lente de enfoque, un mecanismo de apertura o los similares. El bloque 961 óptico hace que una imagen óptica del objeto se forme sobre una superficie de formación de imágenes de la unidad 962 de formación de imágenes. La unidad 962 de formación de imágenes se configura usando un CCD o un detector de imágenes CMOS, genera una señal eléctrica correspondiente a la imagen óptica, usando coinversión fotoeléctrica, y suministra la señal eléctrica a la unidad 963 de procesamiento de señales.
La unidad 963 de procesamiento de señales de la cámara lleva a cabo varios procesos de señales de la cámara, tales como la corrección de codo, corrección de gama y corrección de color, con relación a la señal eléctrica que se suministra desde la unidad 962 de formación de imágenes. La unidad 963 de procesamiento de señales de la cámara suministra los datos de imagen después del procesamiento de la señal de la cámara, a la unidad 964 de procesamiento de imágenes.
La unidad 964 de procesamiento de imágenes lleva a cabo el proceso de codificación de los datos de imagen que se suministran desde la unidad 963 de procesamiento de señales de la cámara, la unidad 964 de procesamiento de imágenes suministra los datos codificados, que se generan al llevar a cabo el proceso de codificación, a la unidad 966 de interfaz externa o el lector 968 de medios. Además, la unidad 964 de procesamiento de imágenes lleva a cabo el proceso de decodificación de los datos codificados que se suministran desde la unidad 966 de interfaz externa o el lector 968 de medios. La unidad 964 de procesamiento de imágenes suministra los datos de imagen que se generan al llevar a cabo el proceso de decodificación, a la unidad 965 de visualización . Además, la unidad 964 de procesamiento de imágenes sobrepone los datos de visualización, los cuales se adquieren por el proceso de suministrar los datos de imagen que se suministran desde la unidad 963 de procesamiento de señales de la cámara a la unidad 965 de visualización, o desde la unidad 969 de OSD, sobre los datos de imagen. La unidad 964 de procesamiento de imágenes suministra el resultado del mismo a la unidad 965 de visualización .
La unidad 969 de OSD genera los datos de visualización, tales como las pantallas de menú y los iconos que se componente de símbolos, caracteres o gráficos, y transmite los datos de despliegue a la unidad 964 de procesamiento de imágenes .
La unidad 966 de interfaz externa se compone de una terminal de entrada-salida USB, o las similares, por ejemplo, y cuando se lleva a cabo la impresión de la imagen, se conecta a una impresora. Además, un lector se conecta a la unidad 966 de interfaz externa cuando sea necesario, y los medios removibles, tales como discos magnéticos o discos ópticos, se instalan apropiadamente en el mismo, y un programa de computadora que es leido desde los mismos, se instala, según sea necesario. Además la unidad 966 de interfaz externa incluye una interfaz de red que se conecta a una red predeterminada, tal como una LAN o la Red internacional. La unidad 970 de control, por ejemplo, lee los datos codificados de la unidad 967 de memoria de acuerdo con los comandos de la unidad 971 de interfaz de usuario y puede suministrar los datos codificados desde la unidad 966 de interfaz externa a otros dispositivos que se conectan a través de la red. Además, la unidad 970 de control adquiere los datos codificados y los satos de imagen que se suministran desde otros dispositivos, a través de la red, a través de la unidad 966 de interfaz externa, y puede suministrar los datos codificados y los datos de imagen a la unidad 964 de procesamiento de imágenes.
Los métodos usables de medios de registro que son leídos por la lector 968 de medios incluyen discos magnéticos, discos magnetópticos , discos ópticos, o medios removibles arbitrarios que pueden ser leídos y escritos a tales memorias de semiconductores. Además, el tipo de los medios removibles de los medos de registro también es arbitrario, y pueden ser dispositivos de cinta, discos o tarjetas de memoria. Naturalmente, el tipo puede tarjetas IC sin contacto o los similares .
Además, el lector 968 de medios y los medios de registro pueden estar integrados, por ejemplo, ya se componen de medios de registro no transportables tales, como unidades de disco duro integradas o un SSD (Unidad de Estado Sólido) .
La unidad 970 de control se configura usando una CPU, memoria y las similares. La memoria almacena los programas que son ejecutados por la CPU y varios datos que son necesarios para que la CPU lleve a cabo los procesos. Los programas que se almacenan en la memoria son leídos y ejecutados por la CPU con una temporización predeterminada, como por ejemplo cuando el dispositivo 960 de formación de imágenes se enciende. Al ejecutar los programas, la CPU controla cada componente, de modo tal que el dispositivo 960 de formación de imágenes lleve a cabo las operaciones que corresponden a las operaciones del usuario .
En el dispositivo de formación de imágenes que se compone de esta manera, la unidad 964 de procesamiento de imágenes se provee con las funciones del dispositivo de codificación y el dispositivo de decodificación (el método de codificación y el método de decodificación) de la presente solicitud. Por lo tanto, también es posible realizar la administración de la DPB con relación a la imagen base de una dirección de visión diferente, y, al reducir la cantidad de código al hacer referencia al RPS de la imagen base, es posible generar el flujo de bitios codificado de la imagen dependiente en el cual se mejora la eficiencia de la codificación. Además, también es posible realizar la administración de la DPB con relación a la imagen base de una dirección de visión diferente, y al reducir la cantidad de código al hacer referencia al RPS de la imagen base, es posible decodificar el flujo de bitios codificado de la imagen dependiente, en la cual se mejora la eficiencia de la codificación .
Las modalidades de la presente tecnología no se limitan a las modalidades descritas anteriormente, y se pueden hacer varias modificaciones dentro del ámbito, que no se apartan del aspecto principal de la presente tecnología.
Además, la presente tecnología puede adoptar las siguientes configuraciones. (1) Un dispositivo de procesamiento de imágenes que incluye una unidad de determinación, para determinar la información de administración de la dirección de visión, para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas cuando se codifica una imagen dependiente de una vista dependiente; una unidad de codificación, que genera los datos codificados al codificar la imagen base y la imagen dependiente; y una unidad de suministro, que suministra la información de administración de la dirección de visión que se determina por la unidad de determinación y los datos codificados que se generan por la unidad de codificación. (2) El dispositivo de procesamiento de imágenes de acuerdo con el punto (1), en el cual, la unidad de determinación determina la misma información que indica que la información de administración de la dirección temporal para administrar una imagen de una dirección temporal a ser almacenada en la memoria intermedio de imágenes decodificadas , cuando se codifica la imagen dependiente, es igual a la información de administración de la dirección temporal de la imagen base, y en la cual, la unidad de suministra la misma información que se determina por la unidad de determinación. (3) El dispositivo de procesamiento de imágenes de acuerdo con el punto (1) o (2), en el cual, la unidad de determinación determina la información de administración de la dirección de visión como un RPS . (4) Un método de procesamiento de imágenes, en el cual, un dispositivo de procesamiento de imágenes incluye una etapa de determinación, para determinar la información de administración de la dirección de visión para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se codifica una imagen dependiente de una vista dependiente; una etapa de codificación, para generar datos codificados, al codificar la imagen base y la imagen dependiente; y una etapa de suministro, para suministrar la información de administración de la dirección de visión, que se determina en la etapa de determinación y los datos codificados que se generan en la etapa de codificación. (5) El dispositivo de procesamiento de imágenes incluye una unidad de recepción, que recibe la información de administración de la dirección de visión, para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se decodifica una imagen dependiente de una vista dependiente, y los datos codificados, en los cuales se codifica la imagen base y la imagen dependiente; y una unidad de decodificación, que decodifica los datos codificados que se codifican y administra la imagen base de la memoria de imágenes decodificadas, con base en la información de administración de la dirección de visión. (6) El dispositivo de procesamiento de imágenes de acuerdo con el punto (5) , en el cual, la unidad de recepción recibe la misma información que indica que la información de administración de la dirección temporal para administrar una imagen de una dirección temporal, a ser almacenada en la memoria intermedia de imágenes decodificadas, cuando se decodifica la imagen dependiente, es igual a la información de administración de la dirección temporal de la imagen base, y la información de administración de la dirección temporal de la imagen base, y en el cual, la unidad de decodificación administra la imagen de la dirección temporal, a ser almacenada en la memoria intermedia de imágenes decodificadas usando la información de administración de la dirección temporal de la imagen base. (7) El dispositivo de procesamiento de imágenes de acuerdo con los puntos (5) o (6) en el cual, la unidad de recepción recibe la información de administración de la dirección de visión como un RPS. (8) Un método de procesamiento de imágenes, en el cual, el dispositivo de procesamiento de imágenes incluye una etapa de recepción, para recibir la información de administración de la dirección de visión para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se decodifica una imagen dependiente de una vista dependiente, y los datos codificados, en los cuales se codifica la imagen base y la imagen dependiente; y una etapa de decodificación para decodificar los datos codificados que se codifican y administrar la imagen base de la memoria intermedia de imágenes decodificadas, con base en la información de administración de la dirección de visión.
LISTA DE NÚMEROS DE REFERENCIA 10 DISPOSITIVO DE CODIFICACIÓN, 12 UNIDAD DE CODIFICACIÓN NO BASE, 31 UNIDAD DE CODIFICACIÓN, 32 UNIDAD DE DETERMINACIÓN, 132 DPB (MEMORIA INTERMEDIA DE IMÁGENES DECODIFICADAS) , 136 UNIDAD DE GENERACIÓN DEL RPS, 201 DISPOSITIVO DE DECODIFICACION, 212 UNIDAD DE DECODIFICACION NO BASE, 231 UNIDAD DE RECEPCIÓN, 232 UNIDAD DE DECODIFICACION, 259 DPB (MEMORIA INTERMEDIA DE IMÁGENES DECODIFICADAS), 264 UNIDAD DE PROCESAMIENTO DEL RPS.

Claims (8)

REIVINDICACIONES
1. Un dispositivo de procesamiento de imágenes, caracterizado porque comprende: una unidad de determinación, para determinar la información de administración de la dirección de visión, para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas cuando se codifica una imagen dependiente de una vista dependiente; una unidad de codificación, que genera los datos codificados al codificar la imagen base y la imagen dependiente; y una unidad de suministro, que suministra la información de administración de la dirección de visión que se determina por la unidad de determinación y los datos codificados que se generan por la unidad de codificación.
2. El dispositivo de procesamiento de imágenes de acuerdo con la Reivindicación 1, caracterizado porque, la unidad de determinación determina la misma información que indica que la información de administración de la dirección temporal para administrar una imagen de una dirección temporal a ser almacenada en la memoria intermedio de imágenes decodificadas, cuando se codifica la imagen dependiente, es igual a la información de administración de la dirección temporal de la imagen base, y en donde, la unidad de suministra la misma información que se determina por la unidad de determinación.
3. El dispositivo de procesamiento de imágenes de acuerdo con la Reivindicación 1, caracterizado porque, la unidad de determinación determina la información de administración de la dirección de visión como un RPS .
4. Un método de procesamiento de imágenes, caracterizado porque, un dispositivo de procesamiento de imágenes comprende: una etapa de determinación, para determinar la información de administración de la dirección de visión para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se codifica una imagen dependiente de una vista dependiente; una etapa de codificación, para generar datos codificados, al codificar la imagen base y la imagen dependiente; y una etapa de suministro, para suministrar la información de administración de la dirección de visión, que se determina en la etapa de determinación y los datos codificados que se generan en la etapa de codificación.
5. El dispositivo de procesamiento de imágenes, caracterizado porque comprende: una unidad de recepción, que recibe la información de administración de la dirección de visión, para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se decodifica una imagen dependiente de una vista dependiente, y los datos codificados, en los cuales se codifica la imagen base y la imagen dependiente; y una unidad de decodificación, que decodifica los datos codificados que se codifican y administra la imagen base de la memoria de imágenes decodificadas, con base en la información de administración de la dirección de visión.
6. El dispositivo de procesamiento de imágenes de acuerdo con la Reivindicación 5, caracterizado porque, la unidad de recepción recibe la misma información que indica que la información de administración de la dirección temporal para administrar una imagen de una dirección temporal, a ser almacenada en la memoria intermedia de imágenes decodificadas, cuando se decodifica la imagen dependiente, es igual a la información de administración de la dirección temporal de la imagen base, y la información de administración de la dirección temporal de la imagen base, y en donde, la unidad de decodificación administra la imagen de la dirección temporal, a ser almacenada en la memoria intermedia de imágenes decodificadas usando la información de administración de la dirección temporal de la imagen base.
7. El dispositivo de procesamiento de imágenes de acuerdo con la Reivindicación 5, caracterizado porque, la unidad de recepción recibe la información de administración de la dirección de visión como un RPS.
8. Un método de procesamiento de imágenes, caracterizado porque, el dispositivo de procesamiento de imágenes comprende: una etapa de recepción, para recibir la información de administración de la dirección de visión para administrar una imagen base de una vista base, la cual se almacena en una memoria intermedia de imágenes decodificadas, cuando se decodifica una imagen dependiente de una vista dependiente, y los datos codificados, en los cuales se codifica la imagen base y la imagen dependiente; y una etapa de decodificación para decodificar los datos codificados que se codifican y administrar la imagen base de la memoria intermedia de imágenes decodificadas, con base en la información de administración de la dirección de visión.
MX2014008982A 2012-01-31 2013-01-23 Dispositivo de procesamiento de imagenes y metodos de procesamiento de imagenes. MX2014008982A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012018411 2012-01-31
PCT/JP2013/051263 WO2013115023A1 (ja) 2012-01-31 2013-01-23 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
MX2014008982A true MX2014008982A (es) 2014-08-27

Family

ID=48905065

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014008982A MX2014008982A (es) 2012-01-31 2013-01-23 Dispositivo de procesamiento de imagenes y metodos de procesamiento de imagenes.

Country Status (8)

Country Link
US (1) US20150071350A1 (es)
EP (1) EP2811744A1 (es)
JP (1) JPWO2013115023A1 (es)
CN (1) CN104094606A (es)
IN (1) IN2014DN06209A (es)
MX (1) MX2014008982A (es)
RU (1) RU2014130725A (es)
WO (1) WO2013115023A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6233656B2 (ja) 2012-12-21 2017-11-22 ソニー株式会社 画像処理装置および方法
CN114205615B (zh) * 2021-12-03 2024-02-06 北京达佳互联信息技术有限公司 解码图像缓存区的管理方法和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JP3776595B2 (ja) * 1998-07-03 2006-05-17 日本放送協会 多視点画像の圧縮符号化装置および伸長復号化装置
EP1727372A1 (en) * 2005-05-27 2006-11-29 Thomson Licensing Method and apparatus for encoding and decoding video data,
CN101945277B (zh) * 2006-01-12 2013-08-14 Lg电子株式会社 处理多视图视频
KR100943912B1 (ko) * 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
KR101039204B1 (ko) * 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
CN101485208B (zh) * 2006-07-05 2016-06-22 汤姆森许可贸易公司 多视图视频的编码和解码方法及装置
CN101518086B (zh) * 2006-07-20 2013-10-30 汤姆森特许公司 在多视图视频编码中用信号通知视图可分级性的方法和装置
KR101260613B1 (ko) * 2008-12-26 2013-05-03 닛뽕빅터 가부시키가이샤 화상 부호화 장치, 화상 부호화 방법 및 그 프로그램 및 화상 복호화 장치, 화상 복호화 방법 및 그 프로그램
US20130016776A1 (en) * 2011-07-12 2013-01-17 Vidyo Inc. Scalable Video Coding Using Multiple Coding Technologies

Also Published As

Publication number Publication date
WO2013115023A1 (ja) 2013-08-08
JPWO2013115023A1 (ja) 2015-05-11
US20150071350A1 (en) 2015-03-12
IN2014DN06209A (es) 2015-10-23
CN104094606A (zh) 2014-10-08
RU2014130725A (ru) 2016-02-10
EP2811744A1 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
KR101600154B1 (ko) 비디오 코딩에서의 모션 벡터 예측
JP2020014225A (ja) 画像処理装置および方法、並びにプログラム
RU2621621C2 (ru) Способ и устройство обработки изображения
KR20190045904A (ko) 화상 처리 장치 및 화상 처리 방법
TW201701671A (zh) 運動向量之儲存及發信解析度
US9105076B2 (en) Image processing apparatus, image processing method, and program
JP2020174400A (ja) 画像復号装置および方法
TWI701944B (zh) 影像處理裝置及影像處理方法
CN104380738A (zh) 图像处理装置及方法
US20130259131A1 (en) Image processing apparatus and method
US20230247217A1 (en) Image processing apparatus and method
KR20120058521A (ko) 화상 처리 장치 및 방법
KR20130023206A (ko) 화상 처리 장치 및 방법
JPWO2012128242A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
US20140341285A1 (en) Image processing device and image processing method
CN113785573A (zh) 编码器、解码器和使用自适应环路滤波器的对应方法
TW202133613A (zh) 圖像解碼裝置及圖像編碼裝置
WO2012128241A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
US9900595B2 (en) Encoding device, encoding method, decoding device, and decoding method
JP2013150164A (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
MX2014008982A (es) Dispositivo de procesamiento de imagenes y metodos de procesamiento de imagenes.
CN112640470A (zh) 视频编码器、视频解码器及对应方法
WO2014045954A1 (ja) 画像処理装置および方法
WO2013105457A1 (ja) 画像処理装置および方法
WO2014103765A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法

Legal Events

Date Code Title Description
FA Abandonment or withdrawal