MX2014002066A - Dispositivo de codificacion, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion. - Google Patents

Dispositivo de codificacion, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion.

Info

Publication number
MX2014002066A
MX2014002066A MX2014002066A MX2014002066A MX2014002066A MX 2014002066 A MX2014002066 A MX 2014002066A MX 2014002066 A MX2014002066 A MX 2014002066A MX 2014002066 A MX2014002066 A MX 2014002066A MX 2014002066 A MX2014002066 A MX 2014002066A
Authority
MX
Mexico
Prior art keywords
image
unit
parallax
view
reference point
Prior art date
Application number
MX2014002066A
Other languages
English (en)
Other versions
MX338738B (es
Inventor
Yoshitomo Takahashi
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2014002066A publication Critical patent/MX2014002066A/es
Publication of MX338738B publication Critical patent/MX338738B/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

La presente técnica se relaciona con un dispositivo de codificación, un método de codificación, un dispositivo de descodificación, y un método de descodificación por el que la eficacia de la codificación de una imagen de paralaje pueda ser información mejorada del utilizando que relaciona un la imagen de paralaje. Una pieza de corrección utiliza la información referente a una imagen de paralaje de un punto de vista de referencia para corregir un paralaje estimado de imagen de la imagen de del punto de vista de referencia. Una pieza del cálculo utiliza la imagen estimada corregida para codificar a la imagen de paralaje del punto de vista de referencia. La imagen codificada de paralaje del punto de vista y de la referencia la información que relaciona un la imagen de paralaje del punto de vista de referencia se transmite. La presente técnica puede aplicarse a un dispositivo de codificación de la imagen de paralaje, por ejemplo.

Description

DISPOSITIVO DE CODIFICACIÓN, MÉTODO DE CODIFICACIÓN, DISPOSITIVO DE DESCODIFICACION Y MÉTODO DE DESCODIFICACION CAMPO TÉCNICO La presente técnica se refiere a un dispositivo de codificación, un método de codificación, un dispositivo de descodificación, y un método de descodificación, y más particularmente, se refiere a un dispositivo de codificación, un método de codificación, un dispositivo de descodificación y un método de descodificación capaces de mejorar la eficiencia de codificación de una imagen de paralaje que utiliza información sobre la imagen de paralaje .
TÉCNICA ANTECEDENTE En años recientes, las imágenes en 3D atraen la atención, y un método para codificar imágenes de paralaje utilizada para generación de una imagen 3D de varios puntos de vista se han sugerido (por ejemplo, véase Documento que No es Patente 1. Cabe señalar que la imagen de paralaje es una imagen que incluye cada pixel de una imagen de color de un punto de vista que corresponde con la imagen de paralaje y un valor de paralaje que representa la distancia, en la dirección horizontal, de la posición en la pantalla del pixel de la imagen de color del punto de vista que sirve como punto base que corresponde al pixel.
Un método de codificación denominado HEVC (Codificación de Video de Alta Eficiencia) ahora se estandariza para el propósito de mejorar adicionalmente la eficiencia de codificación en comparación con el método de AVC (Codificación de Video Avanzada) , y el Documento que No es Patente 2 se emitió como un proyecto a partir de hoy, agosto de 2011.
LISTA DE CITAS DOCUMENTO QUE NO ES PATENTE Documento que No es Patente 1 "Convocatoria de Propuestas sobre Tecnología de Codificación de Vídeo 3D", ISO/IEC JTC1/SC29/WG11, MPEG2011/N12036, Ginebra, Suiza, marzo de 2011 Documento que No es Patente 2 Thomas iegand, Woo-jin Han, Benjamín Bross, Jens-Rainer Ohm, Gary J. Sullivian, "WD3 : Proyecto de Trabajo 3 de Codificación de Vídeo de Alta Eficiencia", JCTVC- E603_d5 (versión 5), mayo 20 de 2011 COMPENDIO DE LA INVENCIÓN PROBLEMAS QUE SERÁN RESUELTOS POR LA INVENCIÓN Sin embargo, ningún método de codificación para mejorar la eficiencia de codificación de una imagen de paralaje utilizando información sobre la imagen de paralaje se ha creado aún.
La presente técnica se hace en vista de tales circunstancias, y es para permitir la mejora de eficiencia de codificación de la imagen de paralaje utilizando información sobre la imagen de paralaje.
SOLUCIONES A LOS PROBLEMAS Un dispositivo de codificación de un primer aspecto de la presente técnica es un dispositivo de codificación que incluye una unidad de corrección configurada para corregir una imagen de predicción de una imagen de paralaje de un punto de vista de referencia utilizando información sobre la imagen de paralaje del punto de vista de referencia, una unidad de codificación configurada para codificar la imagen de paralaje del punto de vista de referencia utilizando la imagen de predicción corregida por la unidad de corrección; y una unidad de transmisión configurada para transmitir la imagen de paralaje del punto de vista de referencia codificado por la unidad de codificación y la información sobre la imagen de paralaje del punto de vista de referencia .
Un método de codificación de un primer aspecto de la presente técnica corresponde al dispositivo de codificación del primer aspecto de la presente técnica.
En el primer aspecto de la presente técnica, la imagen de predicción de la imagen de paralaje del punto de vista de referencia se corrige utilizando la información sobre la imagen de paralaje del punto de vista de referencia, y la imagen de paralaje del punto de vista de referencia se codifica utilizando la imagen de predicción correcta, y la imagen de paralaje codificada del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia se transmite.
Un dispositivo de descodificación del segundo aspecto de la presente técnica es un dispositivo de descodificación que incluye una unidad de recepción configurada para recibir una imagen de paralaje de un punto de vista de referencia codificado utilizando una imagen de predicción de una imagen de paralaje del punto de vista de referencia corregido utilizando la información sobre la imagen de paralaje del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia, una unidad de corrección configurada para corregir una imagen de predicción de la imagen de paralaje del punto de vista de referencia utilizando la información sobre la imagen de paralaje del punto de vista de referencia por la unidad de recepción, y una unidad de descodificación configurada para descodificar la imagen de paralaje codificada del punto de vista de referencia recibida por la unidad de recepción utilizando la imagen de predicción corregida por la unidad de corrección.
Un método de descodificación de un segundo aspecto de la presente técnica corresponde al dispositivo de descodificación del segundo aspecto de la presente técnica.
En el segundo aspecto de la presente técnica, la imagen de paralaje del punto de vista de referencia codificado utilizando la imagen de predicción de la imagen de paralaje del punto de vista de referencia corregido utilizando la información sobre la imagen de paralaje del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia se reciben, la imagen de predicción de la imagen de paralaje del punto de vista de referencia se corrige utilizando la información recibida sobre la imagen de paralaje del punto de vista de referencia, y la imagen de paralaje codificada del punto de vista de referencia se descodifica utilizando la imagen de predicción de corrección.
Cabe señalar que el dispositivo de codificación del primer aspecto y el dispositivo de descodificación del segundo aspecto pueden lograrse al provocar que una computadora ejecute un programa.
Para lograr el dispositivo de codificación del primer aspecto y el dispositivo de descodificación del segundo aspecto, puede proporcionarse un programa ejecutado por la computadora al transmitir mediante un medio de transmisión o grabar el programa a un medio de grabación.
EFECTOS DE LA INVENCIÓN De acuerdo con el primer aspecto de la presente técnica, la eficiencia de codificación de la imagen de paralaje puede mejorarse al utilizar información de la imagen de paralaje.
De acuerdo con el segundo aspecto de la presente técnica, los datos codificados de la imagen de paralaje de los cuales se ha mejorado la eficiencia de codificación al realizar codificación utilizando la información sobre la imagen de paralaje pueden descodificarse.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es un diagrama de bloque que ilustra un ejemplo de una configuración de una primera modalidad de un dispositivo de codificación al cual se aplica la presente técnica .
La Figura 2 es una gráfica que explica un valor máximo de paralaje y un valor mínimo de paralaje de la información de generación del punto de vista.
La Figura 3 es un diagrama que explica el parámetro de precisión de paralaje de la información de generación del punto de vista.
La Figura 4 es un diagrama que explica una distancia entre cámaras de la información de generación del punto de vista.
La Figura 5 es un diagrama de bloque que ilustra un ejemplo de una configuración de la unidad de codificación de imágenes de varios puntos de vista de la Figura 1.
La Figura 6 es un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de codificación.
La Figura 7 es un diagrama que ilustra un ejemplo de una configuración de una corriente de bit codificada.
La Figura 8 es un diagrama que ilustra un ejemplo de la sintaxis de PPS de la Figura 7.
La Figura 9 es un diagrama que ilustra un ejemplo de la sintaxis de un encabezado de sección.
La Figura 10 es un diagrama que ilustra un ejemplo de la sintaxis de un encabezado de sección.
La Figura 11 es un diagrama de flujo que explica el procesamiento de codificación del dispositivo de codificación de la Figura 1.
La Figura 12 es un diagrama de flujo que explica los detalles del procesamiento de codificación de varios puntos de vista de la Figura 11.
La Figura 13 es un diagrama de flujo que explica los detalles del procesamiento de codificación de imágenes de paralaje de la Figura 12.
La Figura 14 es un diagrama de flujo que explica los detalles del procesamiento de codificación de imágenes de paralaje de la Figura 12.
La Figura 15 es un diagrama de bloque que ilustra un ejemplo de una configuración de la primera modalidad de un dispositivo de descodificación al cual se aplica la presente técnica.
La Figura 16 es un diagrama de bloque que ilustra un ejemplo de una configuración de la unidad de descodificación de imágenes de varios puntos de vista de la Figura 15.
La Figura 17 es un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de descodificació .
La Figura 18 es un diagrama de flujo que explica el procesamiento de descodificación del dispositivo 150 de descodificación de la Figura 15.
La Figura 19 es un diagrama de flujo que explica los detalles del procesamiento de descodificación de varios puntos de vista de la Figura 18.
La Figura 20 es un diagrama de flujo que explica los detalles del procesamiento de descodificación de imágenes de paralaje de la Figura 16.
La Figura 21 es una tabla que explica el método de transmisión de información utilizado para la corrección de una imagen de predicción.
La Figura 22 es un diagrama que ilustra un ejemplo de una configuración de una corriente de bit codificada de acuerdo con un segundo método de transmisión.
La Figura 23 es un diagrama que ilustra un ejemplo de una configuración de una corriente de bit codificada de acuerdo con un tercer método de transmisión.
La Figura 24 es un diagrama de bloque que ilustra un ejemplo de una configuración de una modalidad de una computadora .
La Figura 25 es un diagrama que ilustra un ejemplo de una configuración esquemática de un dispositivo de televisión al cual se aplica la presente técnica.
La Figura 26 es un diagrama que ilustra un ejemplo de una configuración esquemática de un teléfono portátil al cual se aplica la presente técnica.
La Figura 27 es un diagrama que ilustra un ejemplo de una configuración esquemática de un dispositivo de grabación/reproducción al cual se aplica la presente técnica .
La Figura 28 es un diagrama que ilustra un ejemplo de una configuración esquemática de un dispositivo de captura de imagen al cual se aplica la presente técnica.
MODOS PARA LLEVAR A CABO LA INVENCIÓN <Primera modalidad> Ejemplo de configuración de primera modalidad del dispositivo de codificación La Figura 1 es un diagrama de bloque que ilustra un ejemplo de una configuración de una primera modalidad de un dispositivo de codificación al cual se aplica la presente técnica .
Un dispositivo 50 de codificación de la Figura 1 incluye una unidad 51 de captura de imágenes de imagen de color de varios puntos de vistas, una unidad 52 de corrección de imagen de color de varios puntos de vista, una unidad 53 de corrección de imagen de paralaje de varios puntos de vista, una unidad 54 de generación de información de generación de punto de vista, y una unidad 55 de codificación de imágenes de varios puntos de vista.
El dispositivo 50 de codificación codifica una imagen de paralaje de un punto de vista predeterminado utilizando información sobre la imagen de paralaje.
Más específicamente, la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista del dispositivo 50 de codificación captura las imágenes de color de varios puntos de vista, y las proporciona como imágenes de color de varios puntos de vista a la unidad 52 de corrección de imagen de color de varios puntos de vista. La unidad 51 de captura de imágenes de imagen de color de varios puntos de vista genera el parámetro externo, el valor máximo de paralaje, y el valor mínimo de paralaje (en los cuales los detalles se describirán posteriormente) . La unidad 51 de captura de imágenes de imagen de color de varios puntos de vista proporciona el parámetro externo, el valor máximo de paralaje, y el valor mínimo de paralaje a la unidad 54 de generación de información de generación de punto de vista, y proporciona el valor máximo de paralaje y el valor mínimo de paralaje a la unidad 53 de generación de imagen de paralaje de varios puntos de vista.
Cabe señalar que el parámetro externo es un parámetro para definir la posición de la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista en la dirección horizontal. El valor máximo de paralaje y el valor mínimo de paralaje son el valor máximo y el valor mínimo, respectivamente, de los valores de paralaje en una coordenada mundial que puede producirse en la imagen de paralaje de varios puntos de vista.
La unidad 52 de corrección de imagen de color de varios puntos de vista realiza corrección de color, corrección de brillo, corrección de distorsión, y similares en las imágenes de color de varios puntos de vista proporcionadas desde la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista. Por consiguiente, la distancia focal de la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista en la imagen de color de varios puntos de vista corregida en la dirección horizontal (dirección X) es la misma en todos los puntos de vista. La unidad 52 de corrección de imagen de color de varios puntos de vista proporciona la imagen de color de varios puntos de vista corregida a la unidad 53 de generación de imagen de paralaje de varios puntos de vista y la unidad 55 de codificación de imágenes de varios puntos de vista como imágenes de color corregidas de varios puntos de vista .
La unidad 53 de generación de imagen de paralaje de varios puntos de vista genera una imagen de paralaje de varios puntos de vista a partir de la imagen de color de corrección de varios puntos de vista proporcionada por la unidad 52 de corrección de imagen de color de varios puntos de vista, basándose en el valor máximo de paralaje y el valor mínimo de paralaje proporcionado a partir de la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista. Más específicamente, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista deriva el valor de paralaje de cada pixel a partir de la imagen de color de corrección de varios puntos de vista para cada punto de vista de varios puntos de vista (punto de vista de referencia) , y normaliza el valor de paralaje basados en el valor máximo de paralaje y el valor mínimo de paralaje. Después, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista genera una imagen de paralaje en la cual el valor de paralaje de cada pixel normalizado es el valor de pixel de cada pixel para cada punto de vista de varios puntos de vista.
La unidad 53 de generación de imágenes de paralaje de varios puntos de vista proporciona la imagen de paralaje de varios puntos de vista generada, como la imagen de paralaje de varios puntos de vista, a la unidad 55 de codificación de imagen de varios puntos de vista. Además, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista genera un parámetro de precisión de paralaje que representa una precisión del valor de pixel de la imagen de paralaje de varios puntos de vista, y la proporciona a la unidad 54 de generación de información de generación de punto de vista.
La unidad 54 de generación de información de generación de punto de vista genera la información de generación de punta de vista (información de generación de punto de vista) utilizada para generar la imagen de color de un punto de vista distinto a diversos puntos de vista utilizando la imagen de color de corrección de varios puntos de vista y la imagen de paralaje. Más especificamente, la unidad 54 de generación de información de generación de punto de vista obtiene la distancia entre cámaras basándose en los parámetros externos proporcionados por la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista. La distancia entre cámaras es una distancia entre la posición de una unidad 51 de captura de imágenes de imagen de color de varios puntos de vista en la dirección horizontal cuando la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista captura una imagen de color en cada punto de vista de la imagen de paralaje de varios puntos de vista y la posición de la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista en la dirección horizontal cuando la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista captura una imagen de color que tiene un paralaje que corresponde a la imagen de paralaje con respecto a la imagen de color de esta manera capturada.
La unidad 54 de generación de información de generación de punto de vista adopta, como información de generación de punto de vista, el valor máximo de paralaje y el valor mínimo de paralaje proporcionado por la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista, la distancia entre cámaras, y el parámetro de precisión de paralaje proporcionado por la unidad 53 de generación de imagen de varios puntos de vista. La unidad 54 de generación de información de generación de punto de vista proporciona la información de generación de punto de vista generada a la unidad 55 de codificación de imágenes de varios puntos de vista.
La unidad 55 de codificación de imágenes de varios puntos de vista codifica la imagen de color de corrección de varios puntos de vista, proporcionada desde la unidad 52 de corrección de imagen de color de varios puntos de vista, de acuerdo con un método de HEVC. La unidad 55 de codificación de imágenes de varios puntos de vista codifican la imagen de paralaje de varios puntos de vista proporcionada por la unidad 53 de generación de imágenes de paralaje de varios puntos de vista de acuerdo con un método basándose en el método de HEVC utilizando, como información sobre paralaje, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de entre la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de generación de punto de vista .
La unidad 55 de codificación de imágenes de varios puntos de vista realiza la codificación diferencial del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras en la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de generación de punto de vista, y provoca que la información se incluya en la información (parámetro de codificación) sobre la codificación de la imagen de paralaje de varios puntos de vista. Después, la unidad 55 de codificación de imágenes de varios puntos de vista transmite, como corriente de bit codificada, una corriente de bit que incluye las imágenes de color corregidas de varios puntos de vista y la imagen de paralaje de varios puntos de vista que se codifican, el valor máximo de paralaje y el valor mínimo de paralaje y la distancia entre cámaras que se codifican de manera diferencial con el parámetro de precisión de paralaje proporcionado por la unidad 54 de generación de información de generación de punto de vista, y similar.
Como se describe en lo anterior, la unidad 55 de codificación de imágenes de varios puntos de vista codifica de manera diferencial y transmite el valor máximo de paralaje, el valor mínimo de paralaje y la distancia entre cámaras, y por lo tanto, puede reducir la cantidad de códigos de la información de generación de punto de vista. Para proporcionar una imagen 3D cómoda, es probable que no cambie en gran medida el valor máximo de paralaje, el valor mínimo de paralaje y la distancia entre cámaras entre las imágenes, y por lo tanto, la codificación diferencial es efectiva para reducir la cantidad de códigos.
En dispositivo 50 de codificación, la imagen de paralaje de varios puntos de vista se genera a partir de la imagen de color corregida de varios puntos de vista, pero puede generarse por sensores que detecten el valor de paralaje durante la captura de imágenes de imagen de color de varios puntos de vista.
Explicación sobre la información de generación de punto de vista La Figura 2 es una gráfica que explica un valor máximo de paralaje y un valor mínimo de paralaje de la información de generación del punto de vista.
En la Figura 2, el eje horizontal denota el valor de paralaje no normalizado, y el eje vertical denota el valor de pixel de la imagen de paralaje.
Como se ilustra en la Figura 2, la unidad 53 de generación de imagen de paralaje de varios puntos de vista normaliza el valor de paralaje de cada pixel, por ejemplo, un valor de 0 a 255 utilizando el valor mínimo de paralaje Dmin y el valor máximo de paralaje Dmax. Después, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista genera una imagen de paralaje en la cual el valor de paralaje de cada uno de los pixeles normalizados que tiene un valor de 0 a 255, es el valor de pixel.
De manera más específica, el valor de pixel I de cada pixel de la imagen de paralaje es tal que el valor de paralaje no normalizado d, el valor mínimo de paralaje Dmin, y el valor máximo de paralaje Dmax del pixel se expresa por la siguiente ecuación (1) .
Por lo tanto, de acuerdo con la siguiente ecuación (2), el dispositivo de descodificación descrito más adelante necesita restablecer el valor de paralaje no normalizado d a partir del valor de pixel I de cada pixel de la imagen de paralaje utilizando el valor mínimo de paralaje Dmin y el valor máximo de paralaje Dmax. d= 2½-(Dmax-Dmin)+Dmin · · · (2) Por consiguiente, el valor mínimo de paralaje Dmin y el valor máximo de paralaje Dmax se transmiten al dispositivo de descodificación.
La Figura 3 es un diagrama que explica el parámetro de precisión de paralaje de la información de generación del punto de vista.
Como se muestra en la fila superior de la Figura 3, en un caso donde el valor de paralaje no normalizado por el valor de paralaje normalizado 1 es 0.5, el parámetro de precisión de paralaje representa la precisión de 0.5 del valor de paralaje. Como se muestra en la fila inferior de la Figura 3, cuando el valor de paralaje no normalizado por el valor de paralaje normalizado 1 es 1, el parámetro de precisión de paralaje representa 1.0 el cual es la precisión del valor de paralaje.
En el ejemplo de la Figura 3, el valor de paralaje no normalizado en el punto de vista #1 como el primer punto de vista es 1.0, y el valor de paralaje no normalizado en el punto de vista #2 como el segundo punto de vista es 0.5. Por lo tanto, el valor de paralaje normalizado del punto de vista #1 es 1.0 aunque la precisión del valor de paralaje es cualquiera de 0.5 ó 1.0. Por otro lado, el valor de paralaje del punto de vista #2 es 0.5 donde la precisión del valor de paralaje es 0.5, es cero cuando la precisión del valor de paralaje es 1.0.
La Figura 4 es un diagrama que explica una distancia entre cámaras de la información de generación del punto de vista.
Como se ilustra en la Figura 4, la distancia entre cámaras de la imagen de paralaje del punto de vista #1 con respecto al punto de vista #2 es una distancia entre la posición representada por el parámetro externo del punto de vista #1 y la posición representada por el parámetro externo del punto de vista #2.
Ejemplo de configuración de unidad de codificación de imágenes de varios puntos de vista La Figura 5 es un diagrama de bloque que ilustra un ejemplo de una configuración de la unidad 55 de codificación de imágenes de varios puntos de vista de la Figura 1.
La unidad 55 de codificación de imágenes de varios puntos de vista de la Figura 5 incluye una unidad 61 de codificación de sección, una unidad 62 de codificación de encabezado de sección, una unidad 63 de codificación de PPS, y una unidad 64 de codificación de SPS.
La unidad 61 de codificación de sección de la unidad 55 de codificación de imágenes de varios puntos de vista codifica la imagen de color corregida de varios puntos de vista proporcionada por la unidad 52 de corrección de imagen de color de varios puntos de vista de acuerdo con el método de HEVC en unidades de sección. La unidad 61 de codificación de sección codifica la imagen de paralaje de varios puntos de vista proporcionada por la unidad 53 de generación de imágenes de paralaje de varios puntos de vista de acuerdo con un método basándose en el método de HEVC en unidades de secciones utilizando, como información sobre paralaje, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de entre la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de generación de punto de vista de la Figura 1. La unidad 61 de codificación de sección proporciona la unidad 62 de codificación de encabezado de sección con datos codificados y similares en unidades de sección obtenidas como resultado de la codificación.
La unidad 62 de codificación de encabezado de sección determina que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras en la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de generación de punto de vista son el valor máximo de paralaje, el valor mínimo de paralaje y la distancia entre cámaras de la sección del objetivo de procesamiento actual, y los contiene .
La unidad 62 de codificación de encabezado de sección también determina el valor máximo de paralaje, si el valor mínimo de paralaje, y la distancia entre cámaras de la sección del objetivo de procesamiento actuales son o no los mismos por el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, respectivamente, de la sección previa en el orden de codificación con respecto a la sección actual, y esta determinación se hace en la unidad a la cual se proporciona el mismo PPS (en adelante denominado como la misma unidad de PPS) .
Después, cuando todo el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección que constituye la misma unidad de PPS se determina que son los mismos que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección previa en el orden de codificación, la unidad 62 de codificación de encabezado de sección agrega información sobre la codificación distinta al valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de esa sección como el encabezado de sección de los datos codificados de cada sección que constituye la misma unidad de PPS, y proporciona la información a la unidad 63 de codificación de PPS. La unidad 62 de codificación de encabezado de sección proporciona la unidad 63 de codificación de PPS con un indicador de transmisión que indica la ausencia de transmisión de los resultados codificados por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras.
Por otro lado, cuando todo el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de al menos una sección que constituye la misma unidad de PPS se determina que no son los mismos que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección previa en el orden de codificación, la unidad 62 de codificación de encabezado de sección agrega información sobre la codificación que incluye el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de esa sección como el encabezado de sección para los datos codificados de la sección tipo intra, y proporciona la información a la unidad 63 de codificación de PPS.
La unidad 62 de codificación de encabezado de sección realiza codificación de diferencia en el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección tipo inter. Más específicamente, la unidad 62 de codificación de encabezado de sección resta el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección previa en el orden de codificación con respecto a la sección actual del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección tipo inter, respectivamente, y obtiene un resultado codificado por diferencia. Después, la unidad 62 de codificación de encabezado de sección agrega información sobre la codificación que incluye el resultado codificado por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras como el encabezado de sección para los datos codificados de la sección tipo inter, y proporciona la información a la unidad 63 de codificación de PPS .
En este caso, la unidad 62 de codificación de encabezado de sección proporciona la unidad 63 de codificación de PPS con un indicador de transmisión que indica la presencia de transmisión de los resultados codificados por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras.
La unidad 63 de codificación de PPS genera el PPS que incluye el indicador de transmisión proporcionado desde la unidad 62 de codificación de encabezado de sección y el parámetro de precisión de paralaje en la información de generación de punto de vista proporcionada desde la unidad 54 de generación de información de generación del punto de vista de la Figura 1. La unidad 63 de codificación de PPS agrega, en la misma unidad de PPS, el PPS a los datos codificados en unidades de secciones a las cuales el encabezado de sección proporcionado desde la unidad 62 de codificación de encabezado de sección se agrega, y lo proporciona a la unidad 64 de codificación de SPS.
La unidad 64 de codificación de SPS genera SPS. Después, la unidad 64 de codificación de SPS agrega, en unidades de secuencia, el SPS a los datos codificados a los cuales el PPS proporcionado desde la unidad 63 de codificación de PPS se agrega. La unidad 64 de codificación de SPS funciona como una unidad de transmisión, y transmite, como una corriente de bit codificada, la corriente de bit obtenida como resultado.
Ejemplo de configuración de la unidad de codificación de sección La Figura 6 es un diagrama de bloque que ilustra un ejemplo de una configuración de la unidad de codificación para codificar la imagen de paralaje de cualquier punto de vista determinado en la unidad 61 de codificación de sección de la Figura 5. Más específicamente, la unidad de codificación para codificar la imagen de paralaje de varios puntos de vista en la unidad 61 de codificación de sección se constituye por tantas unidades 120 de codificación de la Figura 6 como el número de puntos de vista.
La unidad 120 de codificación de la Figura 6 incluye una unidad 121 de conversión de A/D, una memoria intermedia 122 de clasificación de pantalla, una unidad 123 de operación aritmética, una unidad 124 de transformación ortogonal, una unidad 125 de cuantificación, una unidad 126 de codificación sin pérdidas, una memoria intermedia 127 de acumulación, una unidad 128 de cuantificación inversa, una unidad 129 de transformación ortogonal inversa, una unidad 130 de adición, y filtro 131 de desbloqueo, una memoria 132 de tramas, una unidad 133 de intra-predicción, una unidad 134 de predicción/compensación de movimiento, una unidad 135 de corrección, una unidad 136 de selección, y una unidad 137 de control de proporción.
La unidad 121 de conversión de A/D de la unidad 120 de codificación realiza conversión de A/D sobre imágenes multiplexadas en unidades de tramas de puntos de vista predeterminados proporcionados por la unidad 53 de generación de imágenes de paralaje de varios puntos de vista de la Figura 1, y produce las imágenes en la memoria intermedia 122 de clasificación de pantalla que se almacenará, de manera que las imágenes se almacenen en la misma. La memoria intermedia 122 de clasificación de pantalla clasifica las imágenes de paralaje en unidades de trama en el orden de visualización almacenada en el orden para codificación de acuerdo con una estructura de GOP (Grupo de Imagen) , y produce las imágenes en la unidad 123 de operación aritmética, la unidad 133 de intra-predicción, y la unidad 134 de predicción/compensación de movimiento.
La unidad 123 de operación aritmética funciona como una unidad de codificación, y calcula las diferencias entre la imagen de predicción proporcionada por la unidad 136 de selección y la imagen de paralaje del objetivo de codificación que se produce a partir de la memoria intermedia 122 de clasificación de pantalla, de este modo codificando la imagen de paralaje del objetivo de codificación. Más específicamente, la unidad 123 de operación aritmética sustrae la imagen de predicción proporcionada por la unidad 136 de selección de la imagen de paralaje del objetivo de codificación que se produce a partir de la memoria intermedia 122 de clasificación de pantalla. La unidad 123 de operación aritmética produce la imagen obtenida como resultado de la sustracción, como la información residual, en la unidad 124 de transformación ortogonal. Cuando la unidad 136 de selección no proporciona la imagen de predicción, la unidad 123 de operación aritmética produce la imagen de paralaje, la cual lee de la memoria intermedia 122 de clasificación de pantalla, en la unidad 124 de transformación ortogonal como la información residual sin procesamiento.
La unidad 124 de transformación ortogonal aplica la transformación ortogonal tal como la transformada de coseno discreta y la transformada de Karhunen-Loeve en la información residual proporcionada desde la unidad 123 de operación aritmética, y proporciona los coeficientes de tal manera obtenidos a la unidad 125 de cuantificación .
La unidad 125 de cuantificación cuantifica los coeficientes suministrados desde la unidad 124 de transformación ortogonal. Los coeficientes cuantificados se ingresan en la unidad 126 de codificación sin pérdidas.
La unidad 126 de codificación sin pérdidas realiza codificación sin pérdidas tal como codificación de longitud variable (por ejemplo, CAVLC (Codificación de Longitud Variable de Contexto Adaptable) ) y codificación aritmética (por ejemplo, CABAC (Codificación Aritmética Binaria de Contexto Adaptable) ) sobre los coeficientes cuantificados por la unidad 125 de cuantificación . La unidad 126 de codificación sin pérdidas proporciona los datos codificados obtenidos como resultado de la codificación sin pérdidas en la memoria intermedia 127 de acumulación, y acumula los datos en la misma.
La memoria intermedia 127 de acumulación almacena temporalmente los datos codificados proporcionados por la unidad 126 de codificación sin pérdidas, y proporciona los datos a la unidad 62 de codificación de encabezado de sección en unidades de secciones.
Los coeficientes cuantificados que se producen a partir de la unidad 125 de cuantificación también se ingresan en la unidad 128 de cuantificación inversa, y después de que se cuantifican inversamente los coeficientes, los coeficientes se proporcionan a la unidad 129 de transformación ortogonal inversa.
La unidad 129 de transformación ortogonal inversa aplica la transformación ortogonal inversa tal como la transformada de coseno discreto inversa y la transformada de Karhunen-Loeve inversa en los coeficientes proporcionados por la unidad 128 de cuantificación inversa, y proporciona la información residual obtenida como resultado a la unidad 130 de adición.
La unidad 130 de adición agrega la información residual que sirve como la imagen de paralaje del objetivo de descodificación proporcionado por la unidad 129 de transformación ortogonal inversa y la imagen de predicción proporcionada por la unidad 136 de selección, y obtiene la imagen de paralaje descodificada localmente. Cabe señalar que cuando la unidad 136 de selección no proporciona la imagen de predicción, la unidad 130 de adición adopta la información residual proporcionada por la unidad 129 de transformación ortogonal inversa como la imagen de paralaje localmente descodificada. La unidad 130 de adición proporciona la imagen de paralaje localmente descodificada al filtro 131 de desbloqueo, y proporciona la imagen como la imagen de referencia a la unidad 133 de intra-predicción .
El filtro 131 de desbloqueo filtra la imagen de paralaje localmente descodificada, proporcionada por la unidad 130 de adición, de esta manera eliminando la distorsión de bloque. El filtro 131 de desbloqueo proporciona la imagen de paralaje de esta manera obtenida a la memoria 132 de tramas, de modo que la imagen se acumule en la misma. La imagen de paralaje acumulada en la memoria 132 de tramas se produce como la imagen de referencia en la unidad 134 de predicción/compensación de movimiento.
La unidad 133 de intra-predicción realiza la intra-predicción en todos los modos de intra-predicción que son los candidatos utilizando la imagen de referencia proporcionada por la unidad 130 de adición, de esta manera generando imágenes de predicción.
La unidad 133 de intra-predicción calcula el valor de función de costo para todos los modos de intra-producción que son los candidatos (de los cuales los detalles se describirán posteriormente en detalle) . Después, la unidad 133 de intra-predicción determina, como el modo óptimo de intra-predicción, el modo de intra-predicción en el cual el valor de función de costo es el mínimo. La unidad 133 de intra-predicción proporciona la imagen de predicción generada en el modo óptimo de intra-predicción y el valor de función de costo correspondiente a la unidad 136 de selección. Cuando la unidad 133 de intra-predicción recibe la notificación de selección de la imagen de predicción generada en el modo óptimo de intra-predicción de la unidad 136 de selección, la unidad 133 de intra-predicción proporciona la información de intra-predicción que indica el modo óptimo de intra-predicción y similares a la unidad 62 de codificación de encabezado de sección de la Figura 5. Esta información de intra-predicción se incluye en el encabezado de sección como la información sobre codificación .
El valor de función de costo también se denomina como costo de RD (Distorsión de Proporción) , y, por ejemplo, se calcula basándose en un método de cualquiera de modo de Alta Complejidad y el modo de Baja Complejidad definidos en un JM (Modelo Conjunto) el cual es el software de referencia de acuerdo con el método de H.264/AVC.
Más específicamente, cuando se emplea el modo de Alta Complejidad como el método para calcular el valor de función de costo, se realiza temporalmente la codificación sin pérdidas en todos los modos de predicción que son los candidatos, y el valor de función de costo representado por la ecuación (3) subsiguiente se calcula en cada modo de predicción .
Cost (Mode) =D + ?· R ...(3) D denota una diferencia (distorsión) de la imagen original y la imagen descodificada. R denota una cantidad de símbolos generados que incluyen coeficientes de la transformación ortogonal. ? denota un multiplicador de Lagrange dado como función de un parámetro de cuantificación QP.
Por otra parte, más específicamente, cuando se emplea el modo de Baja Complejidad como el método para calcular el valor de función de costo, la imagen descodificada se genera para todos los modos de predicción que son los candidatos, y se calcula el bit de encabezado tal como la información que indica el modo de predicción, y la función de costo representada por la siguiente ecuación (4) se calcula para cada modo de predicción.
Cost (Mode) =D + QPtoQuant (QP) «Header_Bit ... (4) D denota una diferencia (distorsión) de la imagen original y la imagen descodificada. Header_Bit denota un bit de encabezado en un modo de predicción. QPtoQuant denota una función dada como función de un parámetro de cuantificación QP.
En el modo de Baja Complejidad, las imágenes descodificadas pueden generarse en todos los modos de predicción, y no es necesario realizar la codificación sin pérdidas, y por lo tanto, la cantidad de cálculo es más pequeña. En este caso, suponer que el modo de Alta Complejidad se emplea como el método para calcular el valor de función de costo.
La unidad 134 de predicción/compensación de movimiento realiza el procesamiento de predicción de movimiento en todos los modos de inter-predicción que son los candidatos, basándose en la imagen de paralaje proporcionada por la memoria intermedia 122 de clasificación de pantalla y la imagen de referencia proporcionada por la memoria 132 de tramas, generando de esta manera un vector de movimiento. Más específicamente, la unidad 134 de predicción/compensación de movimiento compara la imagen de referencia con la imagen de paralaje proporcionada por la memoria intermedia 122 de clasificación de pantalla en cada modo de inter-predicción, y genera el vector de movimiento.
Cabe señalar que el modo de inter-predicción es la información que representa el tamaño de los bloques que son objetivos de inter-predicción, la dirección de predicción, y el índice de referencia. La dirección de predicción incluye predicción en dirección hacia adelante utilizando una imagen de referencia de la cual el tiempo de visualización es antes de la imagen de paralaje la cual es el objetivo de inter-predicción (Predicción LO), predicción en dirección hacia atrás utilizando una imagen de referencia de la cual el tiempo de visualización es después de la imagen de paralaje la cual es el objetivo de inter-predicción (predicción Ll), y predicción en ambas direcciones utilizando una imagen de referencia de la cual el tiempo de visualización es antes de la imagen de paralaje la cual es el objetivo de inter-predicción y la imagen de referencia de la cual el tiempo de visualización es después de la imagen de paralaje la cual es el objetivo de inter-predicción (predicción Bi) . El índice de referencia es un número para identificar la imagen de referencia, y, por ejemplo, un índice de referencia de una imagen cerca de la imagen de paralaje la cual es el objetivo de inter-predicción tiene un número más pequeño.
La unidad 134 de predicción/compensación de movimiento funciona como una unidad de generación de imágenes de predicción, y basándose en el vector de movimiento generado en los modos de inter-predicción, la unidad 134 de predicción/compensación de movimiento lee la imagen de referencia de la memoria 132 de tramas, de esta manera realizando el procesamiento de compensación de movimiento. La unidad 134 de predicción/compensación de movimiento proporciona la imagen de predicción generada como resultado a la unidad 135 de corrección.
La unidad 135 de corrección genera (establece) los coeficientes de corrección utilizados cuando la imagen de predicción se corrige, utilizando, como la información sobre la imagen de paralaje, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras en la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de punto de vista de la Figura 1. La unidad 135 de corrección utiliza los coeficientes para corregir la imagen de predicción en cada modo de inter-predicción proporcionado por la unidad 134 de predicción/compensación de movimiento.
En este caso, la posición Zc en la dirección de profundidad del objeto de la imagen de paralaje del objetivo de codificación y la posición Zp en la dirección de profundidad del objeto de la imagen de predicción se expresa por la siguiente ecuación (5) .
Ecuación 3 (5) En la ecuación (5), Lc, Lp son la distancia entre cámaras de la imagen de paralaje del objetivo de codificación y la distancia entre cámaras de la imagen de predicción, respectivamente. Cabe señalar que f es la distancia focal común para la imagen de predicción y la imagen de paralaje del objetivo de codificación. Cabe señalar que dc, dp son el valor absoluto del valor de paralaje no normalizado de la imagen de paralaje del objetivo de codificación y el valor absoluto del valor de paralaje no normalizado de la imagen de predicción, respectivamente.
El valor de paralaje Ic de la imagen de paralaje del objetivo de codificación y el valor de paralaje Ip de la imagen de predicción se expresan por la siguiente ecuación (6) utilizando los valores absolutos, dc, dp de los valores de paralaje no normalizados.
Ecuación 4 En la ecuación (6), Dcmin, Dpmin son el valor mínimo de paralaje de la imagen de paralaje del objetivo de codificación y el valor mínimo de paralaje de la imagen de predicción, respectivamente. Dcmax/Dpmax son el valor máximo de paralaje de la imagen de paralaje del objetivo de codificación y el valor máximo de paralaje de la imagen de predicción, respectivamente.
Por lo tanto, incluso cuando la posición Zc en la dirección de profundidad del objeto de la imagen de paralaje del objetivo de codificación y la posición Zp en la dirección de profundidad del objeto de la imagen de predicción son los mismos, el valor de paralaje Ic y el valor de paralaje Ip son diferentes cuando al menos una de las distancias entre cámaras Lc y Lp, el valor mínimo de paralaje Dcmin y Dpmin, y el valor máximo de paralaje Dcmax, Dpmax es diferente.
Por consiguiente, cuando la posición Zc y la posición Zp son iguales, la unidad 135 de corrección genera coeficientes de corrección para corregir la imagen de predicción de manera que el valor de paralaje Ic y el valor de paralaje Ip se vuelvan los mismos.
Más específicamente, cuando la posición Zc y la posición Zp son los mismos, se establece la siguiente ecuación (7) basándose en la ecuación (5) antes descrita.
Ecuación 5 Cuando se modifica la ecuación (7), se obtiene siguiente ecuación (8).
Ecuación 6 Después, cuando los valores absolutos, ds, dp de los valores de paralaje no normalizados de la ecuación (8) se substituyen por el valor de paralaje Ic y el valor de paralaje Ip utilizando la ecuación (6) antes descrita, entonces, se obtiene la siguiente ecuación (9).
Ecuación 7 255 +? ~t;{— 255— +D «i" * · · ( ? ) Por consiguiente, el valor de paralaje Ic se expresa por la siguiente ecuación (10) utilizando el valor de paralaje Ip.
Ecuación 8 qlp+b · · · (10) Por lo tanto, la unidad 135 de corrección genera a y b de la ecuación (10) como los coeficientes de corrección. Después, la unidad 135 de corrección utiliza los coeficientes de corrección a, b y el valor de paralaje Ip para obtener el valor de paralaje Ic de la ecuación (10) como el valor de paralaje de la imagen de predicción después de corrección.
La unidad 135 de corrección calcula el valor de función de costo en cada modo de inter-predicción utilizando la imagen de predicción corregida, y determina el modo de inter-predicción cuyo valor de función de costo es el mínimo como el modo óptimo de inter-medición. Después, la unidad 135 de corrección proporciona el valor de función de costo y la imagen de predicción generada en el modo óptimo de inter-predicción a la unidad 136 de selección.
Además, cuando la unidad 135 de corrección recibe la notificación de selección de la imagen de predicción generada en el modo óptimo de inter-predicción desde la unidad 136 de selección, la unidad 135 de corrección produce la información de movimiento en la unidad 62 de codificación de encabezado de sección. Esta información de movimiento incluye el modo óptimo de inter-predicción, el índice de vector de predicción, el vector de movimiento residual que se obtiene al restar el vector de movimiento representado por índice de vector de predicción del vector de movimiento actual, y similares. Cabe señalar que el índice de vector de predicción es la información para identificar un vector de movimiento de entre los vectores de movimiento que son los candidatos utilizados para la generación de las imágenes de predicción de la imagen de paralaje descodificada. La información de movimiento se incluye como la información sobre la codificación en el encabezado de sección.
La unidad 136 de selección determina, como el modo óptimo de predicción, uno del modo óptimo de intra-predicción y el modo óptimo de inter-predicción, basándose en el valor de función de costo proporcionado por la unidad 133 de intra-predicción y la unidad 135 de corrección. Después, la unidad 136 de selección proporciona la imagen de predicción en el modo óptimo de predicción a la unidad 123 de operación aritmética y la unidad 130 de adición. La unidad 136 de selección notifica la selección de la imagen de predicción en el modo óptimo de predicción a la unidad 133 de intra-predicción o la unidad 135 de corrección.
La unidad 137 de control de proporción controla la proporción de la operación de cuantificación de la unidad 125 de cuantificación para no provocar sobreflujo e infraflujo y, basándose en los datos codificados, acumulados en la memoria intermedia 127 de acumulación.
Ejemplo de la configuración de la corriente de bits codificada La Figura 7 es un diagrama que ilustra un ejemplo de una configuración de una corriente de bits codificada.
En la Figura 7, para explicación, sólo se describen los datos codificados de la sección de la imagen de paralaje de varios puntos de vista. Sin embargo, en realidad, la corriente de bits codificada también se dispone con los datos codificados de la sección de la imagen de color de varios puntos de vista. Esto es aplicable a la Figura 22 y la Figura 23 descritas más adelante.
En el ejemplo de la Figura 7, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de una sección tipo intra y las dos secciones tipo inter que constituyen la misma unidad de PPS del PPS #0 que es el Oésimo PPS no son los mismos que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, respectivamente, de la sección previa en el orden de codificación. Por lo tanto, el PPS #0 incluye un indicador de transmisión "1" que indica la presencia de transmisión. En el ejemplo de la Figura 7, la precisión de paralaje de la sección que constituye la misma unidad de PPS del PPS #0 es 0.5, y el PPS #0 incluye "1" que representa la precisión de paralaje 0.5 como el parámetro de precisión de paralaje.
Además, en el ejemplo de la Figura 7, el valor mínimo de paralaje de la sección tipo intra que constituye la misma unidad de PPS del PPS #0 es 10, y el valor máximo de paralaje de la misma es 50, y la distancia entre cámaras de la misma es 100. Por lo tanto, el encabezado de sección de la sección incluye el valor mínimo de paralaje "10", el valor máximo de paralaje "50", y la distancia "100" entre cámaras.
En el ejemplo de la Figura 7, el valor mínimo de paralaje de la primera sección de tipo inter que constituye la misma unidad de PPS del PPS #0 es 9, y el valor máximo de paralaje de la misma es 48, y la distancia entre cámaras de la misma es 105. Por lo tanto, el encabezado de sección de la sección incluye, como resultado codificado por diferencia del valor mínimo de paralaje, la diferencia "-1" que se obtiene al restar el valor mínimo de paralaje "10" de la sección tipo intra que se dispone antes de la sección en cuestión en el orden de codificación a partir del valor mínimo de paralaje "9" de la sección en cuestión. De igual manera, la diferencia "-2" del valor máximo de paralaje se incluye como resultado codificado por diferencia del valor máximo de paralaje, y la diferencia "5" de la distancia entre cámaras incluye como resultado codificado por diferencia de la distancia entre cámaras .
Además, en el ejemplo de la Figura 7, el valor mínimo de paralaje de la segunda sección de tipo inter que constituye la misma unidad de PPS del PPS #0 es 7, y el valor máximo de paralaje de la misma es 47, y la distancia entre cámaras de la misma es 110. Por lo tanto, el encabezado de sección de la sección incluye, como resultado codificado por diferencia del valor mínimo de paralaje, la diferencia "-2" que se obtiene al restar el valor mínimo de paralaje "9" de la primera sección de tipo ínter que se dispone antes de la sección en cuestión en el orden de codificación a partir del valor mínimo de paralaje "7" de la sección en cuestión. De igual manera, la diferencia "-1" del valor máximo de paralaje se incluye como resultado codificado por diferencia del valor máximo de paralaje, y la diferencia "5" de la distancia entre cámaras se incluye como resultado codificado por diferencia de la distancia entre cámaras.
En el ejemplo de la Figura 7, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de una sección tipo intra y las dos secciones tipo inter que constituyen la misma unidad de PPS del PPS #1 que es el primer PPS son los mismos que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, respectivamente, de la sección previa en el orden de codificación. Más específicamente, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de una sección tipo intra y las dos secciones tipo inter que constituyen la misma unidad de PPS del PPS #1 que es el primer PPS son "7", "47", y "110", respectivamente, que son las mismas que aquellas de la segunda sección tipo inter que constituye la misma unidad de PPS del PPS #0. Por lo tanto, el PPS #1 incluye un indicador de transmisión "0" que indica ausencia de transmisión. En el ejemplo de la Figura 7, la precisión de paralaje de la sección que constituye la misma unidad de PPS del PPS #1 es 0.5, y el PPS #1 incluye "1" que representa la precisión de paralaje 0.5 como el parámetro de precisión de paralaje.
Ejemplo de sintaxis del PPS La Figura 8 en un diagrama que ilustra un ejemplo de la sintaxis de PPS de la Figura 7.
Como se ilustra en la Figura 8, el PPS incluye el parámetro de precisión de paralaje (disparity_precision) y el indicador de transmisión (disparity_pic_same_flag) . Por ejemplo, el parámetro de precisión de paralaje es "0" cuando indica la precisión de paralaje 1, y el parámetro de precisión de paralaje es "2" cuando indica que la precisión de paralaje (la precisión de la información de profundidad) es 0.25. Como se describe en lo anterior, el parámetro de precisión de paralaje es "1" cuando indica que la precisión de paralaje (la precisión de la información de profundidad) es 0.5. Como se describe en lo anterior, el indicador de transmisión es "1" cuando indica presencia de transmisión, y el indicador de transmisión es "0" cuando indica ausencia de transmisión .
Ejemplo de sintaxis del encabezado de sección Las Figuras 9 y 10 son diagramas que ilustran un ejemplo de sintaxis de un encabezado de sección.
Como se ilustra en la Figura 10, cuando el indicador de transmisión es 1, y el tipo de sección es de tipo intra, el encabezado de sección incluye el valor mínimo de paralaje (minimum_disparity) , el valor máximo de paralaje (maximum_disparity) , y la distancia entre cámaras (translation_x) .
Por otra parte, cuando el indicador de transmisión es 1, y el tipo de sección es de tipo inter, el encabezado de sección incluye el resultado codificado por diferencia del valor mínimo de paralaje (delta_minimum_disparity) , el resultado codificado por diferencia del valor máximo de paralaje (delta_maximum_disparity) , y el resultado codificado por diferencia de la distancia entre cámaras (delta_translation_x) .
Explicación sobre el procesamiento del dispositivo de codificación La Figura 11 es un diagrama de flujo que explica el procesamiento de codificación del dispositivo 50 de codificación de la Figura 1.
En la etapa Slll de la Figura 11, la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista del dispositivo 50 de codificación captura imágenes de color de varios puntos de vista, y las proporciona como imágenes de color de varios puntos de vista a la unidad 52 de corrección de imagen de color de varios puntos de vista.
En la etapa S112, la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista genera el valor máximo de paralaje, el valor mínimo de paralaje, y el parámetro externo. La unidad 51 de captura de imágenes de imagen de color de varios puntos de vista proporciona el valor máximo de paralaje, el valor mínimo de paralaje, y el parámetro externo a la unidad 54 de generación de información de generación de punto de vista, y proporciona el valor máximo de paralaje y el valor mínimo de paralaje a la unidad 53 de generación de imágenes de paralaje de varios puntos de vista .
En la etapa S113, la unidad 52 de corrección de imagen de color de varios puntos de vista realiza corrección de color, corrección de brillo, corrección de distorsión, y similares sobre las imágenes de color de varios puntos de vista proporcionadas desde la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista. Por consiguiente, la distancia focal de la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista en la imagen de color de varios puntos de vista corregida en la dirección horizontal (dirección X) es la misma en todos los puntos de vista. La unidad 52 de corrección de imagen de color de varios puntos de vista proporciona la imagen de color de varios puntos de vista corregida a la unidad 53 de generación de imágenes de paralaje de varios puntos de vista y la unidad 55 de codificación de imágenes de varios puntos de vista como imágenes de color de varios puntos de vista corregidas .
En la etapa S114, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista genera una imagen de paralaje de varios puntos de vista a partir de la imagen de color de corrección de varios puntos de vista proporcionada por la unidad 52 de corrección de imagen de color de varios puntos de vista, basándose en el valor máximo de paralaje y el valor mínimo de paralaje proporcionados desde la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista. Después, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista proporciona la imagen de paralaje de varios puntos de vista generada, como la imagen de paralaje de varios puntos de vista, a la unidad 55 de codificación de imágenes de varios puntos de vista.
En la etapa S115, la unidad 53 de generación de imágenes de paralaje de varios puntos de vista genera los parámetros de precisión de paralaje, y proporciona los parámetros de precisión de paralaje a la unidad 54 de generación de información de generación de punto de vista.
En la etapa S116, la unidad 54 de generación de información de generación de punto de vista obtiene la distancia entre cámaras basándose en los parámetros externos proporcionados por la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista.
En la etapa S117, la unidad 54 de generación de información de generación de punto de vista genera, como información de generación de punto de vista, el valor máximo de paralaje y el valor mínimo de paralaje, y la distancia entre cámaras proporcionados por la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista, y el parámetro de precisión de paralaje proporcionado por la unidad 53 de generación de imágenes de paralaje de varios puntos de vista. La unidad 54 de generación de información de generación de punto de vista proporciona la información de generación de punto de vista generada a la unidad 55 de codificación de imágenes de varios puntos de vista.
En la etapa S118, la unidad 55 de codificación de imágenes de varios puntos de vista realiza el procesamiento de codificación de varios puntos de vista para codificar la imagen de color de varios puntos de vista corregida proporcionada por la unidad 52 de corrección de imagen de color de varios puntos de vista y la imagen de paralaje de varios puntos de vista proporcionada por la unidad 53 de generación de imágenes de paralaje de varios puntos de vista. Los detalles del procesamiento de codificación de varios puntos de vista se describirán con referencia a la Figura 12 descrita posteriormente.
En la etapa S119, la unidad 55 de codificación de imágenes de varios puntos de vista transmite la corriente de bits codificada, obtenida como resultado del procesamiento de codificación de varios puntos de vista, y termina el procesamiento .
La Figura 12 es un diagrama de flujo que explica el procesamiento de codificación de varios puntos de vista en la etapa S118 de la Figura 11.
En la etapa S131 de la Figura 12, la unidad 61 de codificación de sección de la unidad 55 de codificación de imágenes de varios puntos de vista (Figura 5) codifica la imagen de color corregida de varios puntos de vista proporcionada por la unidad 52 de corrección de imagen de color de varios puntos de vista y la imagen de paralaje de varios puntos de vista proporcionada por la unidad 53 de generación de imágenes de paralaje de varios puntos de vista en unidades de secciones. Más específicamente, la unidad 61 de codificación de sección realiza el procesamiento de codificación de imágenes de color para codificar la imagen de color de corrección de varios puntos de vista de acuerdo con el método de HEVC en unidades de secciones. La unidad 61 de codificación de sección realiza el procesamiento de codificación de imágenes de paralaje para codificar la imagen de paralaje de varios puntos de vista de acuerdo con el método de HEVC en unidades de secciones, utilizando el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras entre la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de punto de vista de la Figura 1, y. Los detalles del procesamiento de codificación de imágenes de paralaje se describirán con referencia a las Figuras 13 y 14 descritas más adelante. La unidad 61 de codificación de sección proporciona la unidad 62 de codificación de encabezado de sección con los datos codificados en unidades de secciones obtenidas como resultado de la codificación.
En la etapa S132, la unidad 62 de codificación de encabezado de sección determina que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras en la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de generación de punto de vista son el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección del objetivo del procesamiento actual, y los mantiene.
En la etapa S133, la unidad 62 de codificación de encabezado de sección determina si el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de todas las secciones que constituyen la misma unidad de PPS son o no los mismos que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección previa en el orden de codificación con respecto a la sección actual.
Cuando la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje se determina que son los mismos en la etapa S133, la unidad 62 de codificación de encabezado de sección genera indicador de transmisión que indica las ausencia de transmisión de los resultados codificados por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, y lo proporciona a la unidad 63 de codificación de PPS en la etapa S134.
En la etapa S135, la unidad 62 de codificación de encabezado de sección agrega, como el encabezado de sección, información sobre la codificación distinta a la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje de esa sección a los datos codificados de cada sección que constituye la misma unidad de PPS que es el objetivo de procesamiento de la etapa S133. Cabe señalar que la información sobre codificación incluye la información de movimiento o la información de intra-predicción proporcionadas por la unidad 61 de codificación de sección. Después, la unidad 62 de codificación de encabezado de sección proporciona la unidad 63 de codificación de PPS con los datos codificados de cada sección que constituye la misma unidad de PPS obtenidos como resultado, y procede al procesamiento en la etapa S140.
Por otra parte, cuando la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje se determina que no son los mismos en la etapa S133, la unidad 62 de codificación de encabezado de sección genera un indicador de transmisión que indica presencia de transmisión de los resultados codificados por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, los proporciona a la unidad 63 de codificación de PPS en la etapa S136. El procesamiento en las etapas S137 a S139 descritas más adelante se realiza para cada sección que constituye la misma unidad de PPS que es el objetivo de procesamiento de la etapa S133.
En la etapa S137, la unidad 62 de codificación de encabezado de sección determina si el tipo de sección que constituye la misma unidad de PPS que es el objetivo de procesamiento de la etapa S133 es o no de tipo intra. Cuando el tipo de sección se determina que es de tipo intra en la etapa S137, la unidad 62 de codificación de encabezado de sección agrega información sobre codificación que incluye el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de esa sección como el encabezado de sección a los datos codificados de esa sección en la etapa S138. Cabe señalar que la información sobre codificación incluye la información de movimiento o la información de intra-predicción proporcionada por la unidad 61 de codificación de sección. Después, la unidad 62 de codificación de encabezado de sección proporciona a la unidad 63 de codificación de PPS con los datos codificados en unidades de secciones obtenidas como resultado, y procede al procesamiento en la etapa S140.
Por otra parte, cuando el tipo de sección se determina que no es de tipo intra en la etapa S137, más específicamente, cuando el tipo de sección se determina que es de tipo inter, el procesamiento procede a la etapa S139. En la etapa S139, la unidad 62 de codificación de encabezado de sección realiza la codificación de diferencia sobre la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje de esa sección, y agrega, como el encabezado de sección, la información sobre codificación que incluye el resultado codificado por diferencia a esos datos codificados de esa sección. Cabe señalar que la información sobre la codificación incluye la información de movimiento o la información de intra-predicción proporcionadas por la unidad 61 de codificación de sección. Después, la unidad 62 de codificación de encabezado de sección proporciona la unidad 63 de codificación de PPS con los datos codificados en unidades de secciones obtenidas como resultado, y procede al procesamiento en la etapa S140.
En la etapa S140, la unidad 63 de codificación de PPS genera el PPS que incluye el indicador de transmisión proporcionado desde la unidad 62 de codificación de encabezado de sección y el parámetro de precisión de paralaje en la información de generación de punto de vista proporcionada desde la unidad 54 de generación de información de generación de punto de vista de la Figura 1.
En la etapa S141, la unidad 63 de codificación de PPS agrega, en la misma unidad de PPS, el PPS a los datos codificados en unidades de secciones a los cuales se agrega el encabezado de sección proporcionado desde la unidad 62 de codificación de encabezado de sección, y lo proporciona a la unidad 64 de codificación de SPS.
En la etapa S142, la unidad 64 de codificación de SPS genera el SPS.
En la etapa S143, la unidad 64 de codificación de SPS agrega, en unidades de secuencias, el SPS a los datos codificados a los cuales se agrega el PPS proporcionado desde la unidad 63 de codificación de PPS, y genera una corriente de bits codificada. Después, el procesamiento en la etapa S118 en la Figura 11 se realiza nuevamente, y por consiguiente procede a la etapa S119.
Las Figuras 13 y 14 son diagramas de flujo que explican el procesamiento de codificación de imágenes de paralaje de la unidad 61 de codificación de sección de la Figura 5. El procesamiento de codificación de imágenes de paralaje se realiza para cada punto de vista.
En la etapa S160 de la Figura 13, la unidad 121 de conversión de A/D de la unidad 120 de codificación realiza la conversión de A/D en las imágenes de paralaje recibidas desde la unidad 53 de generación de imágenes de paralaje de varios puntos de vista en unidades de tramas de los puntos de vista predeterminados, y produce imágenes en la memoria intermedia 122 de clasificación de pantalla, de manera que las imágenes se almacenan en la misma.
En la etapa S161, la memoria intermedia 122 de clasificación de pantalla clasifica las imágenes de paralaje de las tramas en el orden de visualización almacenado en el orden para codificar de acuerdo con una estructura de GOP. La memoria intermedia 122 de clasificación de pantalla proporciona las imágenes de paralaje clasificadas en unidades de tramas en la unidad 123 de operación aritmética, la unidad 133 de intra-predicción, y la unidad 134 de predicción/compensación de movimiento.
En la etapa S162, la unidad 133 de intra-predicción utiliza la imagen de referencia proporcionada por la unidad 130 de adición para realizar la intra-predicción en todos los modos de intra-predicción que son los candidatos. En esta ocasión, la unidad 133 de intra-predicción calcula el valor de función de costo para todos los modos de intra-predicción que son los candidatos. Después, la unidad 133 de intra-predicción determina, como el modo óptimo de intra- predicción, el modo de intra-predicción en el cual el valor de función de costo es el mínimo. La unidad 133 de intra-predicción proporciona la imagen de predicción generada en el modo óptimo de intra-predicción y el valor de función de costo correspondiente a la unidad 136 de selección.
En la etapa S163, la unidad 134 de predicción/compensación de movimiento realiza el procesamiento de predicción/compensación de movimiento basándose en la imagen de paralaje proporcionada por la memoria intermedia 122 de clasificación de pantalla y la imagen de referencia proporcionada por la memoria 132 de tramas .
Más específicamente, la unidad 134 de predicción/compensación de movimiento realiza el procesamiento de predicción/compensación de movimiento en todos los modos de inter-predicción que son los candidatos, basándose en la imagen de paralaje proporcionada por la memoria intermedia 122 de clasificación de pantalla y la imagen de referencia proporcionada por la memoria 132 de tramas, y genera el vector de movimiento. De acuerdo con el vector de movimiento generado en los modos de inter-predicción, la unidad 134 de predicción/compensación de movimiento lee la imagen de referencia de la memoria 132 de tramas, realizando de esta manera el procesamiento de compensación de movimiento. La unidad 134 de predicción/compensación de movimiento proporciona la imagen de predicción generada como resultado en la unidad 135 de corrección .
En la etapa S164, la unidad 135 de corrección calcula los coeficientes de corrección basándose en el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras en la información de generación de punto de vista proporcionada por la unidad 54 de generación de información de generación de punto de vista de la Figura 1.
En la etapa S165, la unidad 135 de corrección utiliza los coeficientes para corregir la imagen de predicción en cada modo de inter-predicción proporcionado por la unidad 134 de predicción/compensación de movimiento.
En la etapa S166, la unidad 135 de corrección utiliza la imagen de predicción corregida para calcular el valor de función de costo en cada modo de inter-predicción, y determina el modo de inter-predicción el cual el valor de función de costo es el mínimo como el modo óptimo de inter-medición. Después, la unidad 135 de corrección proporciona el valor de función de costo y la imagen de predicción generada en el modo óptimo de inter-predicción a la unidad 136 de selección .
En la etapa S167, la unidad 136 de selección determina, como el modo óptimo de predicción, uno del modo óptimo de intra-predicción y el modo óptimo de inter-predicción cualquiera que sea el mínimo del valor de función de costo, basándose en el valor de función de costo proporcionado por la unidad 135 de corrección y la unidad 133 de intra-predicción. Después, la unidad 136 de selección proporciona la imagen de predicción en el modo óptimo de predicción a la unidad 123 de operación aritmética y la unidad 130 de adición.
En la etapa S168, la unidad 136 de selección determina si el modo óptimo de predicción es o no el modo óptimo de inter-predicción . Cuando el modo óptimo de predicción se determina que es el modo óptimo de inter-predicción en la etapa S168, la unidad 136 de selección la notifica a la unidad 135 de corrección de la selección de la imagen de predicción generada en el modo óptimo de inter-predicción .
Después, en la etapa S169, la unidad 135 de corrección produce la información de movimiento en la unidad 62 de codificación de encabezado de sección (Figura 5) , y procede al procesamiento en la etapa S171.
Por otra parte, cuando el modo óptimo de predicción se determina que no es el modo óptimo de inter-predicción en la etapa S168, y más específicamente, cuando el modo óptimo de predicción es el modo óptimo de intra-predicción, entonces la unidad 136 de selección notifica a la unidad 133 de intra- predicción de la selección de la imagen de predicción generada en el modo óptimo de intra-predicción .
Después, en la etapa S170, la unidad 133 de intra-predicción produce la información de intra-predicción en la unidad 62 de codificación de encabezado de sección, y de manera subsiguiente el procesamiento procede a la etapa S171.
En la etapa S171, la unidad 123 de operación aritmética resta la imagen de predicción proporcionada por la unidad 136 de selección de la imagen de paralaje proporcionada por la memoria intermedia 122 de clasificación de pantalla. La unidad 123 de operación aritmética produce la imagen obtenida como resultado de la sustracción, como la información residual, en la unidad 124 de transformación ortogonal .
En la etapa S172, la unidad 124 de transformación ortogonal aplica la transformación ortogonal en la información residual proporcionada desde la unidad 123 de operación aritmética, y proporciona los coeficientes de esta manera obtenidos a la unidad 125 de cuantificación .
En la etapa S173, la unidad 125 de cuantificación cuantifica los coeficientes suministrados desde la unidad 124 de transformación ortogonal. Los coeficientes cuantificados se ingresan en la unidad 126 de codificación sin pérdidas y la unidad 128 de cuantificación inversa.
En la etapa S174, la unidad 126 de codificación sin pérdidas realiza codificación sin pérdidas en los coeficientes cuantificados proporcionados por la unidad 125 de cuantificación .
En la etapa S175 de la Figura 14, la unidad 126 de codificación sin pérdidas proporciona los datos codificados obtenidos como resultado de la codificación sin pérdidas a la memoria intermedia 127 de acumulación, y acumula los datos en la misma.
En la etapa S176, la memoria intermedia 127 de acumulación produce los datos codificados acumulados en la unidad 62 de codificación de encabezado de sección.
En la etapa S177, la unidad 128 de cuantificación inversa cuantifica de manera inversa los coeficientes cuantificados, proporcionados por la unidad 125 de cuantificació .
En la etapa S178, la unidad 129 de transformación ortogonal inversa aplica la transformación ortogonal inversa en los coeficientes proporcionados por la unidad 128 de cuantificación inversa, y proporciona la información residual obtenida como resultado a la unidad 130 de adición.
En la etapa S179, la unidad 130 de adición agrega la información residual proporcionada por la unidad 129 de transformación ortogonal inversa y la imagen de predicción proporcionada por la unidad 136 de selección, y obtiene la imagen de paralaje localmente descodificada. La unidad 130 de adición proporciona la imagen de paralaje obtenida al filtro 131 de desbloqueo, y proporciona la imagen como la imagen de referencia a la unidad 133 de intra-predicción .
En la etapa S180, el filtro 131 de desbloqueo filtra la imagen de paralaje localmente descodificada proporcionada por la unidad 130 de adición, eliminando de esta manera la distorsión de bloque.
En la etapa S181, el filtro 131 de desbloqueo proporciona la imagen de paralaje filtrada a la memoria 132 de tramas, para que la imagen se acumule en la misma. La imagen de paralaje acumulada en la memoria 132 de tramas se produce como la imagen de referencia en la unidad 134 de predicción/compensación de movimiento. Entonces, se termina el procesamiento.
El procesamiento en las etapas S162 a S181 de las Figuras 13 y 14 se realiza, por ejemplo, en una unidad de codificación que tiene una estructura jerárquica. Para simplificar la explicación, en el procesamiento de codificación de imágenes de paralaje de las Figuras 13 y 14, el procesamiento de intra-predicción y el procesamiento de compensación de movimiento se realizan siempre, pero en realidad, cualquiera de ellos puede realizarse de acuerdo con el tipo de imagen y similares.
Como se describe en lo anterior, el dispositivo 50 de codificación utiliza la información sobre la imagen de paralaje para corregir la imagen de predicción, y utiliza la imagen de predicción corregida para codificar la imagen de paralaje. Más específicamente, el dispositivo 50 de codificación utiliza, como la información sobre la imagen de paralaje, la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje para corregir la imagen de predicción de modo que los valores de paralaje se vuelvan los mismos cuando las posiciones del objeto en la dirección de profundidad sean las mismas en la imagen de predicción y la imagen de paralaje, y utiliza la imagen de predicción corregida para codificar la imagen de paralaje. Por lo tanto, la diferencia entre la imagen de paralaje y la imagen de predicción generada basándose en la información sobre la imagen de paralaje se reduce, y se mejora la eficiencia de codificación. Particularmente, cuando la información sobre la imagen de paralaje cambia en cada imagen, se mejora la eficiencia de codificación.
En lugar de transmitir los coeficientes de corrección como la información utilizada para la corrección de imagen de predicción, el dispositivo 50 de codificación transmite la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje utilizado para el cálculo de los coeficientes de corrección. En este caso, la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje son una parte de la información de generación de punto de vista. Por lo tanto, la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje pueden compartirse como parte de la información utilizada para la corrección de imagen de predicción y la información de generación de punto de vista. Por consiguiente, la cantidad de información de la corriente de bits de codificación puede reducirse.
Ejemplo de configuración de la primera modalidad del dispositivo de descodificación La Figura 15 es un diagrama de bloque que ilustra un ejemplo de una configuración de la primera modalidad de un dispositivo de descodificación, al cual se aplica la presente técnica, la cual descodifica una corriente de bits codificada transmitida desde el dispositivo 50 de codificación de la Figura 1.
El dispositivo 150 de descodificación de la Figura 15 se constituye por una unidad 151 de descodificación de imágenes de varios puntos de vista, una unidad 152 de composición de punto de vista, y una unidad 153 de visuali zación de imagen de varios puntos de vista. El dispositivo 150 de descodificación descodifica la corriente de bits de codificación transmitida desde el dispositivo 50 de codificación, y utiliza la imagen de color de varios puntos de vista de esta manera obtenida, la imagen de paralaje de varios puntos de vista, y la información de generación de punto de vista para generar y visualizar una imagen de color de un punto de vista de visualización .
Más específicamente, la unidad 151 de descodificación de imágenes de varios puntos de vista del dispositivo 150 de descodificación recibe la corriente de bits codificada transmitida desde el dispositivo 50 de codificación de la Figura 1. La unidad 151 de descodificación de imágenes de varios puntos de vista extrae el parámetro de precisión de paralaje y el indicador de transmisión de PPS incluido en la corriente de bits codificada recibida. La unidad 151 de descodificación de imágenes de varios puntos de vista extrae la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje del encabezado de sección de la corriente de bits codificada de acuerdo con el indicador de transmisión. La unidad 151 de descodificación de imágenes de varios puntos de vista genera la información de generación de punto de vista incluyendo el parámetro de precisión de paralaje, la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje, y la proporciona a la unidad 152 de composición de punto de vista.
La unidad 151 de descodificación de imágenes de varios puntos de vista descodifica los datos codificados de la imagen de color de varios puntos de vista corregida en unidades de secciones incluidas en la corriente de bits codificada de acuerdo con el método que corresponde al método de codificación de la unidad 55 de codificación de imágenes de varios puntos de vista de la Figura 1, y genera la imagen de color de varios puntos de vista corregida. La unidad 151 de descodificación de imágenes de varios puntos de vista funciona como la unidad de descodificación. La unidad 151 de descodificación de imágenes de varios puntos de vista descodifica los datos codificados de la imagen de paralaje de varios puntos de vista incluida en la corriente de bits de codificación de acuerdo con un método que corresponde al método de codificación de la unidad 55 de codificación de imágenes de varios puntos de vista que utiliza la distancia entre cámaras, el valor máximo de paralaje, y el valor minimo de paralaje, y genera la imagen de paralaje de varios puntos de vista. La unidad 151 de descodificación de imágenes de varios puntos de vista proporciona las imágenes de color de varios puntos de vista corregidas y la imagen de paralaje de varios puntos de vista que se generan en la unidad 152 de composición de punto de vista .
La unidad 152 de composición de punto de vista realiza el procesamiento de deformación en la imagen de paralaje de varios puntos de vista proporcionada por la unidad 151 de descodificación de imágenes de varios puntos de vista para tantos puntos de vista de visualización como el número de puntos de vista que corresponde a la unidad 153 de visualización de imágenes de varios puntos de vista que utiliza la información de generación de punto de vista proporcionada por la unidad 151 de descodificación de imágenes de varios puntos de vista. Más específicamente, la unidad 152 de composición de punto de vista realiza el procesamiento de deformación en la imagen de paralaje de varios puntos de vista para deformar la imagen de acuerdo con los puntos de vista de visualización con la precisión que corresponde al parámetro de precisión de paralaje, basándose en la distancia entre cámaras, el valor máximo de paralaje, el valor mínimo de paralaje, y similares incluidos en la información de generación de punto de vista. El procesamiento de deformación se para convertir geométricamente una imagen de un cierto punto de vista en una imagen de otro punto de vista. Los puntos de vista de visualización incluyen puntos de vista distintos a los puntos de vista que corresponden a la imagen de color de varios puntos de vista.
La unidad 152 de composición de punto de vista realiza el procesamiento de deformación en las imágenes de color de varios puntos de vista corregidas proporcionadas por la unidad 151 de descodificación de imágenes de varios puntos de vista para deformarlas de acuerdo con los puntos de vista de visualizacion que utilizan la imagen de paralaje de los puntos de vista de visualizacion obtenidos como resultado del procesamiento de deformación. La unidad 152 de composición de punto de vista proporciona las imágenes de color para los puntos de vista de visualizacion obtenidos como resultado, a la unidad 153 de visualizacion de imágenes de varios puntos de vista como las imágenes de color compuestas de varios puntos de vista.
La unidad 153 de visualizacion de imágenes de varios puntos de vista muestra las imágenes de color compuestas de varios puntos de vista proporcionadas por la unidad 152 de composición de punto de vista de manera que el ángulo visible sea diferente para cada punto de vista. El usuario ve las imágenes de dos puntos de vista dados con sus ojos derecho e izquierdo, viendo de esta manera una imagen 3D desde varios puntos de vista sin usar gafas.
Como se describe en lo anterior, la unidad 152 de composición de punto de vista realiza el procesamiento de deformación en las imágenes de color de varios puntos de vista corregidas proporcionadas por la unidad 81 de descodificación de imágenes de varios puntos de vista para deformarlas de acuerdo con los puntos de vista de visualizacion con la precisión que corresponde al parámetro de precisión de punto de vista basándose en el parámetro de precisión de paralaje, y por lo tanto, no es necesario que la unidad 152 de composición de punto de vista realice de manera derrochadora el procesamiento de deformación con un alto nivel de precisión.
La unidad 152 de composición de punto de vista realiza el procesamiento de deformación en la imagen de paralaje de varios puntos de vista en el punto de vista de visualización basándose en la distancia entre cámaras, y por lo tanto, cuando el paralaje que corresponde al valor de paralaje de la imagen de paralaje de varios puntos de vista que se ha sometido al proceso de deformación no se encuentra en un margen adecuado, el valor de paralaje puede corregirse en un valor que corresponde al paralaje de un margen adecuado basándose en la distancia entre cámaras.
Ejemplo de configuración de la unidad de descodificación de imágenes de varios puntos de vista La Figura 16 es un diagrama de bloque que ilustra un ejemplo de una configuración de la unidad 151 de descodificación de imágenes de varios puntos de vista de la Figura 15.
La unidad 151 de descodificación de imágenes de varios puntos de vista de la Figura 16 incluye una unidad 171 de descodificación de SPS, una unidad 172 de descodificación de PPS, una unidad 173 de descodificación de encabezado de sección, y una unidad 174 de descodificación de sección.
La unidad 171 de descodificación de SPS de la unidad 151 de descodificación de imágenes de varios puntos de vista funciona como una unidad de recepción, y recibe la corriente de bits codificada transmitida desde el dispositivo 50 de codificación de la Figura 1, y extrae el SPS en la corriente de bits codificada. La unidad 171 de descodificación de SPS proporciona a la unidad 172 de descodificación de PPS el SPS extraído y la corriente de bits codificada distinta del SPS.
La unidad 172 de descodificación de PPS extrae el PPS de la corriente de bits codificada distinta del SPS proporcionado de la unidad 171 de descodificación de SPS. La unidad 172 de descodificación de PPS proporciona a la unidad 173 el PPS y el SPS extraídos, la corriente de bits codificada distinta del SPS y el PPS de descodificación de encabezado de sección.
La unidad 173 de descodificación de encabezado de sección extrae un encabezado de sección de la corriente de bits codificada distinta del SPS y del PPS proporcionados de la unidad 172 de descodificación de PPS. Cuando el indicador de transmisión incluido en el PPS proporcionado por la unidad 172 de descodificación de PPS es "1" que indica la presencia de transmisión, la unidad 173 de descodificación de encabezado de sección mantiene la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje incluido en el encabezado de sección, o actualiza la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje que se mantienen en el mismo basándose en el resultado codificado por diferencia de la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje. La unidad 173 de descodificación de encabezado de sección genera la información de generación de punto de vista de la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje, los cuales se mantienen, y el parámetro de precisión de paralaje incluido en el PPS, y la proporciona a la unidad 152 de composición de punto de vista.
Además, la unidad 173 de descodificación de encabezado de sección proporciona a la unidad 174 de descodificación de sección la información distinta a la información sobre el SPS, el PPS, la distancia entre cámaras, el valor máximo de paralaje, el valor mínimo de paralaje del encabezado de sección, y los datos codificados en unidades de secciones que es la corriente de bits codificada distinta del SPS, el PPS, y el encabezado de sección. La unidad 173 de descodificación de encabezado de sección proporciona la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje a la unidad 174 de descodificación de sección.
La unidad 174 de descodificación de sección descodifica los datos codificados de la imagen multiplexada de color en unidades de secciones de acuerdo con el método que corresponde al método de codificación de la unidad 61 de codificación de sección (Figura 5) basándose en la información distinta a la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje del encabezado de sección, el SPS, y el PPS proporcionados de la unidad 173 de descodificación de encabezado de sección. La unidad 174 de descodificación de sección descodifica los datos codificados de la imagen multiplexada de color en unidades de secciones de acuerdo con el método que corresponde al método de codificación de la unidad 61 de codificación de sección, basándose en la información distinta a la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje del encabezado de sección, el SPS, y el PPS, y basándose en la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje. La unidad 173 de descodificación de encabezado de sección proporciona a la unidad 152 de composición de punto de vista de la Figura 15 la imagen de color de varios puntos de vista corregida y la imagen de paralaje de varios puntos de vista obtenida como resultado de descodificación.
Ejemplo de configuración de la unidad de descodificación de sección La Figura 17 es un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de descodificación para descodificar una imagen de paralaje de cualquier punto de vista dado en la unidad 174 de descodificación de sección de la Figura 16. Más específicamente, la unidad de descodificación para descodificar la imagen de paralaje de varios puntos de vista en la unidad 174 de descodificación de sección se constituye por tantas unidades 250 de descodificación de la Figura 17 como el número de puntos de vista.
La unidad 250 de descodificación de la Figura 17 incluye una memoria intermedia 251 de acumulación, una unidad 252 de descodificación sin pérdidas, una unidad 253 de cuantificación inversa, una unidad 254 de transformación ortogonal inversa, una unidad 255 de adición, un filtro 256 de desbloqueo, una memoria intermedia 257 de clasificación de pantalla, una unidad 258 de conversión de D/A, una memoria 259 de tramas, una unidad 260 de intra-predicción, una unidad 261 de generación de vector de movimiento, una unidad 262 de compensación de movimiento, una unidad 263 de corrección, y un conmutador 264.
La memoria intermedia 251 de acumulación de la unidad 250 de descodificación recibe y acumula datos codificados de las imágenes de paralaje de un punto de vista predeterminado en unidades de secciones de la unidad 173 de descodificación de encabezado de sección de la Figura 16. La memoria intermedia 251 de acumulación proporciona los datos codificados acumulados a la unidad 252 de descodificación sin pérdidas.
La unidad 252 de descodificación sin pérdidas aplica la descodificación sin pérdidas tal como la descodificación aritmética y la descodificación de longitud variable a los datos codificados dados por la memoria intermedia 251 de acumulación, obteniendo de esta manera los coeficientes cuantificados . La unidad 252 de descodificación sin pérdidas proporciona los coeficientes cuantificados a la unidad 253 de cuantificación inversa.
La unidad 253 de cuantificación inversa, la unidad 254 de transformación ortogonal inversa, la unidad 255 de adición, el filtro 256 de desbloqueo, la memoria 259 de tramas, la unidad 260 de intra-predicción, la unidad 262 de compensación de movimiento, y la unidad 263 de corrección realizan el mismo procesamiento que la el de la unidad 128 de cuantificación inversa, la unidad 129 de transformación ortogonal inversa, la unidad 130 de adición, el filtro 131 de desbloqueo, la memoria 132 de tramas, la unidad 133 de intra-predicción, la unidad 134 de predicción/compensación de movimiento, y la unidad 135 de corrección de la Figura 6, para descodificar la imagen de paralaje del punto de vista predeterminado .
Más específicamente, la unidad 253 de cuantificación inversa cuantifica de manera inversa los coeficientes cuantificados proporcionados por la unidad 252 de descodificación sin pérdidas, y proporciona los coeficientes de esta manera obtenidos a la unidad 254 de transformación ortogonal inversa.
La unidad 254 de transformación ortogonal inversa aplica la transformación ortogonal inversa tal como la transformada inversa de coseno discreto y la transformada inversa de Loeve-Karhunen en los coeficientes proporcionados por la unidad 253 de cuantificación inversa, y proporciona la información residual obtenida como resultado a la unidad 255 de adición.
La unidad 255 de adición funciona como una unidad de descodificación, y agrega la porción residual de la información que sirve como la imagen de paralaje del objetivo de descodificación proporcionado desde la unidad 254 de transformación ortogonal inversa y la imagen de predicción proporcionada por el conmutador 264, descodificando de esta manera la imagen de paralaje del objetivo de descodificación. La unidad 255 de adición proporciona la imagen de paralaje de esta manera obtenida al filtro 256 de desbloqueo, y proporciona la imagen como la imagen de referencia a la unidad 260 de intra-predicción .
Cuando el conmutador 264 no proporciona la imagen de predicción, la unidad 255 de adición proporciona la imagen de paralaje que es la información residual proporcionada desde la unidad 254 de transformación ortogonal inversa al filtro 256 de desbloqueo, y proporciona la imagen como la imagen de referencia a la unidad 260 de intra-predicción.
El filtro 256 de desbloqueo filtra la imagen de paralaje proporcionada por la unidad 255 de adición, eliminando de esta manera la distorsión de bloque. El filtro 256 de desbloqueo proporciona la imagen de paralaje de esta manera obtenida a la memoria 259 de tramas, para acumular la imagen en la misma, y también proporciona la imagen a la memoria intermedia 257 de clasificación de pantalla. La imagen de paralaje acumulada en la memoria 259 de tramas se proporciona como la imagen de referencia a la unidad 262 de compensación de movimiento.
La memoria intermedia 257 de clasificación de pantalla almacena la imagen de paralaje proporcionada por el filtro 256 de desbloqueo en unidades de tramas. La memoria intermedia 257 de clasificación de pantalla clasifica las imágenes de paralaje almacenadas en unidades de tramas en el orden para codificación en el orden original de visualización, y proporciona las imágenes de paralaje a la unidad 258 de conversión de D/A.
La unidad 258 de conversión de D/A realiza la conversión de D/A en la imagen de paralaje en unidades de tramas proporcionados desde la memoria intermedia 257 de clasificación de pantalla, y proporciona la imagen como las imágenes de paralaje de punto de vista predeterminado a la unidad 152 de composición (Figura 15) de punto de vista.
La unidad 260 de intra-predicción realiza la intra-predicción en el modo óptimo de intra-predicción representado por la información de intra-predicción proporcionada de la unidad 173 (Figura 16) de descodificación de encabezado de sección que utiliza la imagen de referencia proporcionada por la unidad 255 de adición, y genera una imagen de predicción. Entonces, la unidad 260 de intra-predicción proporciona la imagen de predicción al conmutador 264.
La unidad 261 de generación de vector de movimiento agrega el vector de movimiento residual y el vector de movimiento representado por el índice de vector de predicción incluido en la información de movimiento proporcionada por la unidad 173 de descodificación de encabezado de sección en los vectores de movimiento almacenados, y restaura el vector de movimiento. La unidad 261 de generación de vector de movimiento almacena el vector de movimiento restablecido. La unidad 261 de generación de vector de movimiento proporciona el vector de movimiento restablecido, el modo óptimo de inter-predicción incluido en la información de movimiento, y similares a la unidad 262 de compensación de movimiento.
La unidad 262 de compensación de movimiento funciona como una unidad de generación de imágenes de predicción, y realiza el procesamiento de compensación de movimiento al leer la imagen de referencia de la memoria 259 de tramas basándose en el modo óptimo de inter-predicción y los vectores de movimiento proporcionados por la unidad 261 de generación de vector de movimiento. La unidad 262 de compensación de movimiento proporciona la imagen de predicción de esta manera generada a la unidad 263 de corrección .
Como la unidad 135 de corrección de la Figura 6, la unidad 263 de corrección genera los coeficientes de corrección utilizados para corregir la imagen de predicción, basándose en el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras proporcionados por la unidad 173 de descodificación de encabezado de sección de la Figura 16. Como la unidad 135 de corrección, la unidad 263 de corrección corrige la imagen de predicción en el modo óptimo de inter-predicción proporcionado por la unidad 262 de compensación de movimiento que utiliza los coeficientes de corrección. La unidad 263 de corrección proporciona la imagen de predicción corregida al conmutador 264.
Cuando la unidad 260 de intra-predicción 11 proporciona la imagen de predicción, el conmutador 264 proporciona la imagen de predicción del mismo a la unidad 255 de adición. Cuando la unidad 262 de compensación de movimiento proporciona la imagen de predicción, el conmutador 264 proporciona la imagen de predicción del mismo a la unidad 255 de adición.
Explicación sobre el procesamiento del dispositivo de descodificación La Figura 18 es un diagrama de flujo que explica el procesamiento de descodificación del dispositivo 150 de descodificación de la Figura 15. Se inicia este procesamiento de descodificación, por ejemplo, cuando la corriente de bits codificada se transmite desde el dispositivo 50 de codificación de la Figura 1.
En la etapa S201 de la Figura 18, la unidad 151 de descodificación de imágenes de varios puntos de vista del dispositivo 150 de descodificación recibe la corriente de bits codificada transmitida desde el dispositivo 50 de codificación de la Figura 1.
En la etapa S202, la unidad 151 de descodificación de imágenes de varios puntos de vista realiza el procesamiento de descodificación de varios puntos de vista para descodificar la corriente de bits codificada recibida. Los detalles del procesamiento de descodificación de varios puntos de vista se describirán con referencia a la Figura 19 descrita más adelante.
En la etapa S203, la unidad 152 de composición de punto de vista funciona como una unidad de generación, y genera la imagen de color compuesta de varios puntos de vista que utiliza la información de generación de punto de vista, las imágenes de color de varios puntos de vista corregidas, y la imagen de paralaje de varios puntos de vista proporcionada por la unidad 151 de descodificación de imágenes de varios puntos de vista.
En la etapa S204, la unidad 153 de visualización de imágenes de varios puntos de vista muestra la imagen de color compuesta de varios puntos de vista proporcionada por la unidad 152 de composición de punto de vista de manera que el ángulo visible sea diferente para cada punto de vista, y termine el procesamiento.
La Figura 19 es un diagrama de flujo que explica los detalles del procesamiento de descodificación de varios puntos de vista en la etapa S202 de la Figura 18.
En la etapa S221 de la Figura 19, la unidad 171 de descodificación de SPS de la unidad 151 (Figura 16) de descodificación de imágenes de varios puntos de vista extrae el SPS de la corriente de bits codificada recibida.
La unidad 171 de descodificación de SPS proporciona a la unidad 172 de descodificación de PPS el SPS extraído y la corriente de bits codificada distinta del SPS.
En la etapa S222, la unidad 172 de descodificación de PPS extrae el PPS de la corriente de bits codificada distinta del SPS proporcionado de la unidad 171 de descodificación de SPS. La unidad 172 de descodificación de PPS proporciona a la unidad 173 de descodificación de encabezado de sección el PPS y el SPS que se extraen, y la corriente de bits codificada distinta del SPS y el PPS.
En la etapa S223, la unidad 173 de descodificación de encabezado de sección proporciona el parámetro de precisión de paralaje incluido en el PPS proporcionado de la unidad 172 de descodificación de PPS a la unidad 152 de composición de punto de vista como porción de la información de generación de punto de vista.
En la etapa S224, la unidad 173 de descodificación de encabezado de sección determina si el indicador de transmisión incluido en el PPS proporcionado por la unidad 172 de descodificación de PPS es o no "1" que indica la presencia de transmisión. Cabe señalar que el procesamiento subsiguiente en las etapas S225 a S234 se hace en unidades de secciones.
Cuando el indicador de transmisión se determina que es "1" que indica la presencia de transmisión en la etapa S224, el procesamiento procede a la etapa S225. En la etapa S225, la unidad 173 de descodificación de encabezado de sección extrae el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, o el encabezado de sección que incluye el resultado codificado por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, la corriente de bits codificada distinta del SPS y el PPS proporcionados desde la unidad 172 de descodificación de PPS.
En la etapa S226, la unidad 173 de descodificación de encabezado de sección determina si el tipo de sección es o no tipo intra. Cuando el tipo de sección se determina que es de tipo intra en la etapa S226, el procesamiento procede a la etapa S227.
En la etapa S227, la unidad 173 de descodificación de encabezado de sección mantiene el valor mínimo de paralaje incluido en el encabezado de sección extraído en la etapa S225, y lo proporciona a la unidad 152 de composición de punto de vista como porción de la información de generación de punto de vista.
En la etapa S228, la unidad 173 de descodificación de encabezado de sección mantiene el valor mínimo de paralaje incluido en el encabezado de sección extraído en la etapa S225, y lo proporciona a la unidad 152 de composición de punto de vista como porción de la información de generación de punto de vista.
En la etapa S229, la unidad 173 de descodificación de encabezado de sección mantiene la distancia entre cámaras incluida en el encabezado de sección extraído en la etapa S225, y la proporciona a la unidad 152 de composición de punto de vista como porción de la información de generación de punto de vista. Después, el procesamiento procede a la etapa S235.
Por otra parte, cuando el tipo de sección se determina que no es de tipo intra en la etapa S226, más específicamente, cuando el tipo de sección se determina que es de tipo inter, el procesamiento procede a la etapa S230.
En la etapa S230, la unidad 173 de descodificación de encabezado de sección agrega el resultado codificado por diferencia del valor mínimo de paralaje incluido en el encabezado de sección extraído en la etapa S225 al valor mínimo de paralaje mantenido. La unidad 173 de descodificación de encabezado de sección proporciona el valor mínimo de paralaje restablecido al agregar la operación a la unidad 152 de composición de punto de vista como parte de la información de generación de punto de vista .
En la etapa S231, la unidad 173 de descodificación de encabezado de sección agrega el resultado codificado por diferencia del valor mínimo de paralaje incluido en el encabezado de sección extraído en la etapa S225 al valor mínimo de paralaje mantenido. La unidad 173 de descodificación de encabezado de sección proporciona el valor mínimo de paralaje restablecido al agregar la operación a la unidad 152 de composición de punto de vista como parte de la información de generación de punto de vista .
En la etapa S232, la unidad 173 de descodificación de encabezado de sección agrega el resultado codificado por diferencia de la distancia entre cámaras incluida en el encabezado de sección extraído en la etapa S225 a la distancia entre cámaras mantenida. La unidad 173 de descodificación de encabezado de sección proporciona la distancia entre cámaras restablecida al agregar la operación a la unidad 152 de composición de punto de vista como parte de la información de generación de punto de vista. Después, el procesamiento procede a la etapa S235.
Cuando el indicador de transmisión se determina que no es "1" que indica la presencia de transmisión en la etapa S224, es decir, el indicador de transmisión se determina que es "0" que indica la ausencia de transmisión, el procesamiento procede a la etapa S233.
En la etapa S233, la unidad 173 de descodificación de encabezado de sección extrae el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, y el encabezado de sección no incluye el resultado codificado por diferencia del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, la corriente de bits codificada distinta del SPS y el PPS proporcionados desde la unidad 172 de descodificación de PPS.
En la etapa S234, la unidad 173 de descodificación de encabezado de sección determina que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras los cuales se mantienen, es decir, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección previa en el orden de codificación, son el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección del objetivo de procesamiento, por el que el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de la sección del objetivo de procesamiento se restablecen. Entonces, la unidad 173 de descodificación de encabezado de sección proporciona el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras restablecidos de esta manera a la unidad 152 de composición de punto de vista como porción de la información de generación de punto de vista, y procede al proceso en la etapa S235.
En la etapa S235, la unidad 174 de descodificación de sección descodifica los datos codificados en unidades de secciones de acuerdo con el método que corresponde al método de codificación de la unidad 61 de codificación de sección (Figura 5) . Más específicamente, la unidad 174 de descodificación de sección descodifica los datos codificados de la imagen de color de varios puntos de vista en unidades de secciones de acuerdo con el método que corresponde al método de codificación de la unidad 61 de codificación de sección basándose en el SPS, el PPS y el encabezado de sección distinto a la información sobre la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje, dada por la unidad 173 de descodificación de encabezado de sección. La unidad 174 de descodificación de sección realiza el procesamiento de descodificación de imágenes de paralaje para descodificar los datos codificados de la imagen de corrección de varios puntos de vista en unidades de secciones de acuerdo con el método que corresponde al método de codificación de la unidad 61 de codificación de sección, basándose en el SPS, el PPS, y el encabezado de sección distinto a la información sobre la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje, dados por la unidad 173 de descodificación de encabezado de sección, y la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje. Los detalles del procesamiento de descodificación de imágenes de paralaje se describirán con referencia a la Figura 20 descrita más adelante. La unidad 173 de descodificación de encabezado de sección proporciona a la unidad 152 de composición de punto de vista de la Figura 15 la imagen de color de varios puntos de vista corregida y la imagen de paralaje de varios puntos de vista obtenida como resultado de la descodificación.
La Figura 20 es un diagrama de flujo que explica los detalles del procesamiento de descodificación de imágenes de paralaje realizado por la unidad 174 de descodificación de sección de la Figura 16. Este proceso de descodificación de imágenes de paralaje se realiza para cada punto de vista.
En la etapa S261 de la Figura 20, la memoria intermedia 251 de acumulación de la unidad 250 de descodificación recibe y acumula datos codificados de las imágenes de paralaje de un punto de vista predeterminado en unidades de secciones de la unidad 173 de descodificación de encabezado de sección de la Figura 16. La memoria intermedia 251 de acumulación proporciona los datos codificados acumulados a la unidad 252 de descodificación sin pérdidas.
En la etapa S262, la unidad 252 de descodificación sin pérdidas realiza la descodificación sin pérdidas en los datos codificados proporcionados por la memoria intermedia 251 de acumulación, y proporciona los coeficientes cuantificados de esta manera obtenidos a la unidad 253 de cuantificación inversa.
En la etapa S263, la unidad 253 de cuantificación inversa cuantifica de manera inversa los coeficientes cuantificados dados por la unidad 252 de descodificación sin pérdidas, y proporciona los coeficientes de esta manera obtenidos a la unidad 254 de transformación ortogonal inversa .
En la etapa S264, la unidad 254 de transformación ortogonal inversa realiza la transformación ortogonal inversa en los coeficientes dados por la unidad 253 de cuantificación inversa, y proporciona la información residual de esta manera obtenida a la unidad 255 de adición.
En la etapa S265, la unidad 261 de generación de vector de movimiento determina si la unidad 173 de descodificación de encabezado de sección de la Figura 16 proporciona o no la información de movimiento. Cuando la unidad 173 de descodificación de encabezado de sección se determina que para proporciona la información de movimiento en la etapa S265, el procesamiento en la etapa S266 se realiza .
En la etapa S266, la unidad 261 de generación de vector de movimiento restablece y mantiene los vectores de movimiento basándose en los vectores de movimiento mantenidos y la información de movimiento. La unidad 261 de generación de vector de movimiento proporciona, por ejemplo, los vectores de movimiento restablecidos, el modo óptimo de inter-predicción incluido en la información de movimiento a la unidad 262 de compensación de movimiento.
En la etapa S267, la unidad 262 de compensación de movimiento realiza el procesamiento de compensación de movimiento al leer la imagen de referencia de la memoria 259 de tramas basándose en el modo óptimo de inter-predicción y los vectores de movimiento proporcionados por la unidad 261 de generación de vector de movimiento. La unidad 262 de compensación de movimiento proporciona la imagen de predicción generada como resultado del procesamiento de compensación de movimiento a la unidad 263 de corrección.
En la etapa S268, como la unidad 135 de corrección de la Figura 6, la unidad 263 de corrección calcula los coeficientes de corrección, basándose en el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras proporcionada por la unidad 173 de descodificación de encabezado de sección de la Figura 16.
En la etapa S269, como la unidad 135 de corrección, la unidad 263 de corrección utiliza los coeficientes de corrección para corregir la imagen de predicción en el modo óptimo de inter-predicción proporcionado por la unidad 262 de compensación de movimiento. La unidad 263 de corrección proporciona la imagen de predicción corregida mediante el conmutador 264 a la unidad 255 de adición, y el procesamiento procede a la etapa S271.
Por otra parte, cuando la información de movimiento se determina que no se proporciona en la etapa S265, y más específicamente, cuando la información de intra-predicción se proporciona desde la unidad 173 de descodificación de encabezado de sección a la unidad 260 de intra-predicción, el procesamiento procede a la etapa S270.
En la etapa S270, la unidad 260 de intra-predicción realiza el procesamiento de intra-predicción en el modo óptimo de intra-predicción representado por la información de intra-predicción proporcionada desde la unidad 173 de descodificación de encabezado de sección que utiliza la imagen de referencia proporcionada por la unidad 255 de adición. La unidad 260 de intra-predicción proporciona la imagen de predicción generada como el resultado a la unidad 255 de adición mediante el conmutador 264, y posteriormente, el procesamiento procede a la etapa S271.
En la etapa S271, la unidad 255 de adición agrega la información residual proporcionada por la unidad 254 de transformación ortogonal inversa y la imagen de predicción proporcionada por el conmutador 264. La unidad 255 de adición proporciona la imagen de paralaje de esta manera obtenida al filtro 256 de desbloqueo, y proporciona la imagen como la imagen de referencia a la unidad 260 de intra-predicción .
En la etapa S272, el filtro 256 de desbloqueo filtra la imagen de paralaje proporcionada por la unidad 255 de adición, eliminando de esta manera la distorsión de bloque .
En la etapa S273, el filtro 256 de desbloqueo proporciona la imagen de paralaje filtrada a la memoria 259 de tramas, para acumular la imagen en la misma, y también proporciona la imagen a la memoria intermedia 257 de clasificación de pantalla. La imagen de paralaje acumulada en la memoria 259 de tramas se proporciona como la imagen de referencia a la unidad 262 de compensación de movimiento.
En la etapa S274, la memoria intermedia 257 de clasificación de pantalla almacena las imágenes de paralaje almacenadas en unidades de tramas proporcionadas por el filtro 256 de desbloqueo, y clasifica las imágenes de paralaje almacenadas en el orden para codificación en el orden original de visualización, y proporciona las imágenes de paralaje a la unidad 258 de conversión de D/A.
En la etapa S275, la unidad 258 de conversión de D/A realiza la conversión de D/A en la imagen de paralaje en unidades de tramas proporcionadas desde la memoria intermedia 257 de clasificación de pantalla, y proporciona la imagen como las imágenes de paralaje del punto de vista predeterminado a la unidad 152 de composición de punto de vista de la Figura 15.
Como se describe en lo anterior, el dispositivo 150 de descodificación recibe los datos codificados de las imágenes de paralaje de las cuales la eficiencia de codificación se mejora al realizar la codificación utilizando la imagen de predicción corregida que utiliza la información sobre la imagen de paralaje, y la corriente de bits codificada que incluye la información sobre la imagen de paralaje. El dispositivo 150 de descodificación utiliza la información sobre la imagen de paralaje para corregir la imagen de predicción, y descodifica los datos codificados de la imagen de paralaje utilizando la imagen de predicción corregida que utiliza la imagen de predicción corregida.
Más específicamente, el dispositivo 150 de descodificación recibió los datos codificados, codificados utilizando la imagen de predicción corregida que utiliza la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje como la información sobre la imagen de paralaje, y la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje. El dispositivo 150 de descodificación corrige la imagen de predicción que utiliza la distancia entre cámaras, el valor máximo de paralaje, y el valor mínimo de paralaje, y utiliza la imagen de predicción corregida para descodificar los datos codificados de la imagen de paralaje. Por lo tanto, el dispositivo 150 de descodificación puede descodificar los datos codificados de las imágenes de paralaje de las cuales la eficiencia de codificación se mejora al realizar la codificación que utiliza la imagen de predicción corregida utilizando la información sobre la imagen de paralaje.
El dispositivo 50 de codificación transmite, como la información utilizada para la corrección de imagen de predicción, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de manera que se incluyan en el encabezado de sección. Sin embargo, el método de transmisión no se limita al mismo.
Explicación sobre el método de transmisión de información utilizado para la corrección de imagen de predicción La Figura 21 es una tabla que explica el método de transmisión de información utilizado para la corrección de una imagen de predicción.
El primer método de transmisión de la Figura 21 es, como se describe en lo anterior, el método para transmitir, como la información utilizada para la corrección de imagen de predicción, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras de manera que se incluyan en el encabezado de sección. En este caso, la información utilizada para la corrección de imagen de predicción y la información de generación de punto de vista pueden compartirse, y la cantidad de información de la corriente de bits de codificación puede reducirse. Sin embargo, el dispositivo 150 de descodificación necesita calcular los coeficientes de corrección que utiliza el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, y la carga de procesamiento del dispositivo 150 de descodificación es mayor en comparación con el segundo método de transmisión descrito más adelante.
Por otra parte, el segundo método de transmisión de la Figura 21 es el método para transmitir, como la información utilizada para la corrección de imagen de predicción, los coeficientes de corrección de tal manera que se incluyan en el encabezado de sección. En este caso, el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras no se utilizan para la corrección de imagen de predicción, y por lo tanto, se transmiten como parte de la información de generación de punto de vista, por ejemplo, de manera que se incluyan en las SEI (Información Complementaria de Mejora) la cual no necesita buscarse durante la codificación. En el segundo método de transmisión, se transmiten los coeficientes de corrección, y por lo tanto, el dispositivo 150 de descodificación no necesita calcular los coeficientes de corrección, y la carga de procesamiento del dispositivo 150 de descodificación es menor que la del primer método de transmisión. Sin embargo, puesto que los coeficientes de corrección se transmiten nuevamente, y por lo tanto, la cantidad de información de la corriente de bits de codificación incrementa.
En la explicación anterior, la imagen de predicción se corrige utilizando el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras. Alternativamente, la imagen de predicción puede corregirse también utilizando la otra información sobre paralaje (por ejemplo, la información de posición de captura de imágenes que representa la posición de captura de imágenes en la dirección de profundidad por la unidad 51 de captura de imágenes de imagen de color de varios puntos de vista) .
En este caso, de acuerdo con un tercer método de transmisión de la Figura 21, el coeficiente de corrección adicional que es un coeficiente de corrección generado utilizando el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras y la otra información sobre paralaje se transmiten como información utilizada para la corrección de imagen de paralaje de tal manera que se incluyan en el encabezado de sección. Como se describe en lo anterior, cuando la imagen de predicción se corrige también utilizando la información sobre paralaje distinto del valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, la diferencia de la imagen de paralaje y la imagen de predicción basándose en la información sobre paralaje se reduce adicionalmente, por lo que puede mejorarse la eficiencia de codificación. Sin embargo, puesto que el coeficiente de corrección adicional se transmite nuevamente, la cantidad de información de la corriente de bits de codificación incrementa en comparación con el primer método de transmisión. Además, el dispositivo 150 de descodificación necesita calcular los coeficientes de corrección utilizando el valor máximo de paralaje, el valor mínimo de paralaje, y la distancia entre cámaras, y por lo tanto, la carga de procesamiento del dispositivo 150 de descodificación es mayor en comparación con el segundo método de transmisión.
La Figura 22 es un diagrama que ilustra un ejemplo de una configuración de una corriente de bits codificada en un caso donde la información utilizada para la corrección de imagen de predicción se transmite de acuerdo con el segundo método de transmisión.
En el ejemplo de la Figura 22, los coeficientes de corrección de una sección tipo intra y las dos secciones de tipo inter que constituyen la misma unidad de PPS del PPS #0 no son los mismos que los coeficientes de corrección, respectivamente, de la sección previa en el orden de codificación. Por lo tanto, el PPS #0 incluye un indicador de transmisión "1" que indica la presencia de transmisión. En este caso, el indicador de transmisión es un indicador que indica la presencia/ausencia de transmisión de los coeficientes de corrección.
En el ejemplo de la Figura 22, el coeficiente de corrección a de la sección de tipo intra que constituye la misma unidad de PPS del PPS #0 es 1, y el coeficiente de corrección b del mismo es 0. Por lo tanto, el encabezado de sección de la sección del mismo incluye el coeficiente de corrección a "1" y el coeficiente de corrección b "0".
Además, en el ejemplo de la Figura 22, el coeficiente de corrección a de la primera sección de tipo ínter que constituye la misma unidad de PPS del PPS #0 es 3, y el coeficiente de corrección b es 2. Por lo tanto, el encabezado de sección de la sección incluye, como resultado codificado por diferencia de los coeficientes de corrección, la diferencia "+2" la cual se obtiene al restar el coeficiente de corrección a "1" de la sección de tipo intra la cual se dispone antes de la sección en cuestión en el orden de codificación del coeficiente de corrección a "3" de la sección en cuestión. Asimismo, la diferencia "+2" del coeficiente de corrección b se incluye como el resultado de codificación de diferencia del coeficiente de corrección b.
Además, en el ejemplo de la Figura 22, el coeficiente de corrección a de la segunda sección de tipo ínter que constituye la misma unidad de PPS del PPS #0 es 0, y el coeficiente de corrección b es -1. Por lo tanto, el encabezado de sección de la sección incluye, como resultado codificado por diferencia de los coeficientes de corrección, la diferencia "-3" que se obtiene al restar el coeficiente de corrección "3" de la primera sección de tipo intra que se dispone antes de la sección en cuestión en el orden de codificación del coeficiente de corrección a "0" de la sección en cuestión. Asimismo, la diferencia "-3" del coeficiente de corrección b se incluye como el resultado de codificación de diferencia del coeficiente de corrección b.
En el ejemplo de la Figura 22, los coeficientes de corrección de una sección tipo intra y las dos secciones de tipo inter que constituyen la misma unidad de PPS del PPS #1 son los mismos que los coeficientes de corrección, respectivamente, de la sección previa en el orden de codificación. Por lo tanto, el PPS #1 incluye un indicador de transmisión "0" que indica la ausencia de transmisión.
La Figura 23 es un diagrama que ilustra un ejemplo de una configuración de una corriente de bits codificada en un caso donde la información utilizada para la corrección de imagen de predicción se transmite de acuerdo con el tercer método de transmisión.
En el ejemplo de la Figura 23, el valor mínimo de paralaje, el valor máximo de paralaje, la distancia entre cámaras, y los coeficientes de corrección adicionales de una sección tipo intra y las dos secciones de tipo inter que constituyen la misma unidad de PPS del PPS #0 no son los mismos que el valor mínimo de paralaje, el valor máximo de paralaje, la distancia entre cámaras, y los coeficientes de corrección adicionales, respectivamente, de la sección previa en el orden de codificación. Por lo tanto, el PPS #0 incluye un indicador de transmisión "1" que indica la presencia de transmisión. En este caso, el indicador de transmisión es un indicador que indica la presencia/ausencia de transmisión del valor mínimo de paralaje, el valor máximo de paralaje, la distancia entre cámaras, y los coeficientes de corrección adicionales.
En el ejemplo de la Figura 23, el valor mínimo de paralaje, el valor máximo de paralaje, y la distancia entre cámaras de la sección que constituye la misma unidad de PPS del PPS #0 es el mismo que el caso de la Figura 7, y la información sobre el valor mínimo de paralaje, el valor máximo de paralaje, y la distancia entre cámaras incluida en el encabezado de sección de cada sección es el mismo que el caso de la Figura 7, y la explicación aproximadamente se omite .
En el ejemplo de la Figura 23, el coeficiente de corrección adicional de la sección de tipo intra que constituye la misma unidad de PPS del PPS #0 es 5. Por lo tanto, el encabezado de sección de la sección del mismo incluye los coeficientes de corrección adicionales "5".
Además, en el ejemplo de la Figura 23, el coeficiente de corrección adicional de la primera sección de tipo inter que constituye la misma unidad de PPS del PPS #0 es 7. Por lo tanto, el encabezado de sección de la sección incluye, como resultado codificado por diferencia del coeficiente de corrección adicional, la diferencia "+2" que se obtiene al restar el coeficiente de corrección adicional "5" de la sección de tipo intra que se dispone antes de la sección en cuestión en el orden de codificación del coeficiente de corrección adicional "7" de la sección en cuestión.
Además, en el ejemplo de la Figura 23, el coeficiente de corrección adicional de la segunda sección de tipo inter que constituye la misma unidad de PPS del PPS #0 es 8. Por lo tanto, el encabezado de sección de la sección incluye, como resultado codificado por diferencia del coeficiente de corrección adicional, la diferencia "+1" que se obtiene al restar el coeficiente de corrección adicional "7" de la primera sección de tipo intra que se dispone antes de la sección en cuestión en el orden de codificación del coeficiente de corrección adicional "8" de la sección en cuestión .
En el ejemplo de la Figura 23, el valor mínimo de paralaje, el valor máximo de paralaje, la distancia entre cámaras, y los coeficientes de corrección adicionales de una sección tipo intra y las dos secciones de tipo inter que constituyen la misma unidad de PPS del PPS #1 son igual que el valor mínimo de paralaje, el valor máximo de paralaje, la distancia entre cámaras, y los coeficientes de corrección adicionales, respectivamente, de la sección previa en el orden de codificación. Por lo tanto, el PPS #1 incluye un indicador de transmisión "0" que indica la ausencia de transmisión .
El dispositivo 50 de codificación puede transmitir la información utilizada para la corrección de imagen de predicción de acuerdo con cualquiera de los métodos del primer a tercer métodos de transmisión de la Figura 21. El dispositivo 50 de codificación puede transmitir la información de identificación para identificar cualquiera del primer a tercer métodos de transmisión empleados como el método de transmisión (por ejemplo, indicador, ID) de manera que la información de identificación se incluya en la corriente de bits de codificación. Además, el primer a tercer métodos de transmisión de la Figura 21 pueden seleccionarse adecuadamente debido al equilibrio entre la cantidad de datos de la corriente de bits de codificación y la carga de procesamiento de la descodificación de acuerdo con una aplicación utilizando la corriente de bits de codificación .
En la presente modalidad, la información utilizada para la corrección de imagen de predicción se dispone en el encabezado de sección como la información sobre la codificación, pero la región de disposición de la información utilizada para la corrección de imagen de predicción no se limita al encabezado de sección siempre y cuando sea la región buscada durante la codificación. Por ejemplo, la información utilizada para la corrección de imagen de predicción puede disponerse en una unidad existente de NAL (Capa de Abstracción de Red) tal como una unidad de NAL de PPS y una nueva unidad de NAL tal como una unidad de NAL de APS (Conjunto de Parámetros de Adaptación) sugerida en el estándar de HEVC.
Por ejemplo, cuando los coeficientes de corrección y los coeficientes de corrección adicionales son los mismos en varias imágenes, el mismo valor se dispone en la unidad de NAL que puede aplicarse a las diversas imágenes (por ejemplo, la unidad de NAL de PPS) , y la eficiencia de transmisión puede mejorarse. Más específicamente, en este caso, los mismos coeficientes de corrección y los coeficientes de corrección adicionales pueden transmitirse entre las diversas imágenes, y por lo tanto, como el caso donde se disponen en el encabezado de sección, no es necesario transmitir los coeficientes de corrección y los coeficientes de corrección adicionales para cada sección.
Por lo tanto, por ejemplo, cuando la imagen de color es una imagen de color que tiene efecto de destello y desvanecimiento, los parámetros tales como el valor mínimo de paralaje, el valor máximo de paralaje, y la distancia entre cámaras es probable que no cambien, y por lo tanto, los coeficientes de corrección y los coeficientes de corrección adicionales se disponen en la unidad de NAL del PPS, de manera que se mejore la eficiencia de transmisión.
Cuando, por ejemplo, los coeficientes de corrección y los coeficientes de corrección adicionales son diferentes para cada imagen, se disponen en el encabezado de sección, y cuando son los mismos en varias imágenes, pueden disponerse en una capa sobre el encabezado de sección (por ejemplo, la unidad de NAL del PPS) .
Además, la imagen de paralaje puede ser una imagen que incluye el valor de profundidad que representa la posición en la dirección de profundidad del objeto de cada pixel de la imagen de color del punto de vista que corresponde a la imagen de paralaje. En este caso, el valor máximo de paralaje y el valor mínimo de paralaje son el valor máximo y el valor mínimo, respectivamente, de los valores de coordenadas mundiales de las posiciones en la dirección de profundidad que puede ocurrir en la imagen de paralaje de varios puntos de vista.
La presente técnica también puede aplicarse a los métodos de codificación distintos al método de HEVC tal como AVC, MVC (Codificación de Vídeo de Varias Vistas) y similares . <Segunda Modalidad> Explicación sobre la computadora a la cual se aplica la presente técnica Posteriormente, la serie anterior de procesamientos puede realizarse ya sea por software o hardware. Cuando la serie de procesamientos se realizan por software, se instala un programa que constituye un software en una computadora de propósito general y similares.
La Figura 24 es una configuración ejemplar de una modalidad de una computadora en la cual se instala el programa para ejecutar la serie anterior de procesamientos.
El programa puede almacenarse previamente en una unidad 808 de almacenamiento y una ROM 802 (Memoria de Sólo Lectura) que sirve como medio de grabación incorporado en la computadora .
Alternativamente, el programa puede almacenarse (grabarse) en un medio 811 removible. Este medio 811 removible puede proporcionarse como software denominado de paquete. En este caso, los ejemplos del medio 811 removible incluyen, por ejemplo, un disco flexible, un CD-ROM (Disco Compacto-Memoria de Sólo Lectura) , un disco MO (Magneto-Óptico) , un DVD (Disco Versátil Digital), un disco magnético, una memoria de semiconductor, y similares.
El programa puede instalarse en la computadora desde el medio 811 removible como se describe anteriormente utilizando una unidad 810. Alternativamente, el programa puede descargarse en la computadora mediante una red de comunicación o una red de difusión, y el programa puede instalarse en la unidad 808 de almacenamiento proporcionada en la misma. Más específicamente, el programa, por ejemplo, puede transferirse desde un sitio de descarga hasta la computadora de manera inalámbrica mediante un satélite artificial para la difusión satelital digital, o puede transferirse a la computadora mediante cable, es decir, una red tal como una LAN (Red de Área Local) e Internet.
La computadora tiene una CPU 801 (Unidad de Procesamiento Central) . La CPU 801 se conecta a una interfaz 805 de entrada/salida mediante un bus 804.
Cuando un usuario opera una unidad 806 de entrada para ingresar un comando en la CPU 801 mediante la interfaz 805 de entrada/salida, la CPU 801 ejecuta el programa almacenado en la ROM 802 en respuesta al comando. Alternativamente, la CPU 801 carga el programa almacenado en la unidad 808 de almacenamiento en una RAM 803 (Memoria de Acceso Aleatorio), y ejecuta el programa.
De esta manera, la CPU 801 realiza el procesamiento de acuerdo con los diagramas de flujo antes descritos o el procesamiento realizado con las configuraciones en los diagramas de bloque como se describe anteriormente.
Entonces, cuanto sea necesario, la CPU 801 produce el resultado de procesamiento del mismo a partir de una unidad 807 de salida mediante la interfaz 805 de entrada/salida, transmite el resultado de procesamiento del mismo desde la unidad 809 de comunicación, o graba el resultado de procesamiento del mismo en la unidad 808 de almacenamiento, por ejemplo.
La unidad 806 de entrada se constituye por un teclado, un ratón, un micrófono, y similares. La unidad 807 de salida se constituye por una LCD (Pantalla de Cristal Liquido), un altavoz, y similares.
Aquí, en esta especificación, el procesamiento realizado de acuerdo con el programa por la computadora puede no realizarse necesariamente en series de tiempos de acuerdo con el orden descrito en los diagramas de flujo. En otras palabras, el procesamiento realizado de acuerdo con el programa por la computadora incluye procesamiento ejecutado de manera independiente o en paralelo (por ejemplo, procesamiento realizado con objetos o procesamiento paralelo) .
El programa puede procesarse por una computadora (procesador) , o puede procesarse por una pluralidad de computadoras como procesamiento distribuido. Además, el programa puede transferirse a una computadora ubicada muy alejada y puede ejecutarse.
La presente técnica puede aplicarse a un dispositivo de codificación y a un dispositivo de descodificación utilizados para la comunicación mediante un medio de red tal como una difusión satelital, TV por cable (televisión) , la Internet, y un teléfono portátil, o para procesamiento en medios de grabación tales como discos ópticos, magnéticos, y memorias Flash.
El dispositivo de codificación antes descrito y el dispositivo de descodificación pueden aplicarse a cualesquier dispositivos electrónicos dados. En adelante, se describirá un ejemplo de los mismos. <Tercera odalidad> Ejemplo de configuración del dispositivo de televisión La Figura 25 ilustra un ejemplo de una configuración esquemática de un dispositivo de televisión al cual se aplica la presente técnica. El dispositivo 900 de televisión incluye una antena 901, un sintonizador 902, un desmultiplexor 903, un descodificador 904, una unidad 905 de procesamiento de señales de video, una unidad 906 de visualización, una unidad 907 de procesamiento de señales de audio, un altavoz 908, una unidad 909 de interfaz externa. Además, el dispositivo 900 de televisión incluye una unidad 910 de control y una unidad 911 de interfaz de usuario.
El sintonizador 902 se sintoniza en y desmodula un canal deseado de entre las señales de difusión recibidas por la antena 901, y produce la corriente de bits codificada de esta manera obtenida en el desmultiplexor 903.
El desmultiplexor 903 extrae los paquetes de video y audio de un programa de TV, el cual es un objetivo de visualización, de la corriente de bits codificada, y produce los datos de los paquetes extraídos en el descodificador 904. El desmultiplexor 903 también proporciona paquetes de datos tales como EPG (Guía de Programación Electrónica) a la unidad 910 de control. Cuando se codifica, el desmultiplexor y similares realizan descodificación.
El descodificador 904 realiza procesamiento de descodificación de paquetes, y produce los datos de vídeo generados por el procesamiento de descodificación en la unidad 905 de procesamiento de señales de vídeo, y los datos de audio en la unidad 907 de procesamiento de señales de audio .
La unidad 905 de procesamiento de señales de vídeo realiza la reducción de ruido y el procesamiento de vídeo de acuerdo con los ajustes de usuario sobre los datos de vídeo. La unidad 905 de procesamiento de señales de vídeo genera, por ejemplo, datos de vídeo de un programa de TV desplegado en la unidad 906 de visualización y datos de imágenes formados por el procesamiento basado en una aplicación proporcionada mediante una red. La unidad 905 de procesamiento de señales de video genera datos de video para desplegar una pantalla de menú y similares para permitir la selección de elementos, y superpone los datos de video en los datos de video del programa de TV. La unidad 905 de procesamiento de señales de video genera una señal de excitación basándose en los datos de video generados de esta manera, y excita la unidad 906 de visualización .
La unidad 906 de visualización despliega, por ejemplo, el video del programa de TV, al excitar un dispositivo de visualización (por ejemplo, el dispositivo de pantalla de cristal liquido y similares) basándose en la señal de excitación proporcionada por la unidad 905 de procesamiento de señales de video.
La unidad 907 de procesamiento de señales de audio realiza el procesamiento predeterminado tal como reducción de ruido en los datos de audio, y el procesamiento de conversión de D/A y el procesamiento de amplificación de los datos de audio que se han procesado, y proporciona los datos al altavoz 908, de esta manera produciendo audio.
La unidad 909 de interfaz externa es una interfaz para conectar un dispositivo externo y una red, e intercambiar datos tales como datos de video y datos audio.
La unidad 910 de control se conecta la unidad 911 de interfaz de usuario. La unidad 911 de interfaz de usuario se constituye, por ejemplo, por conmutadores de operación y una unidad de recepción de señal de control remoto, y proporciona una señal de operación de acuerdo con la operación de usuario a la unidad 910 de control.
La unidad 910 de control se constituye por una CPU (Unidad de Procesamiento Central), una memoria, y similares. La memoria almacena, por ejemplo, programas ejecutados por la CPU, varios tipos de datos requeridos cuando se realiza procesamiento con la CPU, datos de EPG, y datos obtenidos mediante una red. Los programas almacenados en la memoria se leen y ejecutan por la CPU con tiempo predeterminado tal como durante la activación del dispositivo 900 de televisión. La CPU ejecuta el programa, de esta manera controlando cada unidad para hacer que el dispositivo 900 de televisión opere de acuerdo con la operación de usuario.
El dispositivo 900 de televisión se proporciona con el bus 912 para conectar el sintonizador 902, el desmultiplexor 903, la unidad 905 de procesamiento de señales de video, la unidad 907 de procesamiento de señales de audio, la unidad 909 de interfaz externa y similares a la unidad 910 de control.
En el dispositivo de televisión configurado como se describe en lo anterior, las funciones del dispositivo de descodificación (método de descodificación) de la presente aplicación se proporcionan en el descodificador 904. Por lo tanto, pueden descodificarse los datos codificados de la imagen de paralaje de la cual la eficiencia de codificación se ha mejorada al realizar la codificación utilizando la información sobre la imagen de paralaje. <Cuarta Modalidad> Ejemplo de configuración del teléfono portátil La Figura 26 ilustra un ejemplo de una configuración esquemática del teléfono portátil al cual se aplica la presente técnica. El teléfono 920 portátil incluye una unidad 922 de comunicación, un códec 923 de audio, una unidad 926 de cámara, una unidad 927 de procesamiento de imágenes, una unidad 928 de desmultiplexión, una unidad 929 de grabación/reproducción, una unidad 930 de visualización, y una unidad 931 de control. Se conectan entre si mediante un bus 933.
La unidad 922 de comunicación se conecta a la antena 921, y el códec 923 de audio se conecta al altavoz 924 y el micrófono 925. Además, la unidad 931 de control se conecta a la unidad 932 de operación.
El teléfono 920 portátil realiza varios tipos de operación tales como transmisión y recepción de la señal de audio, transmisión y recepción de correo electrónico y datos de imagen, captura de imágenes, o agravación de datos, en varios tipos de modos tales como modo de llamada telefónica de audio y modo de comunicación de datos.
En el modo de llamada telefónica de audio, una señal de audio análoga generada por el micrófono 925, por ejemplo, se convierte en datos de audio y se comprime por el codee 923 de audio, y se proporciona a la unidad 922 de comunicación. La unidad 922 de comunicación realiza, por ejemplo, el procesamiento de modulación y el procesamiento de conversión de frecuencia sobre los datos de audio, y genera una señal de transmisión. La unidad 922 de comunicación proporciona la señal de transmisión a la antena 921, y transmite la señal de transmisión a una estación base, no mostrada. La unidad 922 de comunicación realiza, por ejemplo, la amplificación, el procesamiento de conversión de frecuencia y procesamiento de desmodulación sobre la señal de recepción recibida por la antena 921, y proporciona los datos de audio obtenidos al códec 923 de audio. El códec 923 de audio realiza, por ejemplo, extensión de datos de los datos de audio y la conversión en la señal de audio análoga, y produce los datos en el altavoz 924.
Cuando un correo se transmite en el modo de comunicación de datos, la unidad 931 de control recibe los datos de caracteres gue se ingresan por la operación con la unidad 932 de operación, y despliega los caracteres de entrada en la unidad 930 de visualización . La unidad 931 de control también genera datos de correo, basándose, por ejemplo, en la instrucción de usuario con la unidad 932 de operación, y proporciona los datos de correo a la unidad 922 de comunicación. La unidad 922 de comunicación realiza, por ejemplo, el procesamiento de modulación y el procesamiento de conversión de frecuencia en datos de correo, y transmite la señal de transmisión obtenida mediante la antena 921. La unidad 922 de comunicación realiza, por ejemplo, la amplificación, procesamiento de conversión de frecuencia y procesamiento de modulación sobre la señal de recepción recibida por la antena 921, y restablece los datos de correo. Los datos de correo se proporcionan a la unidad 930 de visualización, y el contenido del correo se muestra.
El teléfono 920 portátil también puede almacenar los datos recibidos del correo en un medio de almacenamiento utilizando la unidad 929 de grabación/reproducción. El medio de almacenamiento es cualquier medio de almacenamiento regrabable dado. Por ejemplo, el medio de almacenamiento puede ser una memoria de semiconductor tal como una RAM y la memoria Flash interna, un disco duro, o un medio removible tal como un disco magnético, un disco magneto-óptico, un disco óptico, una memoria USB, o una tarjeta de memoria.
Cuando los datos de imagen se transmiten en el modo de comunicación de datos, los datos de imagen generados por la unidad 926 de cámara se proporcionan en la unidad 927 de procesamiento de imágenes. La unidad 927 de procesamiento de imágenes realiza el procesamiento de codificación de los datos de imagen y genera los datos codificados.
La unidad 928 de desmultiplexión desmultiplexa los datos codificados, generados por la unidad 927 de procesamiento de imágenes y los datos de audio proporcionados desde el códec 923 de audio de acuerdo con el método predeterminado, y proporciona los datos a la unidad 922 de comunicación. La unidad 922 de comunicación realiza, por ejemplo, el procesamiento de modulación y el procesamiento de conversión de frecuencia sobre los datos multiplexados, y transmite la señal de transmisión obtenida mediante la antena 921. La unidad 922 de comunicación realiza, por ejemplo, la amplificación, procesamiento de conversión de frecuencia y procesamiento de amplificación sobre la señal de recepción recibida por la antena 921, y restablece los datos multiplexados. Los datos multiplexados se proporcionan a la unidad 928 de desmultiplexión. La unidad 928 de desmultiplexión separa los datos multiplexados, y proporciona los datos codificados a la unidad 927 de procesamiento de imágenes, y los datos de audio al códec 923 de audio. La unidad 927 de procesamiento de imágenes realiza el procesamiento de descodificación de los datos codificados y genera datos de imagen. Los datos de imagen se proporcionan a la unidad 930 de visualización, y se muestra la imagen recibida. El códec 923 de audio convierte los datos de audio en señal de audio análoga, y proporciona la señal de audio análoga al altavoz 924 para producir el audio recibido.
El teléfono portátil configurado como se describe en lo anterior, la unidad 927 de procesamiento de imágenes se proporciona con una función de un dispositivo de codificación y un dispositivo de descodificación (método de codificación y método de descodificación) de la presente solicitud. Por lo tanto, la eficiencia de codificación de la imagen de paralaje puede mejorarse utilizando la información sobre la imagen de paralaje. Además, pueden descodificarse los datos codificados de la imagen de paralaje de la codificación de eficiencia se han mejorado al realizar la codificación utilizando la información sobre la imagen de paralaje. <Quinta modalidad> Ejemplo de configuración del dispositivo de grabación/reproducción La Figura 27 ilustra un ejemplo de una configuración esquemática de un dispositivo de grabación/reproducción al cual se aplica la presente técnica. Por ejemplo, un dispositivo 940 de grabación/reproducción graba datos de audio y datos de video del programa de difusión recibido en un medio de grabación, y proporciona a un usuario los datos grabados con los tiempos de acuerdo con la instrucción del usuario. Por ejemplo, el dispositivo 940 de grabación/reproducción puede obtener los datos de audio y los datos de vídeo de otro dispositivo, y puede grabarlos en el medio de grabación. Además, el dispositivo 940 de grabación/reproducción descodifica y produce los datos de audio y los datos de vídeo grabados en el medio de grabación, de esta manera permitiendo la visualización de imágenes y el audio producido con el dispositivo de monitor y similares.
El dispositivo 940 de grabación/reproducción incluye un sintonizador 941, una unidad 942 de interfaz externa, un codificador 943, una unidad 944 de HDD (Unidad de Disco Duro) , una unidad 945 de disco, un selector 946, un descodificador 947, una unidad 948 de OSD (Pantalla en Pantalla) , una unidad 949 de control, y una unidad 950 de interfaz de usuario.
El sintonizador 941 se sintoniza en un canal deseado de las señales de difusión recibidas por una antena, no mostrada.
El sintonizador 941 produce, en el selector 946, una corriente de bits codificada, obtenida al desmodular la señal de recepción del canal deseado.
La unidad 942 de interfaz externa puede constituirse, por ejemplo, por cualquiera de una interfaz de IEEE1394, una unidad de interfaz de red, un interfaz de USB, una interfaz de memoria Flash, y similares. La unidad 942 de interfaz externa es una interfaz para conectarse a un dispositivo externo, una red, una tarjeta de memoria, y similares, y recibe los datos tales como los datos de video, los datos de audio, y similares de esta manera grabados.
El codificador 943 realiza la codificación de acuerdo con un método predeterminado cuando los datos de video y los datos de audio proporcionados desde la unidad 942 de interfaz externa no se codifican, y produce la corriente de bits codificada en el selector 946.
La unidad 944 de HDD graba los datos de contenido tales como video y audio, otros datos de varios tipos de programas, y similares en un disco duro interno, y los lee del disco duro durante la reproducción y similares.
El accionamiento de disco 945 graba y reproduce la señal hasta/desde un disco óptico cargado. Por ejemplo, el disco óptico es un disco de DVD (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD+R, DVD+RW y similares) , un disco Blu-ray, y similares .
Durante la grabación de video y de audio, el selector 946 selecciona una corriente de bits codificada de cualquiera del sintonizador 941 y el codificador 943, y la proporciona a cualquiera de la unidad 944 de HDD y la unidad 945 de disco. Durante la reproducción de video y audio, el selector 946 proporciona al descodificador 947 la corriente de bits codificada que se produce de la unidad 944 de HDD o la unidad 945 de disco.
El descodificador 947 realiza el procesamiento de descodificación de corriente de bits codificada. El descodificador 947 realiza el procesamiento de descodificación, de tal modo que proporciona los datos de video generados a la unidad 948 de OSD. El descodificador 947 realiza el procesamiento de descodificación, de tal modo que produce los datos de audio generados.
La unidad 948 de OSD genera los datos de video para desplegar una pantalla de menú y similares por ejemplo, tal como la selección de elementos, y superposiciones y las produce en los datos de video que se producen desde el descodificador 947.
La unidad 949 de control se conecta a la unidad 950 de interfaz de usuario. La unidad 950 de interfaz de usuario se constituye, por ejemplo, por conmutadores de operación y una unidad de recepción de señales de control remoto, y proporciona una señal de operación de acuerdo con la operación de usuario a la unidad 949 de control.
La unidad 949 de control se constituye por una CPU, una memoria, y similares. La memoria almacena, por ejemplo, programas ejecutados por la CPU, varios tipos de datos requeridos cuando se realiza procesamiento con la CPU. Los programas almacenados en la memoria se leen y ejecutan por la CPU con tiempo predeterminado tal como durante la activación del dispositivo 940 de grabación/reproducción. La CPU ejecuta el programa, de esta manera controlando cada unidad para hacer que el dispositivo 940 de grabación/reproduciendo opere de acuerdo con la operación de usuario .
En el dispositivo de grabación/reproducción configurado como se describe en lo anterior, el descodificador 947 se proporciona con una función de un dispositivo de descodificación (método de descodificación) de la presente solicitud. Por lo tanto, pueden descodificarse los datos codificados de la imagen de paralaje de los cuales se ha mejorado la eficiencia de codificación al realizar la codificación utilizando la información sobre la imagen de paralaje. <Sexta Modalidad> Ejemplo de configuración del dispositivo de captura de imágenes La Figura 28 ilustra un ejemplo de una configuración esquemática de un dispositivo de captura de imágenes al cual se aplica la presente técnica. Un dispositivo 960 de captura de imágenes captura una imagen de un objeto, muestra la imagen del objeto en la unidad de visualización, y graba los datos de imagen en un medio de grabación .
El dispositivo 960 de captura de imágenes incluye un bloque 961 óptico, una unidad 962 de captura de imágenes, una unidad 963 de procesamiento de señales de cámara, una unidad 964 de procesamiento de datos de imagen, una unidad 965 de visualización, una unidad 966 de interfaz externa, una unidad 967 de memoria, una unidad 968 de medios, una unidad 969 de OSD, y una unidad 970 de control. La unidad 970 de control se conecta con una unidad 971 de interfaz de usuario. Además, la unidad 964 de procesamiento de datos de imagen, la unidad 966 de interfaz externa, la unidad 967 de memoria, la unidad 968 de medios, la unidad 969 de OSD, la unidad 970 de control, y similares se conecta mediante el bus 972.
El bloque 961 óptico se constituye, por ejemplo, una lente focal, y un mecanismo de diafragma. El bloque 961 óptico forma una imagen óptica de un objeto en la superficie de formación de imágenes de la unidad 962 de captura de imágenes. La unidad 962 de captura de imágenes incluye un sensor de imagen de CCD o CMOS, y genera una señal eléctrica de acuerdo con una imagen óptica mediante conversión fotoeléctrica, y proporciona la señal eléctrica a la unidad 963 de procesamiento de señales de cámara.
La unidad 963 de procesamiento de señales de cámara realiza varios tipos de procesamiento de señales de cámara tales como corrección de knee, distorsión gamma, y corrección de color en la señal eléctrica proporcionada por la unidad 962 de captura de imágenes. La unidad 963 de procesamiento de señales de cámara proporciona a la unidad 964 de procesamiento de datos de imagen con datos de imagen que se han sometido al procesamiento de señales de cámara.
La unidad 964 de procesamiento de datos de imagen realiza procesamiento de codificación en los datos de imagen proporcionados desde la unidad 963 de procesamiento de señales de cámara. La unidad 964 de procesamiento de datos de imagen proporciona a la unidad 966 de interfaz externa y la unidad 968 de medios con los datos codificados, generados al realizar el procesamiento de codificación. La unidad 964 de procesamiento de datos de imagen realiza el procesamiento de descodificación en los datos codificados, proporcionados por la unidad 966 de interfaz externa y la unidad 968 de medios. La unidad 964 de procesamiento de datos de imagen proporciona a la unidad 965 de visualización con los datos de imagen generados al realizar el procesamiento de descodificación. La unidad 964 de procesamiento de datos de imagen realiza el procesamiento para proporcionar a la unidad 965 de visualización con los datos de imagen proporcionados desde la unidad 963 de procesamiento de señales de cámara, y superpone los datos de visualización obtenidos de la unidad 969 de OSD sobre los datos de imagen y proporciona los datos a la unidad 965 de visualización .
La unidad 969 de OSD genera datos de visualización tal como una pantalla de menú e iconos gue incluyen símbolos, caracteres, o figuras, y produce los datos de visualización en la unidad 964 de procesamiento de datos de imagen .
La unidad 966 de interfaz externa se constituye, por ejemplo, por una terminal de entrada/salida de USB, y cuando la imagen va a imprimirse, se conecta a una impresora. La unidad 966 de interfaz externa también se conecta a una unidad siempre gue sea necesario, y el medio removible tal como un disco magnético, un disco óptico se carga cuanto es necesario, y un programa de computadora leído del mismo se instala cuanto se necesario. Además, la unidad 966 de interfaz externa incluye una interfaz de red conectada a una red predeterminada tal como una LAN o la Internet. Por ejemplo, la unidad 970 de control lee los datos codificados de la unidad 967 de memoria de acuerdo con un comando de la unidad 971 de interfaz de usuario, y puede proporcionar los datos a otro dispositivo conectado mediante la red desde la unidad 966 de interfaz externa. La unidad 970 de control obtiene, mediante la unidad 966 de interfaz externa, los datos codificados y los datos de imagen proporcionados desde otro dispositivo mediante la red, y puede proporcionar los datos a la unidad 964 de procesamiento de datos de imagen, por ejemplo.
El medio de grabación impulsado por la unidad 968 de medios puede ser cualquier medio removible dado que pueda leerse y escribirse, por ejemplo, un disco magnético, un disco magnético-óptico, un disco óptico, o una memoria de semiconductor. El medio de grabación puede ser de cualquier tipo como medio removible, y puede ser un dispositivo de cinta, o un disco, o una tarjeta de memoria. Cabe señalar que puede ser una tarjeta de IC sin contacto y similares.
La unidad 968 de medios y el medio de grabación pueden integrarse, y similares, por ejemplo, una unidad de disco duro interna y una SSD (Unidad de Estado Sólido) , la unidad 968 de medios y el medio de grabación pueden configurarse por un medio de almacenamiento no removible.
La unidad 970 de control se constituye por una CPU, una memoria, y similares. La memoria almacenes, por ejemplo, programas ejecutados por la CPU, varios tipos de datos requeridos cuando se realiza procesamiento con la CPU. Los programas almacenados en la memoria se leen y ejecutan por la CPU con tiempo predeterminado, tal como durante la activación del dispositivo 960 de captura de imágenes. La CPU ejecuta el programa, controlando de esta manera cada unidad para hacer que el dispositivo 960 de captura de imágenes opere de acuerdo con la operación de usuario.
En el dispositivo de captura de imágenes configurado como se describe en lo anterior, la unidad 964 de procesamiento de datos de imagen se proporciona con una función de un dispositivo de codificación y un dispositivo de descodificación (método de codificación y método de descodificación) de la presente solicitud. Por lo tanto, la eficiencia de codificación de la imagen de paralaje puede mejorarse al utilizar información sobre la imagen de paralaje. Además, pueden descodificarse los datos codificados de la imagen de paralaje de los cuales se ha mejorado la eficiencia de codificación al realizar la codificación utilizando la información sobre la imagen de paralaj e .
Más específicamente, las modalidades de la presente técnica no se limitan a las modalidades explicadas en lo anterior, y pueden cambiarse de varias maneras siempre y cuando se encuentren dentro del alcance de la presente técnica .
Cabe señalar que la presente técnica puede configurarse como sigue. (1) Un dispositivo de codificación que incluye: una unidad de corrección configurada para corregir una imagen de predicción de una imagen de paralaje de un punto de vista de referencia utilizando información sobre la imagen de paralaje del punto de vista de referencia; una unidad de codificación configurada para codificar la imagen de paralaje del punto de vista de referencia utilizando la imagen de predicción corregida por la unidad de corrección; y una unidad de transmisión configurada para transmitir la imagen de paralaje del punto de vista de referencia codificado por la unidad de codificación y la información sobre la imagen de paralaje del punto de vista de referenci . (2) El dispositivo de codificación de acuerdo con (1) , en donde la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de generación de punto de vista que es la información utilizada para generar una imagen de color de un punto de vista diferente del punto de vista de referencia utilizando la imagen de paralaje del punto de vista de referencia y la imagen de color del punto de vista de referencia, y la unidad de transmisión transmite la información de generación de punto de vista como parámetro de codificación utilizado para codificar la imagen de paralaje del punto de vista de referencia. (3) El dispositivo de codificación de acuerdo con (2), en donde la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección utilizado para corregir la imagen de predicción basándose en la información de generación de punto de vista, y la unidad de transmisión transmite un coeficiente de corrección como el parámetro de codificación. (4) El dispositivo de codificación de acuerdo con (2), en donde la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de posición de captura de imágenes que representa una posición de captura de imágenes en una dirección de profundidad de una unidad de captura de imágenes para capturar la imagen de color del punto de vista de referencia, la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección utilizado para corregir la imagen de predicción basándose en la información de posición de captura de imágenes y la información de generación de punto de vista, y la unidad de transmisión transmite el coeficiente de corrección como el parámetro de codificación. (5) El dispositivo de codificación de acuerdo con (3) o (4), en donde la unidad de corrección establece el coeficiente de corrección. (6) El dispositivo de codificación de acuerdo con cualquiera de (1) a (5), en donde la unidad de codificación codifica la imagen de paralaje del punto de vista de referencia en una unidad que tiene una estructura jerárquica. (7) El dispositivo de codificación de acuerdo con cualquiera de (1) a (6) que además incluye una unidad de generación de imágenes de predicción para generar la imagen de predicción de la imagen de paralaje del punto de vista de referencia . (8) Un método de codificación para un dispositivo de codificación incluye: una etapa de corrección para corregir una imagen de predicción de una imagen de paralaje de un punto de vista de referencia utilizando información sobre la imagen de paralaje del punto de vista de referencia; una etapa de codificación para codificar la imagen de paralaje del punto de vista de referencia utilizando la imagen de predicción corregida por el procesamiento en la etapa de corrección; y una etapa de transmisión para transmitir la imagen de paralaje del punto de vista de referencia codificado por el procesamiento en la etapa de codificación y la información sobre la imagen de paralaje del punto de vista de referencia. (9) Un dispositivo de descodificación incluye: una unidad de recepción configurada para recibir una imagen de paralaje de un punto de vista de referencia codificado utilizando una imagen de predicción de una imagen de paralaje del punto de vista de referencia corregido utilizando información sobre la imagen de paralaje del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia; una unidad de corrección configurada para corregir una imagen de predicción de la imagen de paralaje del punto de vista de referencia utilizando la información sobre la imagen de paralaje del punto de vista de referencia recibida por la unidad de recepción; y una unidad de descodificación configurada para descodificar la imagen de paralaje codificada del punto de vista de referencia recibido por la unidad de recepción utilizando la imagen de predicción corregida por la unidad de corrección . (10) El dispositivo de descodificación de acuerdo con (9) que además incluye una unidad de generación de imágenes de color configurada para generar una imagen de color de un punto de vista diferente del punto de vista de referencia utilizando la imagen de paralaje del punto de vista de referencia descodificado por la unidad de descodificación y la imagen de color del punto de vista de referencia, en donde la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de generación de punto de vista que es información utilizada para generar una imagen de color de un punto de vista diferente del punto de vista de referencia utilizando la imagen de paralaje del punto de vista de referencia y la imagen de color del punto de vista de referencia, la unidad de recepción recibe la información de generación de punto de vista transmitida como el parámetro de codificación utilizado para descodificar la imagen de paralaje del punto de vista de referencia codificado, y la unidad de generación de imágenes de color genera la imagen de color del punto de vista diferente del punto de vista de referencia, utilizando la imagen de paralaje del punto de vista de referencia descodificado por la unidad de descodificación, la imagen de color del punto de vista de referencia, y la información de generación de punto de vista recibidas por la unidad de recepción. (11) La unidad de descodificación de acuerdo con (10), en donde la unidad de recepción recibe un coeficiente de corrección utilizado para corregir la imagen de predicción durante la codificación, la cual se transmite como el parámetro de codificación, el coeficiente de corrección se genera basándose en la información de generación de punto de vista, y la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección recibido por la unidad de recepción. (12) La unidad de descodificación de acuerdo con (10), en donde la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de posición de captura de imágenes que representa una posición de captura de imágenes en una dirección de profundidad de una unidad de captura de imágenes para capturar la imagen de color del punto de vista de referencia, la unidad de recepción recibe el coeficiente de corrección utilizado para corregir la imagen de predicción durante la codificación, la cual se transmite como el parámetro de codificación, y la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección recibido por la unidad de recepción y la información de generación de punto de vista. (13) El dispositivo de acuerdo con (12), en donde el coeficiente de corrección se establece basándose en la información de generación de punto de vista. (14) El dispositivo de descodificación de acuerdo con cualquiera de (9) a (13), en donde la imagen de paralaje del punto de vista de referencia se codifica en una unidad que tiene una estructura jerárquica. (15) El dispositivo de descodificación de acuerdo con cualquiera de (9) a (14) que además incluye una unidad de generación de imágenes de predicción para generar la imagen de predicción de la imagen de paralaje del punto de vista de referencia . (16) Un método de descodificación para un dispositivo de descodificación incluye: una etapa de recepción para recibir una imagen de paralaje del punto de vista de referencia codificado utilizando una imagen de predicción de una imagen de paralaje del punto de vista de referencia corregido utilizando la información sobre la imagen de paralaje del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia; una etapa de corrección para corregir una imagen de predicción de la imagen de paralaje del punto de vista de referencia utilizando la información sobre la imagen de paralaje del punto de vista de referencia recibida por el procesamiento en la etapa de recepción; y una etapa de descodificación para descodificar la imagen de paralaje codificada del punto de vista de referencia recibido por el procesamiento en la etapa de recepción utilizando la imagen de predicción corregida por el procesamiento en la etapa de corrección.
LISTA DE SIGNOS DE REFERENCIA 50 dispositivo de codificación, 64 unidad de codificación de SPS, 123 unidad de operación aritmética, 134 unidad de predicción/compensación de movimiento, 135 unidad de corrección, 150 dispositivo de descodificación, 152 unidad composición de punto de vista, 171 unidad de descodificación de SPS, 255 unidad de adición, 262 unidad de compensación de movimiento, 263 unidad de corrección.

Claims (16)

REIVINDICACIONES
1. Un dispositivo de codificación caracterizado porque comprende : una unidad de corrección configurada para corregir una imagen de predicción de una imagen de paralaje de un punto de vista de referencia utilizando información sobre la imagen de paralaje del punto de vista de referencia; una unidad de codificación configurada para codificar la imagen de paralaje del punto de vista de referencia utilizando la imagen de predicción corregida por la unidad de corrección; y una unidad de transmisión configurada para transmitir la imagen de paralaje del punto de vista de referencia codificado por la unidad de codificación y la información sobre la imagen de paralaje del punto de vista de referencia .
2. El dispositivo de codificación de conformidad con la reivindicación 1, caracterizado porque la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de generación de punto de vista que es la información utilizada para generar una imagen de color de un punto de vista diferente del punto de vista de referencia utilizando la imagen de paralaje del punto de vista de referencia y la imagen de color del punto de vista de referencia, y la unidad de transmisión transmite la información de generación de punto de vista como parámetro de codificación utilizado para codificar la imagen de paralaje del punto de vista de referencia.
3. El dispositivo de codificación de conformidad con la reivindicación 2, caracterizado porque la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección utilizado para corregir la imagen de predicción basándose en la información de generación de punto de vista, y la unidad de transmisión transmite un coeficiente de corrección como el parámetro de codificación.
4. El dispositivo de codificación de conformidad con la reivindicación 2, caracterizado porque la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de posición de captura de imágenes que representa una posición de captura de imágenes en una dirección de profundidad de una unidad de captura de imágenes para capturar la imagen de color del punto de vista de referencia, la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección utilizado para corregir la imagen de predicción basándose en la información de posición de captura de imágenes y la información de generación de punto de vista, y la unidad de transmisión transmite el coeficiente de corrección como el parámetro de codificación.
5. El dispositivo de codificación de conformidad con la reivindicación 4, caracterizado porque la unidad de corrección establece el coeficiente de corrección.
6. El dispositivo de codificación de conformidad con la reivindicación 5, caracterizado porque la unidad de codificación codifica la imagen de paralaje del punto de vista de referencia en una unidad que tiene una estructura j erárquica .
7. El dispositivo de codificación de conformidad con la reivindicación 1, caracterizado además porque comprende una unidad de generación de imágenes de predicción para generar la imagen de predicción de la imagen de paralaje del punto de vista de referencia.
8. Un método de codificación para un dispositivo de codificación caracterizado porque comprende: una etapa de corrección para corregir una imagen de predicción de una imagen de paralaje de un punto de vista de referencia utilizando información sobre la imagen de paralaje del punto de vista de referencia; una etapa de codificación para codificar la imagen de paralaje del punto de vista de referencia utilizando la imagen de predicción corregida por el procesamiento en la etapa de corrección; y una etapa de transmisión para transmitir la imagen de paralaje del punto de vista de referencia codificado por el procesamiento en la etapa de codificación y la información sobre la imagen de paralaje del punto de vista de referencia.
9. Un dispositivo de descodificación caracterizado porque comprende: una unidad de recepción configurada para recibir una imagen de paralaje de un punto de vista de referencia codificado utilizando una imagen de predicción de una imagen de paralaje del punto de vista de referencia corregido utilizando información sobre la imagen de paralaje del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia; una unidad de corrección configurada para corregir una imagen de predicción de la imagen de paralaje del punto de vista de referencia utilizando la información sobre la imagen de paralaje del punto de vista de referencia recibida por la unidad de recepción; y una unidad de descodificación configurada para descodificar la imagen de paralaje codificada del punto de vista de referencia recibido por la unidad de recepción utilizando la imagen de predicción corregida por la unidad de corrección .
10. El dispositivo de descodificación de conformidad con la reivindicación 9, caracterizado además porque comprende una unidad de generación de imágenes de color configurada para generar una imagen de color de un punto de vista diferente del punto de vista de referencia utilizando la imagen de paralaje del punto de vista de referencia descodificado por la unidad de descodificación y la imagen de color del punto de vista de referencia, en donde la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de generación de punto de vista que es información utilizada para generar una imagen de color de un punto de vista diferente del punto de vista de referencia utilizando la imagen de paralaje del punto de vista de referencia y la imagen de color del punto de vista de referencia, la unidad de recepción recibe la información de generación de punto de vista transmitida como el parámetro de codificación utilizado para descodificar la imagen de paralaje del punto de vista de referencia codificado, y la unidad de generación de imágenes de color genera la imagen de color del punto de vista diferente del punto de vista de referencia, utilizando la imagen de paralaje del punto de vista de referencia descodificado por la unidad de descodificación, la imagen de color del punto de vista de referencia, y la información de generación de punto de vista recibidas por la unidad de recepción.
11. El dispositivo de descodificación de conformidad con la reivindicación 10, caracterizado porque la unidad de recepción recibe un coeficiente de corrección utilizado para corregir la imagen de predicción durante la codificación, la cual se transmite como el parámetro de codificación, el coeficiente de corrección se genera basándose en la información de generación de punto de vista, y la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección recibido por la unidad de recepción.
12. El dispositivo de descodificación de conformidad con la reivindicación 10, caracterizado porque la información sobre la imagen de paralaje del punto de vista de referencia incluye la información de posición de captura de imágenes que representa una posición de captura de imágenes en una dirección de profundidad de una unidad de captura de imágenes para capturar la imagen de color del punto de vista de referencia, la unidad de recepción recibe el coeficiente de corrección utilizado para corregir la imagen de predicción durante la codificación, la cual se transmite como el parámetro de codificación, y la unidad de corrección corrige la imagen de predicción utilizando el coeficiente de corrección recibido por la unidad de recepción y la información de generación de punto de vista.
13. El dispositivo de descodificación de conformidad con la reivindicación 12, caracterizado porque el coeficiente de corrección se establece basándose en la información de generación de punto de vista.
14. El dispositivo de descodificación de conformidad con la reivindicación 13, caracterizado porque la imagen de paralaje del punto de vista de referencia se codifica en una unidad que tiene una estructura jerárquica.
15. El dispositivo de descodificación de conformidad con la reivindicación 9, caracterizado además porque comprende una unidad de generación de imágenes de predicción para generar la imagen de predicción de la imagen de paralaje del punto de vista de referencia.
16. Un método de descodificación para un dispositivo de descodificación caracterizado porque comprende : una etapa de recepción para recibir una imagen de paralaje del punto de vista de referencia codificado utilizando una imagen de predicción de una imagen de paralaje del punto de vista de referencia corregido utilizando la información sobre la imagen de paralaje del punto de vista de referencia y la información sobre la imagen de paralaje del punto de vista de referencia; una etapa de corrección para corregir una imagen de predicción de la imagen de paralaje del punto de vista de referencia utilizando la información sobre la imagen paralaje del punto de vista de referencia recibida por procesamiento en la etapa de recepción; y una etapa de descodificación para descodificar imagen de paralaje codificada del punto de vista referencia recibido por el procesamiento en la etapa recepción utilizando la imagen de predicción corregida por procesamiento en la etapa de corrección. RESUMEN DE LA INVENCIÓN La presente técnica se relaciona con un dispositivo de codificación, un método de codificación, un dispositivo de descodificación, y un método de descodificación por el que la eficacia de la codificación de una imagen de paralaje pueda ser información mejorada del utilizando que relaciona un la imagen de paralaje. Una pieza de corrección utiliza la información referente a una imagen de paralaje de un punto de vista de referencia para corregir un paralaje estimado de imagen de la imagen de del punto de vista de referencia. Una pieza del cálculo utiliza la imagen estimada corregida para codificar a la imagen de paralaje del punto de vista de referencia. La imagen codificada de paralaje del punto de vista y de la referencia la información que relaciona un la imagen de paralaje del punto de vista de referencia se transmite. La presente técnica puede aplicarse a un dispositivo de codificación de la imagen de paralaje, por ejemplo. FIG. 1 5 S0
MX2014002066A 2011-08-31 2012-08-21 Dispositivo de codificaicon, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion. MX338738B (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011188995 2011-08-31
JP2011253173 2011-11-18
PCT/JP2012/071028 WO2013031573A1 (ja) 2011-08-31 2012-08-21 符号化装置および符号化方法、復号装置および復号方法

Publications (2)

Publication Number Publication Date
MX2014002066A true MX2014002066A (es) 2014-09-25
MX338738B MX338738B (es) 2016-04-29

Family

ID=47756067

Family Applications (2)

Application Number Title Priority Date Filing Date
MX2014002066A MX338738B (es) 2011-08-31 2012-08-21 Dispositivo de codificaicon, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion.
MX2016004999A MX358407B (es) 2011-08-31 2012-08-21 Dispositivo de codificacion, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion.

Family Applications After (1)

Application Number Title Priority Date Filing Date
MX2016004999A MX358407B (es) 2011-08-31 2012-08-21 Dispositivo de codificacion, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion.

Country Status (11)

Country Link
US (1) US9900595B2 (es)
EP (1) EP2753080A4 (es)
KR (1) KR20140057269A (es)
CN (1) CN103748883B (es)
AU (1) AU2012303085A1 (es)
BR (1) BR112014004062A2 (es)
CA (1) CA2842150A1 (es)
MX (2) MX338738B (es)
RU (2) RU2016120771A (es)
WO (1) WO2013031573A1 (es)
ZA (1) ZA201400565B (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2012232423A1 (en) 2011-03-18 2013-09-05 Sony Corporation Image processing device and image processing method
WO2012128242A1 (ja) * 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
BR122015001004B1 (pt) 2011-06-30 2022-07-26 Sony Corporation Dispositivo e método de processamento de imagem
WO2015037473A1 (ja) * 2013-09-11 2015-03-19 ソニー株式会社 画像処理装置および方法
US10638130B1 (en) * 2019-04-09 2020-04-28 Google Llc Entropy-inspired directional filtering for image coding

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058031A (ja) 2000-08-08 2002-02-22 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法及び装置、並びに、画像復号化方法及び装置
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
JP2007166381A (ja) * 2005-12-15 2007-06-28 Univ Of Tokyo 多視点画像の圧縮符号化方法及び復号化方法
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
KR101031624B1 (ko) * 2006-09-20 2011-04-27 니폰덴신뎅와 가부시키가이샤 화상 부호화 방법 및 복호 방법, 그 장치 및 그 프로그램을 기록한 기억매체
ATE523861T1 (de) 2006-10-04 2011-09-15 Koninkl Philips Electronics Nv Bildverbesserung
CN101222639B (zh) * 2007-01-09 2010-04-21 华为技术有限公司 多视点视频技术中的视间预测方法、编码器和解码器
JP4706068B2 (ja) 2007-04-13 2011-06-22 国立大学法人名古屋大学 画像情報処理方法及び画像情報処理システム
JP4952657B2 (ja) 2007-07-19 2012-06-13 株式会社Jvcケンウッド 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法
US8964844B2 (en) * 2007-08-15 2015-02-24 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
CN101415115B (zh) * 2007-10-15 2011-02-02 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器
EP2232875A2 (en) 2008-01-11 2010-09-29 Thomson Licensing Video and depth coding
WO2009092454A1 (en) 2008-01-21 2009-07-30 Telefonaktiebolaget Lm Ericsson (Publ) Prediction-based image processing
BRPI0907748A2 (pt) 2008-02-05 2015-07-21 Thomson Licensing Métodos e aparelhos para segmentação implícita de blocos em codificação e decodificação de vídeo
EP2329653B1 (en) 2008-08-20 2014-10-29 Thomson Licensing Refined depth map
KR101697598B1 (ko) 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
US9113196B2 (en) 2008-11-10 2015-08-18 Lg Electronics Inc. Method and device for processing a video signal using inter-view prediction
US8760495B2 (en) 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
CN102257824B (zh) 2008-12-18 2015-04-22 Lg电子株式会社 3d图像信号处理方法和用于实现该方法的图像显示器
JP4821846B2 (ja) 2008-12-26 2011-11-24 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム
WO2010079921A2 (ko) 2009-01-12 2010-07-15 엘지 전자 주식회사 뎁스 정보를 이용한 비디오 신호 처리 방법 및 장치
US10257493B2 (en) 2009-01-20 2019-04-09 Koninklijke Philips N.V. Transferring of 3D image data
EP2384004A4 (en) 2009-01-29 2012-08-01 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNALS USING INTRA MODE CONTOUR CODING
BRPI1008226A2 (pt) * 2009-02-12 2019-09-24 Nippon Telegraph & Telephone método de codificação de imagem como múltiplas vistas, método de decodificação de imagem com múltiplas vistas, dispositivo de codificação de imagem com múltiplas vistas,dispositivo de codificação de imagem com múltiplas vistas,programa de codificação de imagem como múltiplas vistas, programa de codificação de imagem como múltiplas vistas.
JP5290864B2 (ja) 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
RU2554465C2 (ru) 2009-07-27 2015-06-27 Конинклейке Филипс Электроникс Н.В. Комбинирование 3d видео и вспомогательных данных
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
JP2011061486A (ja) 2009-09-10 2011-03-24 Kyocera Corp 弾性表面波素子
BR112012008988B1 (pt) 2009-10-14 2022-07-12 Dolby International Ab Método, meio legível não transitório e aparelho para processamento de mapa de profundidade
US8537200B2 (en) 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
JP5505154B2 (ja) 2010-07-16 2014-05-28 ソニー株式会社 画像処理装置と画像処理方法
JP2012023652A (ja) 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
PT2604036T (pt) 2010-08-11 2018-06-12 Ge Video Compression Llc Codec de sinal multivisualização
JP6108309B2 (ja) 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US9979961B2 (en) 2011-03-18 2018-05-22 Sony Corporation Image processing device and image processing method
AU2012232423A1 (en) 2011-03-18 2013-09-05 Sony Corporation Image processing device and image processing method
US20140085418A1 (en) 2011-05-16 2014-03-27 Sony Corporation Image processing device and image processing method
CN103597833A (zh) 2011-06-22 2014-02-19 索尼公司 图像处理装置以及方法
BR122015001004B1 (pt) 2011-06-30 2022-07-26 Sony Corporation Dispositivo e método de processamento de imagem
JP2013034171A (ja) 2011-06-30 2013-02-14 Sony Corp 画像処理装置および方法
US9191646B2 (en) 2011-08-29 2015-11-17 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
JPWO2013031575A1 (ja) 2011-08-31 2015-03-23 ソニー株式会社 画像処理装置および画像処理方法
CN104601976A (zh) 2012-01-31 2015-05-06 索尼公司 图像处理装置和图像处理方法

Also Published As

Publication number Publication date
AU2012303085A1 (en) 2014-01-30
RU2016120771A (ru) 2018-11-14
MX338738B (es) 2016-04-29
ZA201400565B (en) 2014-08-27
EP2753080A4 (en) 2015-04-29
RU2597256C2 (ru) 2016-09-10
MX358407B (es) 2018-08-20
CA2842150A1 (en) 2013-03-07
US20140198847A1 (en) 2014-07-17
CN103748883B (zh) 2017-12-15
KR20140057269A (ko) 2014-05-12
CN103748883A (zh) 2014-04-23
RU2014106532A (ru) 2015-08-27
US9900595B2 (en) 2018-02-20
WO2013031573A1 (ja) 2013-03-07
EP2753080A1 (en) 2014-07-09
BR112014004062A2 (pt) 2017-03-07

Similar Documents

Publication Publication Date Title
WO2013031575A1 (ja) 画像処理装置および画像処理方法
JP2021044832A (ja) パーティション符号化を用いた有効な予測
JP2021022947A (ja) 高い分割自由度を伴う効果的なパーティション符号化
AU2017201322B2 (en) Image processing device and method
WO2013115024A1 (ja) 画像処理装置および画像処理方法
WO2012147621A1 (ja) 符号化装置および符号化方法、並びに、復号装置および復号方法
MX2013010423A (es) Aparato de procesamiento de imagenes y metodo de procesamiento de imagenes.
CN103503459A (zh) 图像处理装置和图像处理方法
CN103202019A (zh) 编码装置和编码方法、以及解码装置和解码方法
CN103748884A (zh) 图像处理装置和图像处理方法
US20130259131A1 (en) Image processing apparatus and method
WO2012176684A1 (ja) 画像処理装置および方法
CA3048569A1 (en) Image processing device and image processing method
CN103621094A (zh) 图像处理装置和方法
MX2014002066A (es) Dispositivo de codificacion, metodo de codificacion, dispositivo de descodificacion y metodo de descodificacion.
CN104247433A (zh) 解码装置和解码方法以及编码装置和编码方法
US20140036032A1 (en) Image processing device, image processing method, and program
TWI545935B (zh) Encoding apparatus and an encoding method, a decoding apparatus and decoding method

Legal Events

Date Code Title Description
FG Grant or registration