MX2008012437A - Un metodo y aparato para decodificar/codificar una señal de video. - Google Patents

Un metodo y aparato para decodificar/codificar una señal de video.

Info

Publication number
MX2008012437A
MX2008012437A MX2008012437A MX2008012437A MX2008012437A MX 2008012437 A MX2008012437 A MX 2008012437A MX 2008012437 A MX2008012437 A MX 2008012437A MX 2008012437 A MX2008012437 A MX 2008012437A MX 2008012437 A MX2008012437 A MX 2008012437A
Authority
MX
Mexico
Prior art keywords
view
image
prediction
information
images
Prior art date
Application number
MX2008012437A
Other languages
English (en)
Inventor
Byeong Moon Jeon
Seung Wook Park
Ji Ho Park
Han Suh Koo
Yong Joon Jeon
Original Assignee
Lg Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc filed Critical Lg Electronics Inc
Publication of MX2008012437A publication Critical patent/MX2008012437A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

La presente invención provee un método para decodificar una señal de video. El método incluye los pasos de revisar un esquema de codificación de la señal de video, obteniendo información de configuración para la señal de vadeo de acuerdo con el esquema de codificación, reconociendo un número total de vistas que usan la información de configuración, reconociendo información de referencia de vistas internas basada en el número total de as vistas y decodificando la seña] de video basada en la información de referencia de vistas internas, en donde la información de configuración incluye por lo menos información de vistas para identificar una vista de la señal de video.

Description

UN MÉTODO Y APARATO PAPA DECODIFICAR/CODIFICAR UNA SEÑAL DE VIDEO CAMPO TÉCNICO La presente invención se refiere a un método para decodificar/codificar una señal de video y aparato del mismo.
ANTECEDENTES DE LA INVENCIÓN Codificación de compresión significa una serie de técnicas de proceso de señales para transmitir información digitalizada vía el circuito de comunicación o almacena información digitalizada en una forma adecuada para un medio de almacenamiento. Los objetos para la codificación de compresión incluye audio, video, texto y similares. En particular, una técnica para llevar a acabo la codificación por compresión en una secuencia se llama compresión de secuencia de video. La secuencia de video se caracteriza generalmente para tener redundancia espacial y redundancia temporal .
DESCRIPCIÓN DE LA INVENCIÓN OBJETO TÉCNICO El objeto de la presente invención es para mejorar la eficiencia de codificación de una señal de video.
SOLUCIÓN TÉCNICA Un objeto de la presente invención es codificar una señal de video eficientemente para definir información de vista para identificar una vista de la imagen. Otro objeto de la presente invención es mejorar la eficiencia codificando una señal de video basada en la información de referencia de vista intermedia. Otro objeto de la presente invención es proveer el incremento de vista de una señal de video definiendo información de nivel de vista. Otro objeto de la presente invención es codificar una señal de video eficientemente definiendo un identificador de predicción de síntesis de vista intermedia indicando si obtiene una imagen de una vista virtual.
EFECTOS VENTAJOSOS Para codificar una señal de ideo, la presente invención permite codificar para llevarse a cabo más eficientemente ejecutando la predicción de vista intermedia usando información de vista para identificar una vista de la imagen. Y, definiendo recientemente el nivel de información indicando información para una estructura jerárquica para proveer incremento de vista, la presente invención puede proveer una secuencia de una vista adecuad para un usuario. Además, definiendo una vista que corresponde a un nivel inferior como una vista de referencia, la presente invención provee compatibilidad con un decodificador convencional. Además, la presente invención mejora la eficiencia de codificación decidiendo si se predice una imagen de una vista virtual para llevar a cabo la predicción de vista intermedia. En el caso para predecir una imagen de una vista virtual, la presente invención permite la predicción más precisa, reduciendo asi el número de bits que serán transmitidos.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Fig. 1 es un diagrama de bloques esquemático de un aparato para decodificar una señal de video de acuerdo con la presente invención. La Fig. 2 es un diagrama de información de configuración para un video de vista múltiple que puede adaptarse a una actual de bits codificada de video de múltiples vistas de acuerdo con una modalidad de la presente invención . La Fig. 3 es un diagrama de bloque interno de una unidad de construcción de lista de imágenes de referencia 620 de acuerdo con una modalidad de la presente invención. La Fig. 4 es un diagrama de una estructura jerárquica del nivel de información para proveer aumento de vista de una señal de video de acuerdo a una modalidad de la presente invención.
La Fig. 5 es un diagrama de una configuración de unidad de NAL que incluye nivel de información dentro de un área de extensión de un encabezado de NAL de acuerdo con una modalidad de la presente invención. La Fig. 6 es un diagrama de una estructura predictiva general de una señal de video de múltiples vistas de acuerdo con una modalidad de la presente invención para explicar un concepto de un grupo de imágenes de vista intermedia . La Fig. 7 es un diagrama de una estructura predictiva de acuerdo con una modalidad de la presente invención para explicar un concepto de un grupo de imagen de vista intermedia recién definida. La Fig. 8 es un diagrama de bloques de un aparato para codificar un video de vista múltiple usando información de identificación de un grupo de imágenes de vista intermedia de acuerdo con una modalidad de la presente invención . La Fig. 9 es un diagrama de flujo de un proceso para construir una lista de imágenes de referencia cuando una porción actual es una porción P de acuerdo con una modalidad de la presente invención. La Fig. 10 es un diagrama para explicar un método de inicialización de una lista de imagen de referencia cuando una porción actual es una porción P de acuerdo con una modalidad de la presente invención La Fig. 11 es un diagrama que explica un método para iniciar una lista de imágenes de referencia cuando una porción actual es una porción B de acuerdo con una modalidad de la presente invención. La Fig. 12 es un diagrama de bloque interno de una unidad de reordenamiento de la lista de imágenes de referencia 630 de acuerdo con una modalidad de la presente invención . La Fig. 13 es un diagrama de bloques internos de una unidad de cambio de asignación del índice de referencia 643B o 645B de acuerdo con una modalidad de la presente invención . La Fig. 14 es un diagrama para explicar un proceso para reordenar una lista de imágenes de referencia usando información de vista de acuerdo con una modalidad de la presente invención. La Fig. 15 es un diagrama de bloques interno de una unidad de reordenamiento de la lista de imágenes de referencia 630 de acuerdo con otra modalidad de la presente invención . La Fig. 16 es un diagrama de bloques interno de una unidad de reordenamiento de la lista de imágenes de referencia 970 para predicción de vista interna de acuerdo con una modalidad de la presente invención. La Fig. 17 y la Fig. 18 son diagramas de la sintaxis para el reordenamiento de la lista de imágenes de referencia de acuerdo con una modalidad de la prevete invención . La Fig. 19 es un diagrama de sintaxis para reordenar la lista de imágenes de referencia de acuerdo con otra modalidad de la presente invención. La Fig. 20 es un diagrama para un proceso para obtener un valor de diferencia de iluminación de un bloque actual de acuerdo con una modalidad de la presente invención. La Fig. 21 es un diagrama de flujo de un proceso para llevar a cabo la compensación de iluminación de un bloque actual de acuerdo con una modalidad de la presente invención . La Fig. 22 es un diagrama de un proceso para obtener un valor de predicción de diferencia de iluminación de un bloque actual usando información para un bloque cercano de acuerdo con una modalidad de la presente invención. La Fig. 23 es un diagrama de flujo de un proceso para llevar a cabo la compensación de iluminación usando información para un bloque cercano de acuerdo con una modalidad de la presente invención.
La Fig. 24 es un diagrama de flujo de un proceso para llevar a cabo la compensación de iluminación usando información para un bloque cercano de acuerdo con otra modalidad de la presente invención. La Fig. 25 es un diagrama de un proceso para predecir una imagen actual usando una imagen en una vista virtual de acuerdo con una modalidad de la presente invención . La Fig. 26 es un diagrama de flujo de un proceso para sintetizar una imagen en una vista virtual para llevar a cabo una predicción de vista intermedia en MVC de acuerdo con una modalidad de la presente invención. La Fig. 27 es un diagrama de flujo de un método para lectura una predicción calculada de acuerdo con un tipo de porción en codificación de señal de video de acuerdo con la presente invención. La Fig. 28 es un diagrama de tipos de macrobloques que pueden permitirse en un tipo de porción en codificación de señal de video de acuerdo con la presente invención. La Fig. 29 y Fig. 30 son diagramas de sintaxis para ejecutar una predicción calculada de acuerdo con un tipo de porción recién definido de acuerdo con una modalidad de la presente invención. La Fig. 31 es un diagrama de flujo de un método para ejecutar una predicción calculada usando información de etiqueta que indica si se ejecuta la predicción calculada de vista interna en la codificación de señales de video de acuerdo con la presente invención. La Fig. 32 es un diagrama para aplicar un método de predicción calculado de acuerdo con la información de etiqueta que indica si se ejecuta una predicción calculada usando información para una imagen en una vista diferente a la de una imagen actual de acuerdo con una modalidad de la presente invención. La Fig. 33 es un diagrama de sintaxis para ejecutar una predicción calculada de acuerdo con una información de etiqueta recién definida de acuerdo con una modalidad de la presente invención. La Fig. 34 es un diagrama de flujo de un método para ejecutar una predicción calculada de acuerdo con un tipo de unidad NAL (capa de abstracción de red, NAL, por sus siglas en inglés) de acuerdo con una modalidad de la presente invención. La Fig. 35 y Fig. 36 son diagramas de sintaxis para ejecutar una predicción calculada en el caso en que el tipo de unidad de NAL sea para codificar el video de vistas múltiples de acuerdo con una modalidad de la presente invención . La Fig. 37 es un diagrama de bloques parcial de un aparato de video de decodificación de señales de video de acuerdo con un tipo de porción recién definido de acuerdo con una modalidad de la presente invención. La Fig. 38 es un diagrama de flujo para explicar un método para decodificar una señal de video en el aparato mostrado en la Fig. 37 de acuerdo con la presente invención. La Fig. 39 es un diagrama de un modo de predicción de macrobloques de acuerdo con una modalidad de la presente invención . La Fig. 40 y Fig. 41 son diagramas de sintaxis que tienen el tipo de porción y modo de macrobloques aplicado a la misma de acuerdo con la presente invención. La Fig. 42 es un diagrama de modalidades a las cuales se aplican los tipos de porciones en la Fig. 41. La Fig. 43 es un diagrama de varias modalidades del tipo de porción incluido en los tipos de porciones mostrados en la Fig. 41. La Fig. 44 es un diagrama de un macrobloque que puede permitirse para un tipo de porción mixto por la predicción de dos predicciones mixta de acuerdo con una modalidad de la presente invención. Las Figs. 45 a 47 son diagramas de un tipo de macrobloques de un macrobloque que existe en una porción mixta por predicción de dos predicciones mixtas de acuerdo con una modalidad de la presente invención.
La Fig. 48 es un diagrama de bloques parcial de un aparato de codificación de señales de video de acuerdo con un tipo de porción recién definida de acuerdo con una modalidad de la presente invención. La Fig. 49 es un diagrama de flujo de un método para codificar una señal de video en el aparato mostrado en la Fig. 48 de acuerdo con la presente invención.
MEJOR MODO PARA LLEVAR A CABO LA INVENCIÓN Para lograr estas y otras ventajas y de acuerdo con los fines de la presente invención, como se moraliza y describe ampliamente, un método para codificar una señal de video incluye los pasos de revisar un esquema de codificación de la señal de video, obteniendo información de configuración para la señal de video de acuerdo con el esquema de codificación, reconociendo un número total de vistas usando la información de configuración, reconociendo la información de referencia de vista interna basado en el número total de las vistas, y decodificando la señal de video basada en la información de referencia de vista interna, en donde la información de configuración incluye por lo menos información de vista para identificar una vista de la señal de video. Para lograr además estas y otras ventajas y de acuerdo con el propósito de la presente invención, un método para decodificar una señal de video incluye los pasos de revisar un esquema de codificación de la señal de video, obteniendo información de configuración para la señal de videos de acuerdo con el esquema de codificación, revisando un nivel para incrementar la vista de la seña de video de la información de configuración, reconociendo la información de referencia de vista interna usando la información de configuración y decodificando la señal de video basada en el nivel de la información de referencia de vista interna en donde la información de configuración incluye información de vistas para identificar una vista de la imagen.
MODO PARA LA INVENCIÓN Ahora se hace referencia en detalle a las modalidades preferidas de la presente invención, ejemplos de los cuales se ilustraran en los dibujos anexos. La técnica para comprimir y codificar datos de señal de video considera la redundancia espacial, redundancia temporal, redundancia de incremento, y redundancia de vista interna. Y, también se puede realizar una codificación de comprensión considerando una redundancia mutua entre las vistas en el proceso de codificación de compresión. La técnica para la codificación de compresión, que considera la redundancia de vista interna, solo es una modalidad de la presente invención. Y, la idea técnica de la presente invención se puede aplicar a la redundancia temporal, la redundancia de aumento, etc. Observando una configuración de una actual de bits en H.264/AVC, existe una estructura de capa separada llamada una NAL (capa de abstracción de red) entre una VCL (capa de codificación de video; VCL por sus siglas en inglés) que trata de un propio proceso de codificación de imagen en movimiento y un sistema inferior que transporta y almacena información codificada. Una salida de un proceso de codificación son datos de VCL y se mapea por unidad de NAL antes de transportar o almacenar, Cada unidad de NAL incluye datos de video comprimidos o RBSP (productividad de secuencia de bits en bruto: datos de resultado de la compresión de imágenes en movimiento; RBSP por sus siglas en inglés) que son los datos que corresponden a la información de encabezado . La unidad de NAL incluye básicamente un encabezado NAL y un RBSP. El encabezado NAL incluye información de etiqueta (nal_ref_idc) que indica si una porción como una imagen de referencia de la unidad de NAL se incluye y un identificador (nal_unit_type) que indica un tipo de unidad de NAL. Los datos originales comprimidos se almacén en RBSP. Y, se agrega el bit de rastreo de RBSP a una última porción de RBSP para representar una longitud de RBSP como una multiplicación de 8 bits. Como el tipo de unidad de NAL, es IDR (actualización de decodificación instantánea IDR, por sus siglas en inglés) SPS (conjunto de parámetros de secuencia, SPS, por sus siglas en inglés) , PPS (conjunoto de parámetros de imágenes, PPS, por sus siglas ieen inglés), SET (información de mejora suplemental; SEI, por sus siglas en inglés), o similares. En la estandarización, las restricciones para varios perfiles y niveles se ajusta para permitir la implemenación de un producto blanco con un costo apropiado. En ete caso, un decodificador deberá cumplir con la restricción decidida de acuerdo con el perfil y nivel correspondientes. Por lo tanto, se definen dos conceptos, 'perfil' y 'nivel' se definen para indicar una función o parámetro para representar de que manera el decodificador puede afrontar una escala de una secuencia comprimida. Y, un indicador de perfil (perfil_idc) puede identificar que una actual de bits se basa en un perfil prescrito. El indicador de perfil significa una etiqueta que indica un perfil en el cual se basa una actual de bits. Por ejemplo, en H.264/AVC, si un indicador de perfil es 66, significa que una actual de bits se basa en un perfil de la linea de la base. Si un indicador de perfil es 77, significa que una corriente de bits se basa en un perfil principal. Si un indicador de perfil es 88, significa que una actual de bits se basa en un perfil extendido. Y, el identificador de superficie puede incluirse en un conjunto de parámetros de secuencia. Por lo tanto, con el fin de tratar un video de vista múltiple, necesita identificarse si un perfil de una corrigen de bits introducidos es un perfil de vista múltiple. Si el perfil de la actual de bits introducidos es el perfil de vista múltiple, es necesario agregar la sintaxis para permitir por lo menos una información adicional para que se transmita una vista a múltiple. En este caso, el perfil de vista múltiple indica un modo de perfil que maneja el video de vista múltiple como una técnica enmendada de H.264/AVC. En MVC, puede ser más eficiente para agregar la sintaxis con información adicional para un modo de MVC en lugar de la sintaxis incondicional. Por ejemplo, cuando un indicador de perfil de AVC indica un perfil de vista múltiple, si se agrega la información para un video de vista múltiple, puede aumentar la eficiencia de codificación. Un conjunto de parámetros de secuencia indica información de encabezado que contiene entrelazamiento de información sobre la codificación de una secuencia general tal como un perfil, un nivel, y similares. Una imagen en movimiento comprimida, es decir, una secuencia deberá iniciar en un encabezado de secuencia. Por lo tanto, un conjunto de parámetros de secuencia que corresponden a la información del encabezado deberán llegar a un decodificador antes de los datos que se refieren al conjunto de parámetros que llega. A saber, el conjunto de parámetros de secuencia RBSP juega un papel en cuanto a la información de encabezado para los datos de resultado de la compresión de las imágenes en movimiento, Se introduce una corriente de bits, un indicador de perfil identifica preferiblemente que la actual de bis introducida se basa en uno de una pluralidad de perfiles. De esta manera, agregando una parte para decidir si la actual de bits introducida se refiere a un perfil de vista múltiple (v.gr., 'Si (profile_idc==MULTI_VIEW_PROFILE) ' ) para la sintaxis, se decide si la actual de bits introducida se refiere al perfil de vista múltiple. Varias clases de información de configuración se puede agregar únicamente si la actual de bits introducida se aprueba con referencia al perfil de vista múltiple. Por ejemplo, puede agregar cierto número de vistas totales, un número de imágenes de referencia de vista interna (ListO/1) en el caso de un grupo de imágenes de vista intermedia, un número de imágenes de referencia de vista intermedia (ListO/1) en el caso de un grupo de imagen de vista no interna, y similares. Y varias informaciones para la vista son útiles para la generación y manejo de una lista de márgenes de referencia en una segunda memoria interna decodificada .
La Fig. 1 es un diagrama de bloques esquemático de un aparato para decodificar una seña de video de acuerdo con la presente invención. Haciendo referencia ahora a la Fig.l, un aparato para decodificar una señal de video de acuerdo con la presente invención incluye un analizador NAL 100, una unidad de decodificación de entropía 200, una unidad de cuantificación inversa/transformación inversa 300, una unidad de intra-predicción 400, una unidad de filtro de desbloqueo 500, una unidad de solución reguladora de imagen decodificada 600, una unidad de predicción interna 700, y similares. La unidad de memoria interna de imágenes decodificada 600 incluye la unidad de almacenamiento de imagen de referencia 610, una unidad de construcción de lista de imágenes de referencia 620, una unidad de manejo de imágenes de referencia 650, y similares. Y la unidad de construcción de lista de imágenes de referencia 620 incluye una unidad de derivación variable 625, una unidad de inicialización de lista de imágenes de referencia 630, y una unidad de reordenamiento de lista de imágenes de referencia 640. Y, la unidad de inter-predicción 700 incluye una unidad de compensación de movimiento 710, una unidad de compensación de iluminación 720, una unidad de predicción de diferencia de iluminación 730, una unidad de predicción de síntesis de vista 740 y similares. El analizador NAL 100 porta el analizador por la unidad de NAL para decodificar una secuencia de video recibida. En general, por lo menos un conjunto de parámetro de secuencia y por lo menos un conjunto de parámetro de imagen se transfieren a un decodificador antes de un encabezado de porciones y se decodifican los datos de porciones. En este caso, varias clases de las infamaciones de configuración pueden incluirse en un área de encabezado NAL o un área de extensión de un encabezado NAL. Dado que MVC es una técnica de enmiendas para una técnica de AVC convencional, puede ser más eficiente para agregar las informaciones de configuración en el caso de una actual de bits de MVC únicamente en lugar de una adición no condicional. Por ejemplo, puede agregar información de etiqueta para identificar una presencia o ausencia de una corriente de bits de MVC en el área de encabezado de NAL o el área de extensión del encabezado de NAL. Únicamente si una actual de bits introducida es una corriente de bis codificada de video de acuerdo con la información de etiqueta, puede agregar informaciones de configuración para un video de vista múltiple. Por ejemplo, las informaciones de configuración pueden incluir información de nivel temporal, la información de nivel de visión, información de identificación de grupo de imágenes de vista interna, información de identificación de visón, y similares. Se explica en detalle con referencia a la Fig. 2 de la siguiente manera. La Fig. 2 es un diagrama de información de configuración para un video de múltiples vistas que pueden sumarse a una actual de bits codificada de video de vista múltiple de acuerdo con una modalidad de la presente invención. Los detalles de información de configuración para aun video de vistas múltiples se explican en la siguiente descripción . Primero que todo, la información de nivel temporal indica información para una estructura jerárquica para proveer aumento temporal de una señal de video (®) . A través de la información de nivel temporal, puede proveer a un usuario las secuencias en varias zonas de tiempo. La información de nivel de visión indica la información para una estructura jerárquica para proveer aumento de vista de una señal de video (©) . En un video de vistas múltiples, es necesario definir unible durante un tiempo y unible para una vista para proveer a un usuario con varas secuencias temporales de de vista. En el caso de definir la información de nivel anterior, puede usar aumento temporal y aumento de vista. Por lo tanto, un usuario puede seleccionar una secuencia en un momento y vista específicos, o una secuencia seleccionada puede restringirse por una condición . Las informaciones de nivel pueden ajustarse en varias formas de acuerdo con una condición especifica. Por ejemplo, la información de nivel puede ajustarse diferencialmente de acuerdo a la ubicación de la cámara o alineación de la cámara. Y, la información de nivel puede determinarse considerando dependencia de visión. Por ejemplo, un nivel para una vista que tiene la imagen I en un grupo de imágenes de vista interna se ajusta a 0, un nivel para una vista que tiene una imagen P en el grupo de imagen de vista interna se ajusta a l, y un nivel para una vista que tiene una imagen B en el grupo de imagen de vista interna se ajusta a 2. Además, las informaciones de nivel pueden ajustarse aleatoriamente no basadas en una condición especial. La información de nivel de vista será explicado en detalle con referencia a la Fig. 4 y la Fig. 5 posterior. La información de identificación del grupo de imagen de vista interna indica la información para identificar si una imagen codificada de una unidad de NAL de corriente es un grupo de imagen de vista interna (®) . En este caso, el grupo de imagen de vista interna significa una imagen codificada en la cual todas las porciones hacer referencia únicamente a porciones con el mismo orden de conteo de imágenes. Por ejemplo, el grupo de imágenes de vista interna significa una imagen codificada que se refiere a porciones en una vista diferente únicamente sin hacer referencia a las porciones en una vista actual. En un proceso de decodificación de un video de vista múltiple, se puede requerir un acceso aleatorio de vista interna. La información de identificación de grupo de imagen de vista interna puede realizar necesariamente un acceso aleatorio eficiente. Y, la información de referencia de vista interna puede ser necesaria para la predicción de vista interna. De esta manera, la información de identificación de grupo de imágenes de vista interna se puede usar para obtener la información de referencia de vista interna. Además, la información de identificación de grupo de imagen de vista interna puede usarse para agregar imágenes de referencia para predicción de vista interna en la construcción de una lista de imágenes de referencia. Además, la información de identificación del grupo de imágenes de vista interna puede usarse para manejar las imágenes de referencia agregadas para la predicción de vista interna. Por ejemplo, las imágenes de referencia pueden clasificarse en grupos de imágenes de vista interna y grupos de imágenes de vista no interna y las imágenes de referencia clasificadas pueden marcar las imágenes de referencia que no se pueden usar para la predicción de vista interna que no deberá usarse. Mientras, la información de identificación de grupo de imágenes de vista interna se puede aplicar a un decodificador de referencia hipotética. Los detalles de la información de identificación de imagen de vista interna serán explicados con referencia a la Fig. 6 posterior. La información de identificación de vista significa información para discriminar una imagen en una vista actual de una imagen en una vista diferente (©) . Para codificar una señal de video, el POC (conteo de orden de imágenes, POC por sus siglas en ingles) o "frame_num' puede usarse para identificar cada imagen. En el caso de una secuencia de video de múltiples vistas, la predicción de vistas interna pude ejecutarse. De esta manera la información de identificación para discriminar una imagen en una vista corriente de una imagen en otra vista es necesaria. De esta manera, es necesario definir la información de identificación de vista para identificar una vista de una imagen. La información de identificación de vistas puede obtenerse de un área superior de una señal de video. Por ejemplo, el área de encabezado de ser un área de encabezado de NAL, un área de extensión de un encabezado de NAL, o un área superior de porciones. La información para una imagen en una vista diferente de la de una imagen actual se obtiene usando la información de identificación de vista y puede decodificar la señal de video usando la información de la imagen en diferentes vistas. La información de identificación de vista se puede aplica a un proceso general de codificación/decodificación de la señal de video. Y, la información de identificación de vista puede aplicarse para codificar el video de múltiples vistas usando el 'frame_num' que considera una vista en lugar de considerar un identificador de vistas especificas. Mientras, la unidad de decodificación de vista 200 lleva a cabo la decodificación de entalpia en una corriente de bits analizada, y se extrae un coeficiente de cada macrobloques, un vector de movimiento, y similares. La unidad de cuantificación inversa/transformación inversa 300 obtiene un valor de coeficiente transformado multiplicando un valor cuantificado recibido por una constante y luego transforma el valor de coeficientes inversamente para reconstruir un valor de pixeles. Usando el valor de pixeles reconstruidos, la unidad de predicción interna 400 realiza una predicción interna de una muestra decodificada dentro de una imagen corriente. Mientras, la unidad de filtro de desbloqueo 500 se aplica a cada macrobloque codificado para reducir la distorsión de bloques. Un filtro uniformiza un borde de bloques para mejorar la calidad de imágenes de un marco decodificado . Una selección de un proceso de filtro depende de la resistencia de limite y gradiente de una muestra de imagen alrededor de un limite. La imágenes a través del filtro se extraen o almacenan el la unidad de memoria interna de imágenes decodificadas 600 para usarse como imágenes de referencia .
La unidad de memoria interna decodificada 600 juega un papel para almacenar abrir las imágenes previamente codificadas para realizar un a predicción interna. En este caso, para almacenar las imágenes en la unidad de memoria interna de imágenes decodificadas 600 o para abrir las imágenes, 'frame_num' y POC (contenido de orden de imágenes) de cada imagen. De esta manera, dado que existen imágenes en una vista diferente a la de una imagen corriente entre las imágenes previamente codificadas, la información de vista para identificar una vista de una imagen pueden usarse junto con 'frame_num' y POC. La unidad de memoria interna de imágenes decodificada 600 incluye la unidad de almacenamiento de imágenes de referencia 601, la unidad de construcción de la lista de imágenes de referencia 620, y la unidad de manejo de imágenes de referencia 650. La unidad de almacenamiento de imágenes de referencia 610, la unidad de construcción de la lista de imágenes de referencia 620, y la unidad de manejo de imágenes de referencia 650. La unidad de almacenamiento de imágenes de referencia 610 almacena imágenes que serán denominadas para la codificación de la imagen corriente. La unidad de construcción de lista de imágenes de referencia 620 construye un alista de imágenes de referencia para la predicción interna de las imágenes. En la decodificación de videos de vista múltiple, la predicción de vista interna puede ser requerida. Por lo tanto, si una imagen actual se refiere a una imagen en otra vista, puede ser necesario construir una lista de imágenes de referencia para la predicción de vista interna. En este caso, la unidad de construcción de lista de imágenes de referencia 620 puede usar información para la vista generando la lista de imágenes de referencia para la predicción de vista interna. Los detalles de la unidad de construcción de la lista de imágenes de referencia 620 se explicará con regencia a la Fig. 3 posterior . La Fig. 3 es un diagrama de bloques interno de una unidad de construcción de la lista de imágenes de referencia 620 de acuerdo con una modalidad de la presente invención. La unidad de construcción de la lista de imágenes de referencia 620 incluye la unidad de derivación variable 625, la unidad de inicialización de la lista de imágenes de referencia 630, y la unidad de reordenamiento de la lista de referencia 640. La unidad de derivación variable 625 deriva variables usados para la inicialización de la lista de imágenes de referencia. Por ejemplo, la variable puede criarse usando 'frame_num' indicado un número de identificación de imágenes. En particular, las variables FrameNum y FrameNumWarap pueden usarse para cada imagen de referencia a corto plazo. Primero que todo, la variable FrameNum es igual a un valor de un elemento de sintaxis frame_num. La variable FameNumWrap puede usarse para la unidad de memoria interna de imagen decodificada 600 para asignar un número pequeño a cada imagen de referencia. Y, la variable FrameNumWrap puede derivarse de la variable FrameNum. Por lo tanto, puede derivarse una variable PicNum usando la variable derivada FameNumWrap. En este caso, la variables PicNum puede significar un número de identificación de una imagen usada por la unidad de memoria interna de imagen codificada 600. En el caos de indicar una imagen de referencia a largo plazo, se puede usar una variable LongTermPicNum. Con el fin de construir una lista de imagen de referencia para la predicción de vista interna, puede derivar una primera variable (v.gr., ViewNum) para construir una lista de imagen de referencia para la predicción de vista interna. Por ejemplo, puede derivar una segunda variable (v.gr., Viewld) usando 'view_id' para identificar una vista de una imagen. Primero que todo, la segunda variable puede ser igual a un valor del elemento de sintaxis 'view_id'. Y, una tercera variable (v.gr., ViewIdWrap) puede usarse para la unidad de memoria interna de imagen decodificada 600 para asignar un número de identificación de vista pequeña a cada imagen de referencia y puede derivarse de la segunda variable. En este caso, la primera variable ViewNum puede significar un número de identificación de vista de imagen usada por la unidad de memoria interna de imágenes decodificada 600. Aún, dado que un número de imágenes de referencia usados para la predicción de vista interna en codificación de video de vista múltiple puede ser relativamente más pequeño que el usado para la predicción temporal, puede no definir otra variable para indicar un número de identificación de visión de una imagen de referencia a largo plazo. La unidad de inicialización de lista de imágenes de referencia 630 inicializa una lista de imágenes de referencia usando las variables mencionadas antes. En este caso, un proceso de inicialización para la lista de imágenes de referencia pueden diferir de acuerdo con un tipo de porciones. Por ejemplo, en el caso de decodificación de una porción P, puede asignar una base de índice de referencia en un orden de decodificación. En el caos de decodificar una porción B, puede asignar un índice de referencia basado en un orden de salida de imagen. En el caso de iniciar una lista de imagen de referencia para la predicción de vista interna, puede asignar un índice a una imagen de referencia basada en la primera variable, es decir, la variable derivada de la información de vista. La unidad de reordenación de la lista de imágenes de referencia 640 juega un papel para mejorar una eficiencia de comprenden asignado un índice menor a una imagen a la que se hace referencia frecuentemente en la lista de imágenes de referencia inicializada . Esto se debe a que un bit pequeño se asigna si un índice de referencia para codificación se vuelve menor . Y, la unidad de reordenamiento de la lista de imágenes de referencia 640 incluye una unidad de revista del tipo de porciones 642, una unidad de reordenamiento de la lista de imágenes de referencia 0 643, y una unidad de reordenamiento de la lista de imágenes de referencia 1 645. Si se introduce una lista de imágenes de referencia inicializadas, la unidad de revisión del tipo de porciones 642 revisa un tipo de una porción que será codificada y luego decide si reordena una lista de imágenes de referencia 0 o una lista de imágenes de referencia 1. De esta manera, la unidad de reordenamiento de la lista de imágenes de referencia o/l 643, 645, lleva a cabo el reordenamiento de la lista de imágenes de referencia 0 si el tipo de porciones no es una porción I y también realiza el reordenamiento de la alista de imágenes de referencia 1 adicionalmente si el tipo de porciones es una porción B. Por lo tanto, después un extremo del proceso de reordenamiento, se construye una lista de imágenes de referencia. La unidad de reordenamiento de la lista de imágenes de referencia 0/1 643, 645, incluye una unidad de obtención de información de identificación 643A, 645A y una unidad de cambio de asignación de índice de referencia 643B, 645B, respectivamente. La unidad de obtención de información de identificación 643A, 645A recibió información de identificación ( reordering_of_pic_nums_idc) indicando un método de asignación de un índice de referencia se reordena una lista de imágenes de referencia se lleva a cabo de acuerdo con la información de etiqueta que indica si se ejecuta el reordenamiento de la lista de imágenes de referencia. Y, la unidad de cambio de asignación de índice de referencia 643B, 645B reordena la lista de imágenes de referencia cambiando una asignación de un índice de referencia de acuerdo a la información de identificación. Y, la unidad de reordenamiento de la lista de imágenes de referencia 640 se puede operar por otro método. Por ejemplo, el reordenamiento puede ejecutarse revisando un tipo de unida de NAL transferido antes de pasar a través de la unidad de revista del tipo de porciones 642 y luego se clasifica la unidad de NAL del tipo en un caso de NAL de VMC y un caso de NAL que no es MVC. La unidad de manejo de imágenes de referencia 650 maneja imágenes de referencia para ejecutar la predicción interna más flexiblemente. Por ejemplo, un método de operación de control de manejo de memoria y un método de ventana deslizable son útiles. Esto maneja una memoria de imágenes de referencia y una memoria de imágenes de que no son de referencia unificando las memorias en una memoria y realiza un manejo de memoria eficiente con una memoria pequeña. En la codificación de video de visón múltiple, dado que las imágenes en una dirección de vista tienen el mismo conteo de órdenes de imágenes, la información para identificar una vista de cada una de las imágenes se pueden usar para formar imágenes en una dirección de vista. Y, las imágenes de referencia manejadas en la forma anterior se pueden usar por la unidad de predicción interna 700. La unidad de predicción interna 700 lleva a cabo la predicción interna usando imágenes de referencia almacenadas en la unidad de memoria interna de imagen decodificada 600. Un macrobloques codificados internos pueden dividirse en vistas de macrobloques. Y, cada una de las vistas de macrobloques pueden predecirse de una o os imágenes de referencia. La unidad de predicción interna 700 incluye la unidad de compensación de movimiento 710, la unidad de compensación de iluminación 720, la unidad de predicción de diferencia de iluminación 730, la unidad de predicción de síntesis de vista 740, la unidad de predicción calculada 750, y similares. La unidad de compensación de movimiento 710 compensa un movimiento de un bloque actual usando informaciones transferidas de la unidad de decodificación de entropía 200. Los vectores de movimiento de los bloques cercanos del bloque actual se extraen de una señal de video y luego un predictor de vector de movimiento del bloque actual se derivan de los vectores en movimiento de los bloques cercanos. Y el movimiento del bloque actual se compensa usando el predictor de vector de movimiento derivado y un vector de movimiento diferencial extraído de la señal de video. Y, puede realiza la compensación de movimiento usando una imagen de referencia o una pluralidad de imágenes. En la codificación de video de vista múltiple, en el caso de que una imagen actual se refiere a imágenes en diferentes visas, puede realizar la compensación de movimiento usando información de lista de imágenes de referencia ara la predicción de vista interna almacenada en la unidad de memoria interna decodificada 600. Y, también puede realizar la compensación de movimiento usando información de vista para identificar una vista de la imagen de referencia. Un modo directo es un modo de codificación para predecir la información de movimiento de un bloque corriente de la información de movimiento para un bloque codificado. Dado que esté método puede ahorrar un número de bits requerido para codificar la información de movimiento, se mejora la eficiencia de comprensión. Por ejemplo, un modo de dirección temporal predice la información de movimiento para un bloque actual usando una correlación de información de movimiento en una dirección temporal. Usando un método similar a este método, la presente invención puede predecir información de movimiento para un bloque actual usando una correlación de la información de movimiento en una dirección de vistas. Mientras, en el caso en que una actual de bits introducida corresponde a un video de vista múltiple, dado que las secuencias de vistas respectivas se obtienen por diferentes cámaras, una diferencia de iluminación se genera por factores internos y externos de las cámaras. Para evitar esto, la unidad de compensación de iluminación 720 compensa la diferencia de iluminación. Para llevar a cabo la compensación de iluminación. Para llevar a cabo la compensación de iluminación, puede usar información de etiqueta indicando si se lleva a cabo la compensación de iluminación en una capa especifica de una señal de video. Por ejemplo, puede realizar una compensación de iluminación en una capa especifica de una señal de video. Por ejemplo, puede realizar una compensación de iluminación usando información de etiqueta que indica si se realiza la compensación de iluminación en una porción correspondiente o macrobloque. Para llevar a acabo la compensación de iluminación usando la información de etiqueta, la compensación de iluminación se puede aplicar a varios tipos de macrobloques (v.gr., modo interno 16 x 16, modo de salto B, modo directo, etc.). Para llevar a cabo la compensación de iluminación puede usarse información para un bloque cercano o información para un bloque en una vista diferente a la de un bloque corriente para reconstruir el bloque actual. Y, también puede usar un valor de diferencia de iluminación del bloque actual. Y, también puede usar un valor diferencial de iluminación del bloque actual. En este caso, si el bloque actual se refiere a los bloques en un avita diferente, puede realizar la compensación reiluminación usando la información de lista de imágenes de referencia para la predicción de vista interna almacenada en la unidad de memoria interna de imagen decodificada 600. En este caso, el valor de diferencia de iluminación del bloque actual indica una diferencia entre un valor de pixeles promedio del bloque actual y un valor de pixeles promedio de un bloque de referencia que corresponde al bloque actual. Por ejemplo, para usar el valor de diferencia de iluminación, el valor de predicción de diferencia de iluminación del bloque actual se obtiene usando los bloque cercanos del bloque actual y un valor de diferencia (diferencia de iluminación residual) entre el valor de diferencia de iluminación y se usa el valor de predicción de diferencia de iluminación. Por lo tanto, la unidad de decodificación puede reconstruir el valor de diferencia de iluminación del bloque actual usando la diferencia de iluminación residual y el valor de predicción de diferencia de iluminación. Para obtener un valor de predicción de diferencia de iluminación de un bloque actual, puede usar información para un bloque cercano. Por ejemplo, puede predecir un valor de diferencia de iluminación de un bloque actual usando un valor de diferencia de iluminación de un bloque cercano. Antes de la predicción, se revisa si un índice de referencia del bloque actual es igual al del bloque cercano. De acuerdo con un resultado de la revisión, se decide que la clase de un bloque cercano será usado un valor. La unidad de predicción de síntesis de vista 740 se usa para sintetizar imágenes en una vista virtual que usa imágenes en una vista cercana a una vista de una imagen actual y predice la imagen actual usando las imágenes sintetizadas en la vista virtual. La unidad de decodificación puede decidir si se sintetiza una imagen en una vista virtual de acuerdo con un identificador de predicción de síntesis de vista interna transferida de una unidad de codificación. Por ejemplo, si view_synthesize_pred_flag = 1 o view_syn_pred_flag = 1, una porción o macrobloque en una vista virtual se sintetizó. En este caso, cuando el identificador de predicción de síntesis de vista interna informa que será generada una vista virtual, puede entrar una imagen en la vista virtual usando información de vistas para identificar una vista de imagen. Y, para predecir una imagen actual de las imágenes sintetizadas en la vista virtual, puede usar la información de vista para usar la imagen en la vista virtual como una imagen de referencia.
La unidad de predicción calculada 750 se usó para compensar un fenómeno en cuanto a que la calidad de una imagen de una secuencia se degrada considerablemente en el caso de codificar la secuencia de la cual la brillantez varia temporalmente. En MVC, la predicción calculada puede llevarse a cabo para compensar una diferencia de brillantez de una secuencia en una vista diferente asi como se realiza para una secuencia de la cual varia temporalmente la brillantez. Por ejemplo, el método de predicción calculada puede clasificarse en el método de predicción calculado explícito y el método de predicción calculado implícito. En particular, el método de predicción calculada explícita puede usar una imagen de referencia o dos imágenes de referencia. En el caso de usar una imagen de referencia, una señal de predicción se genera de la multiplicación de una señal de predicción que corresponde a la compensación por un coeficiente calculado. En el caso de usar dos imágenes de referencia, se generó una predicción de la adición de un valor desviado a un valor que resulta de la multiplicación de una señal de predicción que corresponde a la compensación de movimiento por un coeficiente de peso. Y, la predicción calculada implícita realiza una predicción calculada usando una distancia desde una imagen de referencia. Como un método para obtener la distancia de la imagen de referencia, puede usar POC (conteo de orden de imágenes) indicando, por ejemplo, un orden de salida de imágenes. En este caso, POC puede obtenerse considerando la identificación de una vista de cada imagen. Para obtener un coeficiente de peso para una imagen en una vista diferente, puede usar información de vista para identificar una vista de una imagen para obtener una distancia entre las vistas de las imágenes respectivas. En la codificación de señal de video, la información de profundidad es útil para una aplicación especifica u otro propósito. En este caso, la información profunda puede significar la información capaz de indicar una diferencia de disparidad de vista interna. Por ejemplo, puede obtener un vector de disparidad por predicción de vista interna. Y, el vector de disparidad obtenida puede transferirse a un aparato de decodificación para compensación de disparidad de un bloque actual. Aún, si se obtiene un mapa profundo y luego se transfiere al aparato de decodificación, el vector de disparidad puede inferirse del mapa profundo (o mapa de disparidad) sin transferir el vector de disparidad al aparato de decodificación. En este caso, es ventajoso en cuanto que puede reducirse el número de bits de información profunda sea transferido al aparato de decodificación. Por lo tanto, derivando el vector de disparidad del mapa profundo, puede proveer un nuevo método de compensación de disparidad. Por lo tanto, en el caso de usar una imagen en una vista diferente en el transcurso de la derivación del vector de disparidad del mapa profundo, se puede usar la información de vistas para identificar una vista de la imagen. Las imágenes inter-vistas o intra-previstas a través del proceso explicado antes se seleccionan de acuerdo con un modo de predicción para reconstruir una imagen actual. En la siguiente descripción, se explican varias modalidades que proveen un método de decodificación eficiente de una señal de video. La Fig. 4 es un diagrama de una estructura jerárquica de la información de nivel para proveer el aumento de vista de una señal de video de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 4, el nivel de información para cada vista puede decidirse considerando la información de referencia de vista interna. Por ejemplo, dado que es imposible decodificar una imagen P y una imagen B sin una imagen I, puede asignar el 'level=0' a una vista de base de la cual el grupo de imágenes es la imagen I, 'level=l' a una vista de base de la cual el grupo de imágenes de vista interna es la imagen P, y 'level=2'a a una vista de base de la cual el grupo de imagen de vista interna es la imagen B. Aún, tumben puede decidir aleatoriamente la información de un nivel de acuerdo con una normal especifica.
La información de nivel puede decidirse aleatoriamente de acuerdo con una normal especifica o sin una normal. Por ejemplo, en el caso que la información de nivel se decide con base en una vista, puede establecer una vista VO como una vista de base al nivel de vista 0, una vista de imágenes previstas usando las imágenes en una vista al nivel de vista 1, y una vista de imágenes previstas usando las imágenes en una pluralidad de vistas a un nivel de vista 2. En este caso, puede requerirse por lo menos una secuencia de vistas para tener compatibilidad con un decodificador convencional (v.gr., H.264/aVC, MPEG-2, MPeG-4, etc.). Esta vista de base se convierte en una base de la codificación de múltiples vistas, que pueden corresponder a una vista de referencia para la predicción de otra vista. Una secuencia que corresponde a una vista de base en MVC (codificación de video de múltiples vistas) pueden configurarse en una corriente de bits independientes siendo codificada por un esquema de codificación de secuencia convencional (MPEG-2, MPEG-4, H.263, H. 264, etc.). Una secuencia que corresponde a una vista de base es compatible con H.264/AVC o no lo puede ser. Aún, una secuencia en una vista compatible con H.264/AVC corresponde a una vista de base. Como se puede observar en la Fig. 4, puede establecer una vista V2 de las imágenes previstas usando imágenes en la vista VO, una vista V4 de las imágenes previstas usando imágenes en la vista V2, una vista V6 de las imágenes previstas usando imágenes en la vista V4, y una vista V7 de las imágenes previstas usando imágenes en la vista V6 a la vista del nivel 1. Y, puede ajustar una vista VI de imágenes previstas usando imágenes en las vistas VO y V2 y una vista V3 prevista de la misma manera, y una vista V5 prevista de la misma manera al nivel de vista 2. De esta manera, en el caso de que el decodificador del usuario no puede observar una secuencia de video de vistas múltiples, codifica secuencias en la vista que corresponde únicamente al nivel de vista 0. En el caso de que el decodificador del usuario se restringe por información de perfil, puede decodificar la información únicamente de un nivel de vista restringido. En este caso, un perfil significa que los elementos técnicos para el algoritmo en un proceso de codificación /decodificación de video se estandarizan. En particular, el perfil es un conjunto de elementos técnicos requeridos para decodificar una secuencia de bits de una secuencia comprimida y pueden se una clase de una subestadarización . De acuerdo con otra modalidad de la presente invención, la información del nivel puede variar de acuerdo co la ubicación de una cámara. Por ejemplo, suponiendo que las vistas VO y VI son secuencias obtenida por una cámara localizada en la parte frontal, dichas vistas V2 y V3 son secuencias localizadas en la parte posterior, las vistas V4 y V5 son secuencias localizadas en la izquierda y las vistas V6 y V7 son secuencias localizadas en la parte derecha, puede fijar las vistas VO y VI al nivel de vista 0, las vistas V2 y V3 al nivel de vista 1, las vistas V4 y V5 al nivel de vista 2, y las vistas V6 y V7 al nivel de vista 3. Alternativamente, la información de nivel puede variar de acuerdo con la alineación de cámara. Alternativamente, la información de nivel puede decidirse aleatoriamente sin estar basado en una estándar especifica. La Fig. 5 es un diagrama de una configuración de unidad NAL que incluye información de nivel dentro de un área de extensión de un encabezado de NAL de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 5, una unidad NAL incluye un encabezado NAL y RBSP. El encabezado NAL incluye y información de etiqueta (nal_ref_idc) que indican si se incluye una porción se convierte en una imagen de referencia de la unidad de NAL y un identificador (nal_unit_type) indicando un tipo de la unidad de NAL. Y, el encabezado de NAL además puede incluir la información de nivel (view_level) indicado información para que una estructura jerárquica provea aumento de visión. Los datos originales comprimidos se almacenan en RBSP, y se agrega al bit de trayectoria de RBSP se agregó a una última porción de RBSP para representar una longitud de BSP como un número de multiplicación de 8 bits. Como los tipos de la unidad de NAl, y IDR (actualización de decodificación instantánea), SPS (conjunto de parámetros de secuencias), PPS (conjunto de parámetros de imágenes), SEI (información incrementada suplemental), etc. El encabezado de NAL incluye información para un identificador de vista. Y, una secuencia de video de un nivel de vista correspondiente se decodifica con referencia al identificador de vistas en el transcurso para llevar a cabo la decodificación de acuerdo con un nivel de vista. La unidad de NAL incluye un encabezado de NAL 51 y una capa de porciones 53. El encabezado de NAL 51 incluye una extensión de encabezado de NAL 52. Y, la capa de porciones 53 incluye un encabezado de porciones 54 y un dato de porciones 55. El encabezado de NAL 51 incluye un identificador (nal_unit_type) indicando un tipo de la unidad de NAL. Por ejemplo, el identificador que indica el tipo de unidad de NAL puede ser un identificador para la codificación creciente y la codificación de video de múltiples vistas. En este caso, la extensión de encabezado de NAL 52 puede incluir información de etiqueta que discrimina si un NAL actual es el NAL para la codificación de video creciente o NAL para la codificación de video de vista múltiple. Y, la extensión de encabezado NAL 52 puede incluir información de extensión para NAL actual de acuerdo con la información de etiqueta. Por ejemplo, en el caso de que NAL actual es el NAL para la codificación de video de vista múltiple de acuerdo con la información de etiqueta, la extensión de encabezado de NAL 52 puede incluir información de niveles (view_level) indicando la información para una estructura jerárquica para proveer aumento de vistas. La Fig. 6 es un diagrama de una estructura predictiva general de una señal de video de vistas múltiples de acuerdo con una modalidad de la presente invención para explicar un concepto de un grupo de imágenes de visas internas . Haciendo referencia a la Fig. 6, TO a T100 sobre un eje horizontal indica marcos de acuerdo con el tiempo y SO a S7 sobre un eje vertical indica marcos de acuerdo con la vista. Por ejemplo, las imágenes en TO significan marcos capturados por diferentes cámaras sobre la misma zona de tiempo TO, mientras que las imágenes en SO significan secuencias capturadas por una sola cámara en diferentes zonas de tiempo. Y, las flechas en el dibujo indican direcciones predictivas y ordenes predictivos de las imágenes respectivas. Por ejemplo, una imagen PO en una vista S2 en una zona de tiempo TO es una imagen prevista de 10, que se convierte en una imagen de referencia de una imagen PO en una vista S4 en la zona de tiempo TO.. y, se convierte en una imagen de referencia de las imágenes Bl y B2 en las zonas de tiempo T4 y T2 en la vista S2, respectivamente. En un proceso de decodificación de video de múltiples vistas, puede requerirse un acceso aleatoria de vistas internas. Por lo tanto, deberá ser posible un acceso a una vista aleatoria reduciendo el esfuerzo de decodificación. En este caso, se puede requiere un concepto de un grupo de imágenes de vistas internas para realizar un acceso eficiente. El grupo de imágenes de vistas internas significa una imagen codificada en la cual todas las porciones hacen referencia únicamente a las porciones con el mismo conteo de órdenes de imágenes. Por ejemplo, el grupo de imágenes de vistas internas significa una imagen codificada que se refiere a las porciones en una vista diferente únicamente sin referirse a las porciones en una vista actual. En la Fig. 6, si una imagen 10 en una vista SO en una zona de tiempo TO se convierten en grupos de imágenes de vistas internas. Para otro ejemplo, si una imagen 10 en una vista SO en una zona de tiempo T8 es un grupo de imágenes de vistas internas, todas las imágenes en diferentes vistas en la misa zona de tiempo, es decir, la zona de tiempo T8 son grupos de imágenes de vistas internas. As'+i mismo, todas las imágenes en T16, T96, y T100 se convierten también en grupos de imágenes de vistas internas.
La Fig. 7 es un diagrama de una estructura predictiva de acuerdo con una modalidad de la presente invención para explicar un concepto de un grupo de imágenes de vistas internas recién definidas. En una estructura predictiva general de MVC, GOP pueden iniciar con una imagen I. Y, la imagen I es compatible con H.264/AVC. Por lo tanto, todos los grupos de imágenes de vistas internas compatibles con H.264/AVC siempre pueden convertirse en la imagen I. Aún, en el caso en que las imágenes I se reemplazan por una imagen P, se permite la codificación más eficiente. En particular, la codificación más eficiente se permite usando la estructura predictiva que permite que índice GOP con la imagen P compatible con H.264/AVC. En este caso, si el grupo de imanes de vistas internas se vuelve a definir, todas las porciones se convierten en imágenes codificadas capaces de referirse únicamente a una porción en un marco en una misma zona de tiempo pero también una porción en la misma vista en una zona de tiempo diferente. Aún, en el caso de referirse a una porción de una zona en tiempo diferente en una misma vista, puede ser restringida al grupo de imágenes de vistas internas compatibles únicamente con H.264/AVC. Por ejemplo, una imagen P en un punto de control de tiempo T8 en una vista SO en la Fig. 6 puede convertirse a un grupo de imágenes de vistas internas recién definidas. Asi mismo, una imagen P en un punto de control de tiempo T96 en una vista SO o una imagen P en un punto de control de tiempo T1000 en una vista SO se convierte en un grupo de imagen de vista interna región definida. Y, el grupo de imagen de vista interna puede definirse únicamente si es una vista de base. Después de que se ha codificado el grupo de imágenes de vista interna, todas las imágenes secuencialmente codificadas se decodifican de las imágenes codificadas sobre el grupo de imágenes de vistas internas en un orden de salida sin predicción interna. Considerando que la estructura de codificación general del video de vistas múltiples mostradas en la Fig. 6 y Fig. 7, dado que la información de referencia de vista interna de un grupo de imágenes de vista interna difiere del de un grupo de imagen de vista no interna, es necesario para discriminar el grupo de imágenes de vistas internas y el grupo de imágenes de visas no internas entre ellas de acuerdo con la información de identificación del grupo de imágenes de vistas internas. La información de referencia de vistas internas significa la información capaz de reconocer una estructura predictiva entre las imágenes de vistas internas. Esto puede obtenerse desde un área de datos de una señal de video. Por ejemplo, puede obtenerse de un área establecida de parámetros de secuencias. Y, la información de referencia de vistas internas puede reconocerse usando el número de imágenes de referencia e información de visas para las imágenes de referencia. Por ejemplo, el número de vistas totales se obtiene y la información de vistas para identificar cada vía puede obtenerse luego basado en el número de las vistas totales. Y puede obtener el número de las imágenes de referencia para una dirección de referencia para cada vista. De acuerdo con el número de las imágenes de referencia, pueden obtener la información de vistas para cada una de las imágenes de referencia. De esta manera, se puede obtener la información de referencia de vistas internas. Y la información de referencia de vistas internas se puede reconocer discriminando un grupo de imágenes de vistas internas y un grupo de imágenes de visas no internas. Esto se puede reconocer usando información de identificación de grupos de imágenes de vistas internas indicando si una porción codificada en un NAL actual es un grupo de imágenes de vistas internas. Los detalles de la información de identificación del grupo de imágenes de vistas internas se explicaron con referencia a la Fig. 8 de la siguiente manera. La Fig. 8 es un diagrama de bloques esquemático de un aparato para codificar un video de múltiples vistas usando información de identificación del grupo de imanes de vistas internas de acuerdo con una modalidad de la presente invención . Haciendo referencia a la Fig. 8, un aparato de decodificación de acuerdo con una modalidad de la presente invención incluye una unidad de decisión de corriente de bits 81, una unidad de obtención de información de identificación de grupos de imágenes de vistas internas 82, y una unidad de decodificación de videos de vistas múltiples 83. Si se introduce una corriente de bits, la unidad de decisión de corriente de bits 81 decide si la corriente de bits introducidos es una corriente de bits codificada para una codificación de video creciente o una corriente de bits codificada para la codificación de video de múltiples vistas. Esto se puede decidir por información de etiqueta incluida en la corriente de bits. La unidad de obtención de información de identificación de grupos de vistas de visiones internas 82 puede obtener información de identificación de grupos de imágenes de visas internas si la corriente de bits introducidas es la corriente de bits para una codificación de videos de vistas múltiples como resultado de la decisión. Si la información de identificación de grupos de imágenes de vistas internas obtenidas es 'cierta1, significa que una porción codificada de un NAL actual es un grupo de imágenes de vistas internas. Si la información de identificación de grupos de magines de vistas internas obtenidas es 'falsa', significa que una porción codificada de un NAL actual es un grupo de imágenes de vistas no internas. La información de identificación del grupo de imágenes de vistas internas se puede obtener de un área de extensión de un encabezado de NAL o un área de la capa de pociones. La unidad de decodificación de video de vistas múltiples 83 codifica un video de vistas múltiples de acuerdo con la información de identificación del grupo de imágenes de de vistas internas. De acuerdo con una estructura de codificación peral de una secuencia de dedeo de múltiples vistas, información de referencia de vistas internas de un grupo de imágenes de vistas internas difiere de la de un grupo de imágenes de vistas no internas. De esta manera, se puede usar la información de identificación del grupo de imágenes de vistas internas para adicionar imágenes de referencia para la predicción de vistas internas para generar una lista de imágenes de referencia, por ejemplo. Y, también se puede usar la información de identificación del grupo de imágenes de vistas internas para manejar las imágenes de referencia para la predicción de vistas internas. Además, la información de identificación del grupo de imágenes se puede aplicar a un decodificador de referencias hipotéticas. Como otro ejemplo para usar la información de identificación del grupo de imágenes de vistas internas, en el caso de usar información en una vista diferente para cada proceso de decodificación, la información de referencia de vistas internas, incluidas en un parámetro de secuencias es útil. En este caso, la información para discriminar si una imagen de corrientes es un grupo de imágenes de vistas internas o un grupo de imágenes de vistas no internas, es decir, se puede requerir la información de identificación del grupo de imágenes de vistas internas. De esta manera se puede usar información de referencia de vistas internas diferentes para cada proceso de decodificación. La Fig. 9 es una gráfica de flujo de un proceso para generar una lista de imágenes de referencia de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 9, la unidad de memoria interna de la imagen decodificada 600 juega un papel para almacenar o abrir las imágenes codificadas previamente para realizar la predicción de la imagen interna. Primero que todo, las imágenes codificadas antes de que se almacene una imagen actual en la unidad de almacenamiento de imágenes de referencia 610 que será usado como las imágenes de referencia (S91) . En la codificación de videos de vistas múltiples, dado que algunas de las imágenes previamente codificadas están en una visa diferente a la imagen actual, la información de la vista para identificar una vista de una imagen puede usarse para utilizar estas imágenes como imágenes de referencia. De esta manera, el decodificador deberá obtener información de vistas para identificar una vista de una imagen (S92) . Por ejemplo, la información de vistas puede incluir 'view_id' para identificar una vista de una imagen. La unidad de memoria interna de imagen codificada 600 necesita derivar una variable usada en la presente para generar una lista de imágenes de referencia. Dado que la predicción de la vista interna puede requerirse para codificación de videos de múltiples vistas, si una imagen actual se refiere a una m imagen en una vista diferente, puede ser necesario generar una lista de imágenes de referencia, puede ser necesario generar una lista de imágenes de referencia para la predicción de vistas internas. En este caso, la unidad de memoria interna de la imagen decodificada 600 requiere derivar una variable usada para generar la lista de imágenes de referencia para la predicción de vistas internas usando la información de vistas obtenidas (S93) . Una lista de imágenes de referencia para la predicción temporal o una lista de imágenes de referencia para la predicción de vistas internas pueden generarse por un método diferente de acuerdo con un tipo de porciones de una porción actual (S94). Por ejemplo, si un tipo de porciones es una porción de P/SP, se genera una lista de imágenes de referencia 0 (S95) . En el caso de que un tipo de porciones sea una porción B, se genera una lista de imágenes de referencia 0 y una lista de imágenes de referencia 1 (S96) . En este caso, la lista de imágenes de referencia 0 ó 1 puede incluir la lista de imágenes de referencia para la predicción temporal únicamente o la lista de imágenes de referencia para la predicción temporal y la lista de imágenes de referencia para la predicción de vista interna. Esto será explicado en detalle con referencia a la Fig. 8 y Fig. 9. La lista de imágenes de referencia inicializada se somete a un proceso para signar un número menor a una imagen frecuentemente denominada para incrementar más un régimen de compresión (S97) . Y, esto puede llamarse un proceso de reordenamiento para un alista de imágenes de referencia, que será explicada en detalle con referencia a las Figs. 12 a 19. La imagen actual se codifica usando la lista de imágenes de referencia reordenadas y la unidad de memoria interna de imagen codificada 600 necesita manejar las imágenes de referencia codificadas para operar una memoria interna más eficientemente (S98) . Las imágenes de referencia manejadas por el proceso anterior se leen por la unidad de predicción interna 700 para usarse para la predicción interna. En la codificación de video de múltiples vistas la predicción interna puede incluir la predicción de vistas internas. En este caso, se puede usar la lista de imágenes de referencia para la predicción de vistas internas. Los ejemplos detallados para un método para generar una lista de imágenes de referencia de acuerdo con un tipo de porciones se explican con referencia a la Fig. 10 y Fig. 11 de la siguiente manera. La Fig. 10 es un diagrama que explica un método para iniciar una lista de imagen de referencia cuando una porción actual es una porción P de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 10, se indica un tiempo por T0, TI, TN, mientras que se indica una visión por V0, VI, V . Por ejemplo, una imagen actual indica una imagen en un tiempo T3 en una vista V . Y, un tipo de porción de la imagen actual es una porción P. 'PN'es una abreviatura de un PicNum variable, 'LPN' es una abreviatura de un LongTermPicNum variable, y 'VN' es una abreviatura de una ViewNum variable. Un numero unido a una porción extrema de cada una de las variable sindica un índice que indica un tiempo de cada imagen (por PN o LPN) o una vista de dada imagen (para VN) . Esto se puede aplicar de igual manera a la Fig. 11. Una lista de imagen de referencia para la predicción temporal o una lista de imágenes de referencia pr ala predicción de vista interna pueden generarse en una forma diferente de acuerdo con un tipo de porción de una porción de corriente. Por ejemplo, un tipo de porción en la Fig. 12 es una porción de P/SP. En este caso, se genera una lista de imagen de referencia 0. En particular, la lista de imagen de referencia 0 puede incluir una lista de imagen de referencia para la predicción temporal y/o una lista de imagen de referencia para la predicción de vista interna. En la presente modalidad, se supone que una lista de imagen de referencia incluye una lista de imagen de referencia para la predicción temporal y un alista de imagen de referencia para la predicción de vista interna. Hay varios métodos para ordenar las imágenes de referencia. Por ejemplo, las imágenes de referencia pueden alinearse de acuerdo con el orden de decodificación o salida de imágenes. Alternativamente, las imágenes de referencia pueden alinearse con base en una variable derivada usando información de vistas. Alternativamente, las imágenes de referencia pueden alineare de acuerdo con la información de referencia de vista internas indicando una estructura de predicción de vistas internas. En el caso de una lista de imágenes de referencia para la predicción temporal, imágenes de referencia a corto plazo e imágenes de referencia a largo plazo pueden alinearse con base en un orden de decodificación. Por ejemplo, pueden alinearse de acuerdo con un valor de una variable PicNum o Long TermPicNum derivado de un valor que indica un número de identificación de imágenes (v.gr., frame_num_ o Longtermframeidx) . Primero que todo, las imágenes de referencia a largo plazo pueden iniciar antes de las imágenes de referencia a largo plazo. Con el fin de alinear las imágenes de referencia a corto plazo se pueden establecer de una imagen de referencia que tiene un valor superior de PicNum variable a una imagen de referencia que tiene un valor de variable inferior. Por ejemplo, las imágenes de referencia a corto plazo se pueden alinear con el fin de que PN1 tenga una variable más alta, PN2 teniendo una variable intermedia y PNO teniendo una variable inferior entre PNO a PN2. Con el fin de alinear las imágenes de referencia a largo plazo se pueden establecer desde una imagen de referencia que tiene un valor infiero de LongTermPicNum variable a una imagen de referencia que tiene un valor de variable superior. Por ejemplo, las imágenes de referencia a largo plazo pueden alinearse con el fin de que LPNO tenga una variable superior y que LPN1 tanga una variable inferior. En el caso de una lista de imágenes de referencia para la predicción de vista interna, las imágenes de referencia pueden alinearse en base una primera variable ViewNum derivada usando la información de vista. En particular, las imágenes de referencia pueden alinearse con el fin de que la imagen de referencia tenga un primer valor de variable superior (ViewNum) a una imagen de referencia que tiene un primer valor de variable infiero (ViewNum) . Por ejemplo, las imágenes de referencia pueden alinearse en el orden de VN3 teniendo una variable superior, VN2, VN1, y VNO teniendo una variable inferior entre VNO, VN1, VN2, y VN3. Por lo tanto, la lista de imagen de referencia para la predicción temporal y la lista de imágenes de referencia para la predicción de vistas interna pueden manejarse como analista de imágenes de referencia. Alternativamente, tanto la lista de imagen de referencia para la predicción temporal como la lista de imagen de referencia para la predicción de vista interna pueden manejarse como listas de imágenes de referencia separadas, respectivamente. En el caso de manejar la lista de imágenes de referencia para la predicción temporal y la lista de imágenes de referencia para la predicción de vista interna como una lista de imágenes de referencia, pueden inicializarse de acuerdo con un orden o simultáneamente. Por ejemplo, en el caso de hincar la lisa de imagen de referencia para la predicción temporal y la lista de imagen de referencia para la predicción de vista interna de acuerdo con un orden, la lista de imagen de referencia para la predicción temporal preferiblemente se inicia y además la lista de imagen de referencia para la predicción de vista interna se inicia luego. Este concepto puede aplicarse también a la Fig. 11.
Un caso en el que un tipo de porciones de una imagen actual es una porción B explicada con referencia a la Fig. 11 de la siguiente manera. La Fig. 11 es un diagrama para explicar un método o iniciar una lista de imagen de referencia cuando una porción de corriente es una porción B de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 9, en el caso en que un tipo de porciones es una porción B, una lista de imágenes de referencia 0 y se genera una lista de imágenes de referencia 1. En ese caso, la lista de imágenes de referencia 0 o la lista de imágenes de referencia 1 pueden incluir una lista de imágenes de referencia para la predicción temporal únicamente o un alista de imágenes de referencia para la predicción temporal y una lista de imágenes de referencia para la predicción de vistas internas. En el caso de la lista de imagines de referencia para la predicción temporal, un método de alineación de la imagen de referencia a coto plazo puede diferir de un método de alineación de imagen de referencia a largo plazo. Por ejemplo, en el caso de imágenes de referencia a corto plazo, las imágenes de referencia pueden alinearse de acuerdo con un conteo desorden de imágenes (abreviado en la presente POC) . En el caso de imágenes de referencia a largo plazo, las imágenes de referencia pueden alinearse de acuerdo con un valor variable (LongtermPicNum) . Y las imágenes de referencia a corto plazo pueden iniciar antes de las imágenes de referencia a lago plazo. Con el fin de alinear las imágenes de referencia a coto plazo de la lista de imágenes de referencia 0, las imágenes de referencia se alinean preferiblemente de una imagen de referencia que tiene un valor de POC superior a una imagen de referencia que tiene un valor de POC entre las imágenes de referencia que tienen un valor de POC infiero entre las imágenes de referencia que tienen valores de POC inferiores a la de una imagen actual y luego se alinean de una imagen de referencia que tiene un valor de POC inferior a una imagen de referencia que tiene un valor de POC superior entre las imágenes de reverencia que tienen valores de POC superiores entre las imágenes de referencia que tienen valores de POC mayores a los de las imágenes actuales. Por ejemplo, las imágenes de referencia pueden alinearse preferiblemente de PNl que tienen un valor de POC superior en las imágenes de referencia PNO y PNl teniendo valores de pOC inferiores a la imagen actual a PNO, y luego alineados de PN3 que tienen un valor de POC inferior en referencia a las imágenes PN3 y PN4 que tienen un valor de POC inferiores al de una imagen actual a PN . Con el fin de alinea las imágenes de referencia de la lista de imágenes de referencia 0, las imágenes de referencia se alinean de una imagen de referencia que tinenen una variable inferior LongtermPicNum a una imagen de referencia que tiene una variable superior. Por ejemplo, las imágenes de referencia se alinean de LPNO que tienen un valor inferior en LPNO y LPN1 a LPN1 que tiene una segunda variable . En el caso de la lista de imagen de referencia para la predicción de vista interna, las imágenes de referencia pueden alinearse con base en una primera variable ViewNum derivada usando información de vistas. Por ejemplo, en el caso de la lista de imágenes de referencia 0 para la predicción de vista interna, las imágenes de referencia pueden alinearse desde una imagen de referencia que tiene una primera variable de referencia superior entre las imágenes de referencia que tienen las primera variables de referencia inferirores a las de una imagen actual a una imagen de referencia que tiene un primer valor de variable inferior. Las imágenes de referencia luego se alinean de una imagen de referencia que tiene un primer valor de variable inferior entre las imágenes de referencia que tienen los primeros valores de variables mayores a la de la imagen actual a una imagen de referencia que tiene un primer valor de variable superior. Por ejemplo, las imágenes de referencia preferiblemente se alinean de VN1 que tiene un primer valor de variable superior en VOO y VN1 teniendo los primeros valores de variables menores al de una imagen actual a VNO teniendo un primer valor de variable inferior y el alineado de VN3 teniendo un primer valor de variable inferior en VN3 y VN4 teniendo los primeros valores variables mayores al de la imagen actual a VN4 teniendo un primer valor de variable superior . En el caso de la lista de imagen de referencia 1, se puede aplicar similarmente el método de alienación explicado antes de la lista de referencia 0. Primero que todo, en el caso de la lista de imagen de referencia para la predicción temporal, con el fin de alinear las imágenes de referencia a corto plazo de la lista de imagen de referencia 1, las imágenes de referencia preferiblemente se alinean de una imagen de referencia que tiene un valor de POC inferior a una imagen de referencia que tiene un valor de POC superior entre las imágenes de referencia que tienen valores de POC mayores a los de una imagen actual y luego alineados desde una imagen de referencia que tiene un valor de POC superior a una imagen de referencia que tiene un valor de POC inferior entre las imágenes de referencia que tienen valores de POC menores de los de la imagen actual. Por ejemplo, las imágenes de referencia pueden alinearse preferiblemente del PN3 teniendo un valor de POC inferior en las imágenes de referencia PN3 y PN4 teniendo valores de POC mayores a los de una imagen actual a PN4 y luego alineados de PN1 teniendo un valor de POC superrio en las imágenes de referencia PNO y PN1 teniendo valores de POC mayores a los de la imagen actual a PNO. Con el fin de alinear las imágenes de referencia a largo plazo de la lista de imágenes de referencia 1, las imágenes de referencia se alinean de una imagen de referencia que tiene una variable inferior LongtermPicNum a una imagen de referencia que tiene una variable superior. Por ejemplo, las imágenes de referencia se alinean de LPNO teniendo un valor inferior en LPNO y LPN1 a LPN1 teniendo una variable inferior . En el caso de la lista de imágenes de referencia para la predicción de vista interna, las imágenes de referencia pueden alinearse con base en una primera variable ViewNum derivada usando la información de vista. Por ejemplo, en el caso de la lista de imagen de referencia 1 para la predicción de vista interna, las imágenes de referencia pueden alinearse de una imagen de referencia que tienen un primer valor de variable inferior entre las imágenes de referencia que tienen los primeros valores de variables mayores a los de una imagen actual a una imagen de referencia que tienen un primer valor superior de variable. Las imágenes de referencia luego se linean desde una imagen de referencia que tienen un primer valor de variable superior entre las imágenes de referencia que tienen los primeros valores de variables menores a los de la imagen actual a una imagen de referencia que tiene un primer valor de variable inferior. Por ejemplo, las imágenes de referencia se alinean preferiblemente de VN3 teniendo un primer valor de variable inferior en VN3 y VN4 teniendo primeros valores de variables mayores a los de una imagen actual a VN4 teniendo un primer valor de variable superior y luego alineados de VNl teniendo un primer valor de variable superior en VNO y VNl teniendo primeros valores variables menores a los de la imagen actual a VNO teniendo un primer valor de variable inferior. La lista de imágenes de referencia inicializada por el proceso anterior se transfiere a la unidad de reordenamiento de la lista de imágenes de referencia 60 . La lista de imágenes de referencia inicializados luego se reordenan para codificación más eficiente. El proceso de reordenamiento es reducir un régimen de bits asignando un pequeño número a una imagen de referencia que tienen probabilidad superior para seleccionarse como una imagen de referencia operando una memoria de imágenes decodificada . Varios métodos de reordenamiento de una lista de imágenes de referencia se explican con referencia a las Figs 12 a 19 de la siguiente manera. La Fig. 12 es un diagrama de bloque interno de la unidad de reordenamiento de la lista de imágenes de referencia 640 de acuerdo con una modalidad de la presente invención . Haciendo referencia a la Fig. 12, la unidad de reordenamiento de la lita de imágenes de referencia 640 incluye básicamente una unidad de revisión del tipo de porciones 642, una unidad de reordenamiento 643 de la lista de imágenes de referencia 0, y una unidad de reordenamiento 645 de la lista de imagen de referencia 1. En particular, la unidad de reordenamiento 643 de la lista de imagen de referencia 0 incluye una primera unidad de obtención de información de identificación 643A, y una primera unidad de cambio de asignación del índice de referencia 643B. y, la unidad de reordenamiento 645 de la lista de imagen de referencia 1 incluye una segunda unidad de obtención de identificación 645A y una segunda unidad de cambio de asignación de índice de referencia 645B. La unidad de revisión del tipo de porciones 642 revisa un tipo de porciones de una porción actual. Luego se decide si se reordena una lista de imágenes de referencia 0 y/o una lista de imágenes de referencia 1 de acuerdo con el tipo de porciones. Por ejemplo, si un tipo de porciones de un porción actual es una porción I, no se reordenan la lista de imagen de referencia 0 ni la lista de imagen de referencia 1. Si un tipo de porción de una porción actual es una porción P, la lista de imagen de referencia 0 se reordena únicamente. Si un tipo de porción de una porción actual es una porción B, tanto la lista de imagen de referencia 0 como la lista de imagen de referencia 1 se reordenan. La unidad de reordenamiento 643 de la lista de imagen de referencia 0 se activa si la información de etiqueta para ejecutar el reordenamiento de la lista de imagen de referencia 0 es 'cierta' y si el tipo de porción de la porción actual no es la porción I. La primera unidad de obtención de información de identificación 643A obtiene información de identificación indicando un método de asignación del índice de referencia. La primera unidad de cambio de asignación de índice de referencia 643B cambia un índice de referencia signado a la imagen de referencia de la lista de imágenes de referencia 0 de acuerdo con la información de identificación. Así mismos, la unidad de reordenamiento 645 de la lista de imagen de referencia 1 se activa si la información de etiqueta para ejecutar el reordenamiento de la lista de imagen de referencia 1 es 'cierta' y si el tipo de porción de la porción actual es la porción B. La segunda unidad de obtención de información de identificación 645A obtiene información de identificación indicando un método de asignación de índice de referencia. La segunda unidad de cambio de- asignación de índice de referencia 645B cambia un índice de referencia signado a cada imagen de referencia de la lista de imagen de referencia 1 de acuerdo con la información de identificación. Por lo tanto, la información de lista de imagen de referencia usada para la predicción interna actual se genera de través de la unidad de reordenamiento 643 de la lista de imagen de referencia 0 y la unidad de reordenamiento 645 de la lista de imagen de referencia 1. Un método para cambiar un índice de referencia signado a cada imagen de referencia por la primera o segunda unidad de cambio de asignación de índice de referencia 643B o 645B se explica con referencia a la Fig. 13 de la siguiente manera . La Fig. 13 es un diagrama de bloques interno de una unidad de cambio de asignación de índice de referencia 643B o 645B de acuerdo con una modalidad de la presente invención. En la siguiente descripción, la unidad de reordenamiento 643 de la lista de imagen de referencia 0 y la unidad de reordenamiento 645 de la lista de imagen de referencia 1 mostrados en la Fig. 12 se explican jun tos. Haciendo referencia a la Fig. 13, cada uno de las primera y segunda unidades de cambio de asignación del índice de referencia 643B y 645B incluye una unidad de cambio de asignación de índice de referencia para la predicción temporal 644A, una unidad de cambio de asignación de índice de referencia para la imagen de referencia a largo plazo 644B, una unidad de cambio de asignación de índice de referencia para la predicción de vista interna 644C y una unidad de terminación de cambio de asignación de índice de referencia 644D. De acuerdo con las información es de identificación obtenedlas por las primer ay segunda unidades de obtención de información de identificación 643A y 645A, se activan las partes dentro de las primera y segunda unidades de cambio de asignación de índice de referencia 643B y 645B, respectivamente. Y, se introduce el proceso de reordenamiento sigue siendo ejecutado hasta la información de identificación para terminar el campo de asignación del índice de referencia . Por ejemplo, si la información de identificación para asignar el cambio de un índice de referencia para la predicción temporal se recibe de la primera o segunda unidad de obtención de información de identificación 643A o 645A, se activa la unidad de cambio de asignación del índice de referencia para la predicción temporal 644A. La unidad de cambio de asignación del índice de referencia para la predicción temporal 644A obtiene una diferencia de número de imagen de acuerdo con la información de identificación recibida. En este caso, la diferenta del número de imágenes significa una diferencia entre un número de imágenes de una imagen actual y un número de imágenes prevista. Y, el número de imágenes prevista puede indicar un número de una imagen de referencia asignada antes. De esta manera, se puede cambiar la asignación del índice de referencia usando la diferencia del número de imágenes obtenidas En este caso, la diferencia del numero de imágenes puede agregarse/sustraerse de hacia/desde el número de imágenes previsto de acuerdo con la información de identificación. Paro otro ejemplo, si se recibe la información de identificación para cambiar asignación de un índice de referencia a una imagen de referencia a largo plazo designada, se activa la unidad de cambio de asignación del índice de referencia para una imagen de referencia a largo plazo 644B. La unidad de cambio de asignación del índice de referencia para una imagen de referencia a largo plazo 644B obtiene un número de imagen de referencia a largo plazo de una imagen designada de acuerdo con el número de identificación . Para otro caso, si se recibe la información de identificación para cambio de asignación de un induce de referencia para la predicción de vista interna, se activa la unidad de cambio de asignación del índice de referencia para la predicción de vista interna 644C. La unidad de cambio de asignación del índice de referencia para la predicción de vista interna 644C obtiene diferencia de información de vistas de acuerdo con la información de identificación. En este caso, la diferencia de información de vistas significa una diferencia entre un número de vistas de una imagen actual y un número de vistas previsto. Y, el número de vistas previsto puede indicar un número de vistas de una imagen de referencia asignada antes. Por lo tanto puede cambiar la asignación de un índice de referencia usando la diferencia de información de vista obtenida. En este caso, la diferencia de información de vista puede agregarse/sustraerse hacia/desde el número de vista previsto de acuerdo con la información de identificación . Para otro caso, si se recibe la información de identificación para terminar un cambio de asignación del índice de referencia, se activa la unidad de terminación de cambio de asignación de índice de referencia 644D. La unidad de terminación de cambio de asignación de índice de referencia 644D termina un cambio de asignación de un índice de referencia de acuerdo con la información de identificación recibida. Por lo tanto, la unidad de reordenamiento de la lista de imagen de referencia 640 genera la información de lista de imagen de referencia. Por lo tanto, las imágenes de referencia usadas para la predicción de vista interna pueden manejarse junto con las imágenes de referencia usadas para la predicción temporal. Alternativamente, las imágenes de referencia usadas para la predicción de vista interna pueden manejarse separadas de las imágenes de referencia usadas para la predicción temporal Para esto, las nuevas información es para manejar las imágenes de referencia usadas para la predicción de vista interna pueden requerirse. Esto será explicado con referencia a las Figs. 15 a 19. Los detalles de la unidad de cambio de asignación del índice de referencia para la predicción de vista interna 644C se explican con referencia a la siguiente Fig. 14. La Fig. 14 es un diagrama para explicar un proceso para reordenar una lista de imagen de referencia usando información de vistas de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 14, si un número de vistas VN de una imagen actual es 3, si un tamaño de una morí interna de imágenes decodificada DPBsize es de 4, y si un tipo de porciones de una porción actual es una porción P, un proceso de reordenamiento para una lista de imágenes de referencia 0 se explican de la siguiente manera. Primero que too, un número de vistas previsto inicialmente es '3' el cual es el número de vistas de la imagen actual. Y, una alineación inicial de la lista de imágenes de referencia 0 para la predicción de vista interna es '4, 5, 6, 2' (®) 1. En este caso, si se recibe la información de identificación para asignación de cambio de un índice de referencia para la predicción de vista interna sustrayendo una diferencia e información de vista, se obtiene ' 1' como la diferencia de información de vista de acuerdo con la información de identificación recibida. Un número de vistas recientemente previsto (02) se calcula sustrayendo la diferencia de información de vista (=1) desde el número de vistas previsto (=3) . En particular, un primer índice de la lista de imágenes de referencia 0 para la predicción de vistas internas se asignan a una imagen de referencia que tiene el número de vistas 2. Y una imagen previamente asignada al primer índice puede moverse a una parte más posterior de la lista de imágenes de referencia 0. Por lo tanto, la lista de imágenes de referencia reordenadas 0 es '2, 5, 6, 4' (©) . Subsiguientemente, si se recibe la información de identificación para asignación de cambio de un índice de referencia para la predicción de vista interna sustrayendo la diferencia de información de vistas, '-2' se obtiene como la diferencia de información de vistas de acuerdo con la información de identificación. Un número de vistas recientemente previsto (=4) se calcula luego sustrayendo la diferencia de información de vistas (=-2) desde el número de vistas previsto (=2) . En particular, un segundo índice de la lista de imágenes de referencia 0 para la predicción de vista interna se asigna a una imagen de referencia teniendo un número de vistas 4. Por lo tanto, la lista de imágenes de referencia reordenada 0 es '2, 4, 6, 5' (©) . Subsiguientemente, si se recibe la información de identificación para terminar el cambio de asignación de índice de referencia, la lista de imágenes de referencia O teniendo la lista de imágenes de referencia reordenada 0 a medida que se genera un final de acuerdo con la información de identificación recibida (©) . Por lo tanto, el orden de la lista de imágenes de referencia finalmente generada 0 para la predicción de vista interna es '2, 4, 6, 5'. Para otro caso de reordenamiento, el resto de las imágenes después de que se asignado el primer índice de la lista de imágenes de referencia 0 para la predicción de vistas internas, una imagen asignada a cada índice puede cambiarse a una porción justo detrás de la imagen correspondiente. En particular, se asigna un segundo índice a una imagen que tiene un número de vistas 4, un tercer índice se asigna a una imagen (número de visas 5) a la cual se asigna el segundo índice, y un cuarto índice se asigna a una imagen (número de vistas 6) para el cual se asigna el tercer índice. Por lo tanto, la lista de imágenes de referencia reordenadas 0 se convierte en '2, 4, 5, 6'. Y, un proceso de reordenamiento subsiguiente puede ejecutarse de la misma manera . La lista de imágenes de referencia generados por el proceso explicado antes se usa para predicción interna. Tanto la lista de imágenes de referencia para la predicción de vista interna como lista de imágenes de referencia para la predicción temporal puede manejarse como una lista de imágenes de referencia. Alternativamente, cada uno de la lista de imágenes de referencia para la predicción de vista interna y la lista de imágenes de referencia para la predicción temporal puede manejarse como una lista de imágenes de referencia separada. Esto se explica con referencia a las Figs. 15 a 19 de la siguiente manera. La Fig. 15 es un diagrama de bloques interno de una unidad de reordenamiento de la lista de imágenes de referencia 640 de cuerdo con otra modalidad de la presente invención . Haciendo referencia a la Fig. 15, con el fin de manejar una lista de imágenes de referencia, se pueden requerir nueva información. Por ejemplo, una lista de imágenes de referencia para la predicción temporal se reordena y una lista de imágenes de referencia para la predicción de vista interna se reordena luego en algunos casos . La unidad de reordenamiento de la lista de imágenes de referencia 640 incluye básicamente una unidad de reordenamiento de la lista de imágenes de referencia para la predicción temporal 910, una unidad de región de tipo NAL 960, y una unidad de reordenamiento de la lista de imágenes de referencia para la predicción de vista interna 970. La unidad de reordenamiento de la lista de imágenes de referencia para la predicción temporal 910 incluye una unidad de revisión del tipo de porciones 642, una tercera unidad de obtención de información de identificación 920, una tercera unidad de cambio de asignación de índice de referencia 930, una cuarta unidad de obtención de información de identificación 940, y una cuarta unidad de cambio de asignación de índice de referencia 950. La tercera unidad de cambio de asignación de índice de referencia 930 incluye una unidad de cambio de asignación de índice de referencia para la predicción temporal 930A, una unidad de cambio de asignación de índice de referencia para una imagen de referencia a largo plazo 930B, y una unidad de terminación de cambio de asignación de índice de referencia 930C. Así mismo, la cuarta unidad de cambio de asignación de índice de referencia 950 incluye una unidad de cambio de asignacón de índice de referencia para la predicción temporal 950A, una unidad de cambio de asignación de índice de referencia para la imagen de referencia a largo plazo 950B, y una unidad de terminación de cambio de asignación de índice de referencia 950C. La unidad de reordenamiento de lista de imagen de referencia para la predicción temporal 910 reordena las imágenes de referencia usadas para la predicción temporal Las operaciones de la unidad de reordenamiento de la lista de imágenes de referencia para la predicción temporal 910 son idénticas a aquellas de la unidad de reordenamiento de la lista de imágenes de referencia mencionada antes 640 mostradas en la Fig. 10 excepto que la información para las imágenes de referencia para la predicción de vistas internas. Por lo tanto, los detalles del aindiad de reordenamiento de la lista de imágenes de referencia para la predicción temporal 910 se omiten en la siguiente descripción. La unidad de revisión del tipo de NAL 960 revisa un tipo de NAL de una corriente de bits recibida. Si el tipo de NA es un NAL para codificación de video de múltiples vistas, las imágenes de referencia usadas para la predicción de vistas internas se reordena por la unidad de reordenamiento de la lista de imágenes de referencia para la predicción temporal 970. La lista de imágenes de referencia generada para la predicción de vistas internas se usan para la predicción interna junto con la lista de imágenes de referencia generadas por la unidad de reordenamiento de la lista de imágenes de referencia para la predicción temporal 910. Aún, si el tipo de NAL no es el NAL para la codificación de video de vistas múltiples, la lista de imágenes de referencia para la predicción de vistas internas no se reordena. En este caso, una lista de imágenes de referencia para la predicción temporal se genera únicamente. Y, la unidad de reordenamiento de la lista de imágenes de referencia de predicción de vistas internas 970 reordena las imágenes de referencia usadas para la predicción de vistas internas. Esto se explica en detalle con referencia a la Fig.16 de la siguiente manera. La Fig. 16 es un diagrama de bloques internado de la unidad de reordenamiento de las lista de imágenes de referencia 970 para la predicción de vistas internas de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 16, la unidad de reordenamiento de la lista de imágenes de referencia para la predicción de vistas internas 970 incluye una unidad de revisión de tipo de porciones 642, una quinta unidad de obtención de información de identificación 971, una quinta unidad de cambio de asignación de Índice de referencia 972, una sexta unidad de obtención de información de identificación 973, y una sexta unidad de cambio de asignación de índice de referencia 974. La unidad de revisión del tipo de porciones 642 revisa un tipo de porciones de una porción actual si es así, se decide si se ejecuta el reordenamiento de una lista de imágenes de referencia 0 y/o una lista de imágenes de referencia 1 de acuerdo con el tipo de porciones. Los detalles de la unidad de revisión del tipo de porciones 642 puede ser inferido a partir de la Fig. 10, que se mantienen la siguiente descripción. Cada una de las quinta y sexta unidades de obtención de información de identificación 971 y 973 obtiene información de identificación indicando un método de asignación de índice de referencia. Y cada una de las quinta y sexta unidades de cambio de asignación de índice de referencia 972 y 974 cambia un índice de referencia signado a cada imagen de referencia de la lista de imágenes de referencia 0 y/o 1. En este caso, el índice de referencia puede significar un número de vistas de una imagen de referencia únicamente. Y la información de identificación que indica el método de asignación de índices de referencia puede ser información de etiqueta. Por ejemplo, si es cierta la información de etiqueta, cambia una asignación de un número de vistas. Si la información de etiqueta es falsa, un proceso de reordenamiento de un número de vistas puede terminarse. Si es cierta la información de etiqueta, cada una de las quinta y sexta unidades de cambio de asignación de índice de referencia 972 y 974 puede obtener una diferencia del número de vistas de acuerdo con la información de etiqueta. En este caso, la diferencia del número de vistas significa una diferencia entre un número de vistas de una imagen actual y un número de vistas de una imagen prevista. Y el número de vistas de la imagen prevista puede significar un número de vistas de una imagen de referencia asignada antes. Puede cambiar la asignación de número de vistas usando la diferencia de números de vista. En este caso, la diferencia del número de vistas puede agregarse/sustraerse hacia/desde el número de vistas de la imagen prevista de acuerdo con la información de identificación. Por lo tanto, para manejar la lista de imágenes de referencia para la predicción de vistas internas como una lista de imágenes de referencia separadas, es necesario definir una estructura de sintaxis. Como una modalidad de los contenidos explicada en la Fig. 15 y Fig. 16, la sintaxis se explica con referencia a la Fig. 17, Fig. 18, y Fig. 19 de la siguiente manera. La Fig. 17 y Fig. 18 son diagramas de sintaxis para el reordenamiento de la lista de imágenes de referencia de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 17, una operación de la unidad de reordenamiento de la lista de imágenes para la predicción temporal 910 mostrada en la Fig. 15 se representa como sintaxis. Comparado con los bloques mostrados en la Fig. 15, la unidad de revisión del tipo de porciones 642 corresponde a SI y S6 y la cuarta unidad de obtención de información de identificación 940 corresponde a S7. Los bloques internos de la tercera unidad de cambio de asignación de índice de referencia 930 corresponden a S3, S4, y S5, respectivamente. Y, los bloques internos de la cuarta unidad de cambio de asignación del índice de referencia 950 corresponde a S8, S9, y S10, respectivamente.
Haciendo referencia a la Fig. 18, las separaciones de la unidad de revisión de NAL 960 del tipo de NAL y la unidad de reordenamiento de la lista de imágenes de referencia de vistas internas 970 se representan como sintaxis. Comparado con los bloques respectivos mostrados en la Fig. 15, y Fig. 16, la unidad de revisión de tipo de NAL 960 corresponde a Sil, la unidad de revisión del tipo de porciones 642 corresponde a Sil, la unidad de revisión de tipo de porciones 642 corresponde a S13 y S16, la quinta unidad de obtención de información de identificación 971 corresponde a S14, y la sexta unidad de obtención de información de identificación 973 corresponde a S17. La quinta unidad de cambio de asignación de índice de referencia 972 corresponde a S15 y la sexta unidad de cambio de asignación de índice de referencia 974 corresponde a S18. La Fig. 19 es un diagrama de sintaxis para el reordenamiento de la lista de imágenes de referencia de acuerdo con otra modalidad de la presente invención. Haciendo referencia a la Fig. 19, las operaciones de la unidad de revisión del tipo de NAL 960 y la unidad de reordenamiento de la lista de imágenes de referencia de vista interna 970 se representa como sintaxis. Comparado con los bloques respectivos mostrados en la Fig. 15 y Fig. 16, la unidad de revisión de tipo de NAL 960 corresponde a S21, la unida de revisión de tipo de porciones 642 corresponde a S22 y S25, la quinta unidad de obtención de información de identificación 971 corresponde a S23, y la sexta unidad de obtención de información de identificación 973 corresponde a S26. La quinta unidad de cambio de asignación de índice de referencia 972 corresponde a S24 y la sexta unida de cambio de asignación de índice de referencia 974 corresponde a S27. Como se mencionó en la descripción anterior, la lista de imágenes de referencia para la predicción de vista interna puede usarse por la unidad de predicción interna 700 y se puede usar para llevar a cabo también la compensación de iluminación. La compensación de iluminación se puede aplicar el transcurso del cálculo de movimiento/compensación de movimiento. En el caso en que una imagen actual usarse una imagen de referencia en una vista diferente, puede llevar a cabo la compensación de iluminación más eficientemente usando la lita de imagen de referencia para la predicción de vista interna. Las compensaciones de iluminación de acuerdo colas modalidades de la presente invención se explican de la siguiente manera. La Fig. 20 es un diagrama para un proceso para obtener un valor de diferencia de iluminación de un bloque actual de acuerdo con una modalidad de la presente invención. La compensación de iluminación significa un proceso para decodificar una señal de video en movimiento adaptablemente compensada de acuerdo con un cambio en iluminación. Y, se puede aplicar a una estructura predictiva de una señal de video, por ejemplo, predicción de vista interna, predicción de intra-vista y similares. La compensación de iluminación significa un proceso para decodificar una señal de video usando una diferencia de iluminación residual y un valor de predicción de diferencia de iluminación que corresponde a un bloque que será codificado. En este caos, el valor de predicción de diferencia de iluminación puede obtenerse de un bloque cercano de un bloque actual. Un proceso para obtener un valor de predicción de diferencia de iluminación del bloque cercano puede decidirse usando la información de referencia para el bloque cercano y una secuencia y una dirección se deberá tomar en cuenta en el transcurso de los bloques cercanos de búsqueda. El bloque cercano significa un bloque ya codificado y también significa un bloque codificado considerando redundancia dentro de la misma imagen para una vista o tiempo o una secuencia codificada considerando redundancia dentro de diferentes imágenes. Para comparar similitudes entre un bloque actual y un bloque de referencia cantidad, una diferencia de iluminación entre los dos bloques deberán tomarse en cuenta. Con el fin de compensar la diferencia de iluminación, se ejecutan la estimación/compensación de movimientos nuevos. SAD nuevo puede encontrarse usando la fórmula 1.
Fórmula 1 Fórmula 2 En este caso, ' curr' indica un valor de pixel promedio de un bloque actual y 'Mref indica un valor de pixeles promedio de un bloque de referencia. ' f ( i , j ) * indica un valor de pieles de un bloque actual y 'r (ixx, j+y) 1 indica un valor de pixeles de un bloque de referencia. Llevando a co el cálculo de movimiento basado en el nuevo SAD de acuerdo con la Fórmula 2, se puede obtener un valor de diferencia de pixeles promedio entre el bloque actual y el bloque de referencia Y, el valor de diferencia de pixeles promedio obtenido puede llamarse u valor de diferencia de iluminación [IC_offset) . En el caso de llevar a cabo el cálculo de movimiento al cual se aplica la compensación de iluminación, se genera un valor de diferencia de iluminación y un vector de movimiento. Y, la compensación de iluminación se ejecuta de acuerdo con la fórmula 3 usando el valor de diferencia de iluminación y el vector de movimiento.
Fórmula 3 NewRiJ) = {f(iJ)-Me -{r(i + x j+/)-Mr (m+x',n+/)} = {f(iJ)~r(i + ?:'J+y))-IC_ offset En este caso, NewR(i, j) indica un valor de error compensado de iluminación (residual) y (?', y') indica un vector de movimiento. Un valor de diferencia de iluminación (Mcurr-Mref ) deberá transferirse a la afinidad de decodificación. La unidad de decodificación porta la compensación de iluminación de la siguiente manera.
Fórmula 4 f'(i, J) = {NewR"(x y t, j) + r(z + ', ; + y')) + {Meur-Mrrf{m + x',n+ y')) = {NewR" (?', y', i, j) + r(i +x J* y')} + IC _offset En la fórmula 4, NewR" (i,j) indica un valor de error compensado de iluminación reconstruido (residual) y f (i, j) indica un valor de pixeles de un bloque actual reconstruido . Con el fin de reconstruir un bloque actual, un valor de diferencia de iluminación deberá transferirse a la unidad de decodificación. Y el valor de diferencia de iluminación puede predecirse de la información de los bloques cercanos. Con el fin de reducir más un número de bits para codificar el valor de diferencia de iluminación, se puede enviar un valor de diferencia (RIC_offset) entre el valor de diferencia de iluminación del bloque actual (IC-Offset) y el valor de diferencia de iluminación del bloque cercano únicamente (predIC offset ) . Esto se representa como Fórmula Fórmula 5 RIC_offset=IC_offset-predIC-Offset La Fig. 21 es una gráfica de flujo de un proceso para llevar a cabo la compensación de iluminación de un bloque actual de acuerdo con una modalidad de la presente invención . Haciendo referencia a la Fig. 21, antes que nada, un valor de diferencia de iluminación de un bloque arcano que indica un valor de diferencia de pixeles promedio entre el bloque cercano de un bloque actual y un bloque denominado por el bloque cercano se extrae de una señal de video (S2110) . Subsiguientemente, el valor de predicción de diferencia de iluminación para compensación de iluminación del bloque actual se obtiene usando el valor de diferencia de iluminación (S2120) . Por lo tanto, se puede reconstruir un valor de diferencia de iluminación del bloque actual usando el valor de predicción de diferencia de iluminación obtenida.
Para obtener el valor de predicción de diferencia de iluminación, se pueden usar diferentes métodos. Por ejemplo, antes de que el valor de diferencia de iluminación del bloque actual se prevea del valor de diferencia de iluminación del bloque cercano, se revisa si un índice de referencia el bloque actual es igual al del bloque cercano. Puede decidir que clase de un bloque cercano a un valor será deseado de acuerdo con un resultado de la revisión. Para otro ejemplo, para obtener el valor de predicción de diferencia de iluminación, se puede usar la etiqueta de información (IC_flag) que indica si se ejecuta una compensación de iluminación del bloque actual. Y, la información de etiqueta para el bloque actual puede preverse usando la información de los bloques cercanos. Para otro caso, se puede obtener el valor de predicción de diferencia de iluminación usando el método de revisión de índice de referencia y el método de predicción de información de etiqueta. Esto se explica en detalle con referencia a las Figs. 22 a 24 de la siguiente manera . La Fig. 22 es un diagrama de bloques de un proceso para obtener un valor de predicción de diferencia de iluminación de un bloque actual usando información para un bloque cercano de cuerdo con una modalidad de la presente invención .
Haciendo referencia a la Fig. 22, se puede usar información para un bloque cercano para obtener un valor de predicción de diferencia de iluminación de un bloque actual. En la presente descripción, un bloque puede incluir un macrobloque o un sub-macrobloque . Por ejemplo, puede predecir un valor de diferencia de iluminación del bloque actual usando un valor de diferencia de iluminación de bloque cercano. Antes de esto, se revisa si un índice de referencia de un bloque actual es igual al bloque cercano. De cuerdo con un resultado de la revisión, puede decidir cual clase de bloque cercano o valor serán usados. En la Fig. 22, 'refldxLX' indica un índice de referencia de un bloque actual, 'refldxLXN' indica un índice de referencia de un bloque-N. En este caso, 'N' es una marca de un bloque cercano al bloque actual e indica A, B, o C. y ' PredIC-Offset ' indica un valor de diferencia de iluminación para compensación de iluminación de un bloque cercano N- Si no puede usar un bloque C que se localiza en un extremo derecho superior del bloque actual, puede usar un bloque D en lugar del bloque C. en particular, la información para el bloque K se puede usar como información para el bloque C. Si puede usar el bloque B y el bloque C, puede usar un bloque A en su lugar. A saber, puede usar la información para el bloque A como la información para el bloque B o el bloque C.
Para otro caos, con el fin de obtener el valor de predicción de diferencia de iluminación, puede usar información de etiqueta (IC_flag) indicando si ejecuta una compensación de iluminación del bloque actual. Alternativamente, puede usar el método de revisión de índice de referencia y el método de predicción de información de etiqueta para obtener el valor de predicción de diferencia de iluminación. En este caso, si la información de etiqueta para el bloque cercano indica que no se ejecuta la compensación de iluminación, es decir, si IC_flag==0, el valor de diferencia e iluminación ' 1 PredIC_offsetN 1 del bloque cercano se ajusta a 0. La Fig. 23 es una gráfica del flujo de un proceso para llevar a cabo la compensación de iluminación usando información para un bloque cercano de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 23, la unidad de decodificación extrae un valor de píxeles promedio de un bloque de referencia, un índice de referencia de un bloque actual, un índice de referencia del bloque de referencia, y similares de una señal de video y luego puede obtener un valor de predicción de diferencia de iluminación del bloque actual usando la información extraída. La unidad de decodificación obtiene un valor de diferencia (diferencia de iluminación residual) entre un valor de diferencia de iluminación del bloque actual y el valor de predicción de diferencia de iluminación y puede reconstruir un valor de diferencia de iluminación del bloque actual usando diferencia de iluminación residual y el valor de predicción de diferencia de iluminación. En este caso, puede usar información para un bloque cercano para obtener el valor de predicción de diferencia de iluminación del bloque actual. Por ejemplo, puede predecir un valor de diferencia de iluminación del bloque actual usando el valor de diferencia de iluminación del bloque cercano. Antes de esto se revisa si un índice de referencia del bloque actual es igual al del bloque cercano. De acuerdo con un resultado de la revisión puede decidir cual clase de bloque cercando o un valor será usado . En particular, un valor de diferencia de iluminación de un bloque cercano que indica un valor de diferencia de pixeles promedio entre el bloque cercano de un bloque actual y un bloque denominado como el bloque cercano se extrae de una señal de video (S2310) . Subsiguientemente, se revisa si un índice de referencia del bloque actual es igual a un índice de referencia de uno de una pluralidad de bloques cercanos (S2320) . Como resultado del paso de revisión S2320, existe por lo menos un bloque cercano que tiene el mismo índice de referencia que el del bloque actual, se revisa si existe o no un bloque cercano correspondiente (S2325) . Como resultado del paso de revisión S2325, si existe únicamente un bloque cercano que tiene el mismo índice de referencia del bloque actual, un valor de diferencia de iluminación del bloque cercano que tiene el mismo índice de referencia del bloque actual se asigna a un valor de predicción de diferencia de iluminación del bloque actual (S2330) . En particular, es ' PredIC_offset = PredIC_offsetN ' . Si el bloque cercano que tiene el mismo índice de referencia como el del boque actual no existe como un resultado del paso de revisión S2320 o si existe en por lo menos dos bloques cercanos que tienen el mismo índice de referencia como el del bloque actual como resultado del paso de revisión S2325, se asigna una media de los valores de diferencia de iluminación ( PredIC_offsetN, N = A, B. o C) de los bloques cercanos a un valor de predicción de diferencia de iluminación del bloque actual (S650) . En particular, es 1 PredIC_offset = Median (predIC_offsetA, PredIC-offsetB, PedIC_offsetC) ' . La Fig. 24 es un diagrama reflujo de un proceso para llevar a cabo la compensación de iluminación usando información para un bloque cercano de acuerdo con otra modalidad de la presente invención.
Haciendo referencia a la Fig 24, una unidad de decodificación tiene que reconstruir un valor de diferencia de iluminación de un bloque actual para llevar acabo la compensación de iluminación. En este caso, puede usar información para un bloque cercana con el fin de obtener un valor de predicción de diferencia de iluminación del bloque actual Por ejemplo, puede predecir un valor de diferencia de iluminación del bloque actual usando el valor de diferencia de iluminación del bloque cercano. Antes de esto, se revisa si un índice de referencia del bloque actual es igual al del bloque arcano. De cuerdo con un resultado de la revisión, se puede decidir cual clase de un bloque cercano o un valor será usado . En particular, un valor de diferencia de iluminación de un bloque cercano indicando un valor de diferencia de pixeles promedio entre el bloque cercano de un bloque actual y un bloque denominado por un bloque cercano se extrajo de una señal de video (S2410) . Subsiguientemente, se revisa si un índice de referencia del bloque actual es igual a un índice de referencia de uno de una pluralidad de bloques cercanos (S2420) . Como resultado del paso de revisión S720, si existe por lo menos un bloque cercano que tiene el mismo índice de referencia como aquel del bloque actual, se revisa si existe o no un bloque cercano correspondiente (S2430) . Como resultado del paso de revisión S2430, si existe únicamente un bloque cercano que tiene el mismo índice de referencia como el del bloque actual, un valor de diferencia de iluminación del bloque cercano que tiene el mismo índice de referencia en cuanto a que el bloque actual se asigne a un valor de predicción de diferencia de iluminación del bloque actual (S2440) . En particular, es ' PredIC_offset = PredIC_offset ' . Si el bloque cercan que tiene el mismo índice de referencia en cuanto a que el bloque actual falla por existir como resultado del paso de revisión S2420, el valor de predicción de diferencia de iluminación del bloque actual se ajusta a 0 (S2460) . En particular, es ' PredIC_offset = 0'. Si existen por lo menos dos bloques cercanos que tiene el mismo índice de referencia como el del bloque actual como resultado del paso de revisión S2420, el bloque cercano que tiene un índice de referencia diferente al del bloque actual se ajusta a 0 y una media de valores de diferencia de iluminación de los bloques cercanos incluyendo el valor ajustado a 0 se asigna al valor de predicción de diferencia de iluminación del bloque actual (S2450) . En particular, es 1 PredIC-Offset = Median/predIC-offfsetA, PredIC_offfsetB, PredlC offsetC= ' . Aún, en un caso en que existe el bloque cercano que tiene el índice de referencia desde aquel del bloque actual el valor '0' puede incluirse en PredIC_offsetA, PredIC_offsetB, o PredIC_offsetC . Mientras, la información de vista para identificar una vía de una imagen y un alista de imágenes de referencia para la predicción inter-vista se aplican para sintetizar una imagen en una vista habitual. En un proceso para sintetizar una imagen en una vista virtual, una imagen en una vista diferente puede denominarse de esta manera. Por lo tanto, si se usa la información de vista y la lista de imagen de referencia para la predicción de vista interna, se puede sintetizar una imagen en una vista virtual más eficientemente. En la siguiente descripción, se explican los métodos para sintetizar una imagen en una vista virtual de acuerdo con las modalidades de la presente invención. La Fig. 25 es un diagrama de bloques de un proceso para predecir una imagen actual usando una imagen en una vista virtual de acuerdo con una modalidad de la presente invención . Haciendo referencia a la Fig. 25, para llevar a cabo la predicción de visión interna en codificación de video de múltiples visiones, puede predecir una imagen actual usando una imagen en una vista diferente de la vista actual como una imagen de referencia. Aún, una imagen en una vista virtual se obtiene usando imágenes en una vista cercana a aquella de una imagen actual y la imagen actual luego se predice usando la imagen obtenida en la vista virtual. Si es asi, la predicción puede llevarse a cabo más precisamente. En este caso, un identificador de vista indicando una vista de una imagen se puede usar para utilizar imágenes en vistas cercanas o imágenes en una vista especifica. En el caso de que se genera la vista virtual, deberán existir sintaxis especificas para indicar si se genera la vista virtual. Si la sintaxis indica que deberá generarse la vista virtual, puede generar la vista virtual usando el identificador de vistas. Las imágenes en la vista virtual obtenida por la unidad de predicción de síntesis de vistas 740 se usan como imágenes de referencia. En este caso, el identificador de vistas puede asignarse a las imágenes en la vista virtual. En un proceso para llevar a cabo la predicción de vector de movimiento para transferir un vector de movimiento, los bloques cercanos de un bloque actual puede referirse a las imágenes obtenidas por la unidad de predicción de síntesis de vistas 740. En este caos, el uso de la imagen en la vista virtual como la imagen de referencia, se puede usar un identificador de vistas indicando una vista de una imagen. La Fig. 26 es una gráfica de flujo de un proceso para sintetizar una imagen de una vista virtual para llevar a cabo la predicción de vista interna en MVC de acuerdo con una modalidad de la presente invención.
Haciendo referencia a la Fig. 26, una imagen en una vista virtual se sintetizó usando imágenes en una vista cercana a la de una imagen actual. La imagen actual luego se predice usando la imagen sintetizada en la vista virtual. Si es asi, puede logra predicción más precisa. En el caso de que una imagen en una vista virtual se sintetiza, existe la sintaxis especifica indicando si se ejecuta una predicción de una imán actual sintetizando la imagen donde la vista virtual. Si se decide si se ejecuta la predicción de la imagen actual, es posible la codificación más eficiente. La sintaxis especifica se definió como un identificador de predicción de síntesis de visión interna, que se explica de la siguiente manera. Por ejemplo, una imagen en una vista virtual se sintetiza por una capa de porciones para definir ' view_synthesize_pred_flag ' indican si se ejecuta una predicción de una imagen actual. Si 1 view_synthesize_pred_flag = 1', una porción actual sintetiza una porción en una vista virtual usando una porción en una vista cercana a la de la porción actual. Puede predecir entonces la porción actual usando la porción sintetizada. Si ' view_sinthesize_pred_flag = 0', una porción en una vista virtual no se sintetiza. Así mismo, si ' view_syn_: pred_flag= 1', un macrobloque actual sintetiza un macrobloque en una vista virtual usando un macrobloque en una vista arcana a la del macrobloque actual. Puede predecir el macrobloque actual usando el macrobloque sintetizado. Si 1 view_syn_pred_flag = 0', un macrobloque en una vista virtual no se sintetiza. Por lo tanto, en la presente invención, el identificador de predicción de síntesis de vista interna indicando si se obtiene una imagen en una vista virtual se extrae de una señal de video. Puede obtener la imagen en la vista virtual usando el identificador de predicción de síntesis de visa interna . Como se mencionó en la descripción anterior, la información de vistas para identificar una vista de una imagen y una lista de imágenes de referencia para la predicción de vista interna puede usarse por la unidad de predicción interna 700. Y, pueden usarse para llevar a cabo también la predicción calculada. La predicción calculada puede aplicarse a un proceso para llevar a cabo la compensación de movimiento. Al hacerlo, si una imagen actual usa una imagen de referencia en una vista diferente, puede realizar la predicción calculada más eficientemente usando la información de visión y la lista de imagen de referencia para la predicción de vista interna. Los métodos de predicción calculada de acuerdo con las modalidades de la presente invención se explica de la siguiente manera. La Fig. 27 es una gráfica de flujo de un método para ejecutar la predicción calculada de acuerdo con un tipo de oración en la señal de video que se codifica de acuerdo con la presente invención. Haciendo referencia a la Fig. 27, la predicción calculada es un método para aumentar una muestra de datos de predicción compensados de movimiento dentro de un macrobloque de porción P o porción B. un método de predicción calculada incluye un modo explícito para llevar a cabo la predicción calculada para una imagen actual usando una información de coeficiente calculada obtenida de la información para imágenes de referencia y un modo implícito para llevar a cabo la predicción calculada para una imagen actual usando una información de coeficiente calculada obtenida de la información por una distancia entre la imagen actual y una de las imágenes de referencia. El método de predicción calculado puede aplicarse diferencialmente de acuerdo con un tipo de porción de un macrobloque actual Por ejemplo, en el modo explícito. La información de coeficiente calculada puede variar de acuerdo con un macrobloque actual en el cual la predicción calculada se lleva a cabo, es un macrobloque de una porción P o un macrobloque de una porción B. Y el coeficiente calculado del modo explícito puede decidirse por un codificado y puede transferirse incluido en una porción superior. Por otro lado, en el modo implícito, un coeficiente calculado puede obtenerse con base en una posición relativamente temporal de la Lista 0 y la Lista 1. Por ejemplo, si una imagen de referencia se cierra temporalmente a una imagen actual, se puede aplicar un coeficiente calculado mayor. Si una imagen de referencia está temporalmente distante de una imagen actual, se puede aplicar un coeficiente calculado pequeño. Primero que todo, un tipo de porción de un macrobloque para aplicar una predicción calculada al mismo se extrae de una señal de video (S2710) . Subsiguientemente, la predicción calculada puede llevarse a cabo en un macrobloque de acuerdo con el tipo de porción extraído (S2720) . En este caso, el tipo de porción puede incluir un macrobloque al cual se aplica la predicción de vista interna. La predicción de vista interna significa que una imagen actual se predice cuando información para una imagen en una vista diferente a la de la imagen actual Por ejemplo, el tipo de porción puede incluir un macrobloque al cual la predicción temerla para llevar a acabo la predicción usando información para una imagen en una misma vista es que se aplica una imagen actual, un macrobloque al cual se aplica la predicción de vista interna, y un macrobloque al cual se aplica la predicción temporal y la predicción de vista interna. Y, el tipo de porción puede incluir un macrobloque al cual se aplica únicamente la predicción, un macrobloque al cual se aplica únicamente la predicción de vista interna, o un macrobloque al cual se aplican la predicción temerla y la predicción de vista interna. Además, el tipo de porción puede incluir dos de los tipos de macrobloques o los tres tipos de macrobloques . Esto se explicará en detalle con referencia a la Fig. 28. Por lo tanto, en el caso en que un tipo de porción incluyendo un macrobloque aplicado se extrae de una señal de video, la predicción calculada se lleva a cabo usando información de una imagen en una vista diferente a la de una imagen actual Al hacerlo, un identificador de vista para identificar una vista de una imagen puede usarse para usar información para una imagen en una vista diferente. La Fig. 28 es un diagrama de tipos de macrobloques que pueden permitir un tipo de porción en la seña de video de codificación de acuerdo con una modalidad de la presente invención . Haciendo referencia a la Fig. 28, si un tipo de porción P por la predicción de vista interna se define como VP (View_P) , un macro bloque interno 1, un intramacrobloque I, un macrobloque P previsto para una imagen en una vista actual, en un VP de macrobloque previsto de una imagen en una vista diferente se puede permitir para el tipo de porción P por la predicción de vista interna (2810) . En el caso en el que un tipo de porción B por la predicción de vista interna se definió como VB (View_B) , un macrobloque P o B previsto desde por lo menos una imagen en una vista actual o un macrobloque VP o VB previsto de por lo menos una imagen en una vista diferente puede permitirse (2820) . En el caso en donde un tipo de porción, en el cual se lleva a cabo la predicción usando predicción temporal, la predicción de vista interna, o ambos de la predicción terminal y la predicción de intr. -vista, se definió como 'mixto1, un intra-macrobloque I, un macrobloque P o B previsto de por lo menos una imagen en una vista actual, un macrobloque VP o VB previsto de por lo menos una imagen en una vista diferente, o un macrobloque 'Mixto' previsto usando la imagen en una vista actual y la imagen de diferentes vistas se puede permitir para el tipo de porciones mixtas (2830) . En este caso, con el fin de usar la imagen en diferentes vistas, puede usar un identificador de vista para identificar una visdta de una imagen. La Fig. 29 y la Fig. 30 son diagramas de sintaxis para ejecutar la predicción calculada de acuerdo con un tipo de porción recién definido de acuerdo con una modalidad de la presente invención. Como se mencionó en la descripción anterior de la Fig. 28, si el tipo de porción se decide como VP, VB o Mixto, la sintaxis para llevar a cabo la predicción calculad convencional (v.gr. H. 264) puede modificarse en la Fig. 29 o Fig. 30.
Por ejemplo, si un tipo de porción es la porción P por la predicción temporal, se agrega una parte ' if (slice_type ! = VP | | slice_type ! = VB ' ) (2910). Si un tipo de porción es una porción B por predicción temporal, la declaración 'if puede modificarse en ' if (slice_type == B == | | slice_type ==Mixed) ' (2920). Si se definen recientemente un tipo de porción de VP y un tipo de porción de VP, un formato similar a Fig. 29 puede agregarse recientemente (2930, 2940) . En este caso, dado que se agrega información para una vista, los elementos de sintaxis incluyen partes de 'view', respectivamente. Por ejemplo, es 1 luma_log2_view_weight_denom, chroma_log2_view_weight_denom' . La Fig. 31 es un diagrama de flujo de un método para ejecutar la predicción calculada usando información de etiqueta indicando si se ejecuta la predicción de peso de inter-vista en la codificación señal de video de acuerdo con la presente invención. Haciendo referencia a la Fig. 31, en codificación de señal de video a la cual se aplica la presente invención, en el caso de usar la información de etiqueta indicando si será ejecutada la predicción calculada, se permite la codificación más eficiente. La información de etiqueta puede definirse con base en un tipo de porción. Por ejemplo, puede haber información de etiqueta indicando si la predicción calculada será aplicada a una porción P o una porción SP o información de etiqueta que indica si la predicción calculada será aplicada a una porción B. En particular, la información de etiqueta puede definirse como ' weighted_pred_flag ' o 1 weighted_bipred__idc 1. Si "weighted_pred_flag = 0', indica que la predicción calculada no se aplica a porción P y la porción SP. Si ' weighted_pred_flag = 1', indica que la predicción calculada se aplica a la porción P y la porción SP. Si ' weighte_bipred_idc = 0', indica que la predicción calculada se aplica a la porción B. Si ' weighted_bipred_idc = 1', indica que la predicción calculada explícita se aplicada a la porción B. Si ' weighted_bipred_idc = 2', indica que la predicción calculada implícita se plica a la porción B. En la codificación de video de múltiples vistas, la información de etiqueta que única si la predicción calculada será ejecutada usando información para una imagen de vista interna puede definirse con base en un tipo de porción. Primero que nada, un tipo de porción e información de etiqueta que indica si la predicción calculada de vista interna será ejecutada extraída de una señal de video (S3100, S3100) . En este caso, de tipo de porción puede incluir un macrobloque al cual la predicción temporal para llevar a cabo la predicción usando la información para una imagen en una vista como la de una imagen actual se aplica y se aplica un macrobloque al cual la predicción de vista interna para llevar a cabo la predicción usando información para una imagen en una vista diferente a la de una imagen actual. Puede decidir un modo de predicción calculado basado en el tipo de porción extraído y la información de etiqueta extraída (S3130) . Subsiguientemente, se puede llevar a cabo la predicción calculada de acuerdo con el modo de predicción calculado decidid (S3140) . En este caso, la información de etiqueta puede incluir una información de etiqueta que indica si la predicción calculada será ejecutada usando información para una imagen en una vista diferente a la de una imagen actual así como la weighter_pred_flag ' y ' weightend_bipred_flag 1. Esto será explicado en detalle con referencia a la Fig. 32. Por lo tanto, en el caso de que un tipo de porción de un macrobloque actual es un tipo de porción incluyendo un macrobloque al cual se aplica la predicción de vista interna, la codificación más eficiente se permite en lugar de un caso del uso de información de etiqueta indicando si la predicción de calculo será ejecutada o no usando información para una imagen en una vista diferente. La Fig. 32 es un diagrama para explicar un método de predicción de peso de acuerdo con la información de etiqueta indicando si se ejecuta la predicción calculada usando información para una imagen en una vista diferente a aquella si una imagen actual de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 32, por ejemplo, la información de etiqueta que indica si la predicción calculada será ejecutada usando información para una imagen en una vista diferente del de una imagen actual puede definirse como ' view_weighted_pred_flag ' o ' view_weighted_bipred_flag ' . Si ' view_weighted_pred_flag = 0', indica que la predicción calculada son se aplique a una porción de VP. Si la 1 view_weighted_pred_flag = 1', se aplica la predicción calculada explícita a una porción VP. Si ' view_weighted_bipred_flag = 0', indica que la predicción calculada por omisión se aplica a una porción VB. Si ' view_weighted_bipred_flag = 1', indica que la predicción calculada explícita se aplica a una porción VB. Si ' view_weighted_bipred_flag = 2', índice que la predicción calculada por omisión implícita se aplica a una porción VB. En el caso que la predicción calculada implícita se aplicó a una porción de VB, un coeficiente calculado puede obtenerse de una distancia en relación entre una vista actual y una vista diferente. En el caso de que la predicción calculada implícita de aplica a una porción VB, la predicción calculada puede realizarse usando un identificador de vista identificando una vista de una imagen o un conteo de orden de imagen (POC) realizado considerando la determinación de cada vista . Las informaciones de etiqueta anteriores pueden incluirse en un conjunto de parámetros de imágenes (PPS). En este caso, el conjunto de parámetros de imágenes (PPS) significa información titular indicando un modo de codificación de todas las imágenes (v.gr., modo de codificación de entropía, valor inicial de parámetro de cuantificación por unidad de imagen, etc.). Aún, el conjunto de parámetros de imagen no se unen a todas las imágenes. Si un conjunto de parámetros de imágenes no existe, un conjunto de parámetros de imágenes que existe justo antes se usa como información titular. La Fig. 33 es un diagrama de sintaxis para ejecutar la predicción calculada de acuerdo con una información de etiqueta recién definida de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 33, en la codificación de video de visión múltiple a la cual se aplica la presente invención, en el caso en que un tipo de porción incluyendo un macrobloque aplicado a una predicción de vista interna y la información de etiqueta que indica si la predicción calculada será ejecutada usando información para una imagen en una vista diferente de la cual se define una imagen actual, es necesario decidir la clase de predicción calculada que será ejecutada de acuerdo con un tipo de porción . Por ejemplo, si un tipo de porción, como se muestra en la Fig. 33, extraído de una señal de video es una porción P o una porción SP, la predicción calculada puede ejecutarse si ' weighted_pred_flag = 1'. En el caso de que un tipo de porción sea una porción B, la predicción puede ejecutarse si ' weighted_bipred_flag=l 1. En el caso que un tipo de porción sea una porción de VP, la predicción calculada puede ejecutarse si ' view_weighted_pred_flag = 1'. En el caso de que un tipo de porción sea una porción VB, la predicción calculada puede ejecutarse si ' view_weighted_bipred_flag = 1' . La Fig. 34 es una gráfica de flujo de un método para ejecutar la predicción calculada de acuerdo a una unidad de NAL (capa de extracción de red) de acuerdo con una modalidad de la presente invención. Haciendo referencia a ala Fig. 34, primero que todo, un tipo de unidad de NAL (nal_unit_type) se extrae de una señal de video (S910) . En este caso, el tipo de unida de NAL significa un identificador que indica un tipo de una unidad de NAL. Por ejemplo, si ' nal_unit_type = 5', una unidad de NAL es una porción de una imagen de IDR. Y, la imagen de IDR (actualización de decodificación instantánea) significa una imagen superior de una secuencia de video. Subsiguientemente, se revisa si el tipo de unidad de NAL es un tipo de unidad de NAL para codificación de video de visión múltiple (S3420) . Si el tipo de unidad de NAL es el tipo de unidad de NAL para la codificación de video de vista múltiple, la predicción calculada se lleva a cabo usando información para una imagen en una vista diferente a la de una imagen actual (S3430) . El tipo de unidad de NAL puede ser un tipo de unidad de NAL aplicable a la codificación de video creciente y codificación de video de múltiples vistas o un tipo de unidad de NAL para codificación de video de múltiples vistas únicamente. Por lo tanto, si el tipo de unidas de NAL es para codificación de video de múltiples vistas, la predicción calculada deberá ejecutarse usando la información para la imagen en la vista diferente a la de la imagen actual. Por lo tanto, es necesario definir una nueva sintaxis. Esto será explicado en detalle con referencia a la Fig. 35 y la Fig. 36 de la siguiente manera. La Fig. 35 y la Fig. 36 son diagramas de sintaxis para ejecutar la predicción calculada en el caso de que el tipo de unidad de NAL sea para codificar múltiples vistas de video de acuerdo con una modalidad de la presente invención.
Primero que todo, si un tipo de unidad de NAL es un tipo de unidad de NAL para codificación de video de múltiples vistas, la sintaxis para ejecutar la predicción calculada convencional (v.gr., H264) puede modificarse en una sintaxis mostrada en la Fig. 35, o la Fig. 36. Por ejemplo, un número de referencia 3510 indica una parte de sintaxis que realiza la predicción calculada convencional y un número de referencia 3520 indica una parte de sintaxis para lleva r a cabo la predicción calculada en codificación de video de visión múltiple. Por lo tanto, la predicción calculada se lleva a cabo por la parte de sintaxis 3520 únicamente si el tipo de unidad de NAL es el tipo de unidad de NAL para la codificación de video de múltiples vistas. En este caso, dado que se adiciona información para una vista, cada elemento de sintaxis incluye una porción de 'vista'. Por ejemplo, hay un ' luma_view_log2_weight_denom, chroma_view_log2_weight_denom ' o similares. Y un número de referencia 3530 en la Fig. 36 indica una parte de sintaxis para llevar a cabo la predicción calculada convencional y un número de referencia 3540 en la Fig. 36 indica una parte de sintaxis para llevar a cabo la predicción calculada en codificación de videos de múltiples vistas. De esta manera, la predicción calculada se lleva a cabo por la parte de sintaxis 3540 solo si el tipo de unidad de NAL es el tipo de unidad de NAL para codificación de video de múltiples vistas. Asi mismo, dado que se agrega información para una vista, cada elemento de sintaxis incluye una porción de 'vista1. Por ejemplo, hay un ' luma_view_wetiht_ll_flag, chroma_view_ eight_ll_flag 1 o similares. Por lo tanto, si se define la codificación de un tipo de unidad de NAL para la codificación de video de múltiples vistas, se permite la codificación más eficiente para una manera de realizar la predicción calculada usando la información para una imagen en una vista diferente de la de una imagen actual. La Fig. 37 es un diagrama de bloques de una parto para decodificar una señal de video de acuerdo con una modalidad de la presente invención. Haciendo referencia ala Fig. 37, un aparato para decodificar una señal de video de acuerdo con la presente invención incluye una unidad de extracción del tipo de porción 3710, una unidad del modo de predicción 3720 y una unidad de decodificación 3730. La Fig. 38 es una gráfica de flujo de un método para decodificar una seña de video en el aparato de decodificación mostrado en la Fig. 37 de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 38, un método para decodificar una señal de video de acuerdo con una modalidad de la presente invención incluye un paso S3810 de la extracción de un tipo de porciones y un modo de predicción de macrobloques, y un paso S3820 de la decodificación de un macrobloque actual de acuerdo con el tipo de porción y/o modo de predicción de macrobloque. Primero, un esquema de predicción usado por una modalidad de la presente invención se explica para ayudar en el entendimiento de la presente invención. El esquema de predicción puede clasificarse en una predicción de vista interna (v.gr., predicción entre imágenes en la misma vista) y una predicción de visa interna (v.gr., predicción entre imágenes en vistas diferentes) . Y la predicción de intra-vistas puede ser el mismo esquema de predicción como una predicción temporal general. De acuerdo con la presente invención, la unidad de extracción del tipo de porciones 3710 extrae un tipo de porción de una porción que incluye un macrobloque actual (S3810) . En este caso, un campo de tipo de porción (slice_type) indicando un tipo de porción para la predicción de intra-vista y/o un campo de tipo de porción (view_slice_type) indicando que será provisto un tipo de porción para la predicción de vista interna como parte de la sintaxis de señal de video con el fin de proveer el tipo de porción. Esto será descrita en mayor detalle con respecto a las Figs. 6(a) y 6(b). Y cada uno del tipo de porción (slice_type) para la predicción de vista interna y el tipo de porción (view_slice_type) para predicción de vista interna puede indicar por ejemplo, un tipo de porción I (I_SLICE), un tipo de porción P (P_SLICE) o un tipo de porción (B_SLICE) . Por ejemplo, si 'slice_type' de una porción especifica es una porción B y un 1 view_slice_type 1 es un aporción P, un macrobloque en el a porción especifica se decodifica por un esquema de codificación de (B_SLICE) en una dirección de vista interna (es decir, un dirección temporal) y/o por un esquema de codificación de porción P (P_SLICE) enuan direccin de vista. Mientras, el tipo de porción puede incluir un tipo de porción P (VP) para la predicción de vista interna, un tipo de porción B (VB) para la predicción de vista interna y un tipo de porción mixto (Mixto) por predicción que resulta del mezclado de ambos tipos de predicción. A saber, el tipo de porción mixto provee predicción usando una combinación de intra-vista y predicción de vista interna. En este caso, el tipo de porción P para la predicción de vista interna significa un caso en el que cada macrobloque o división de macrobloques en una porción se predice de una imagen en una vista actual o una imagen en una vista diferente. Un tipo de porción B para la predicción de vista interna significa un caso en el que cada macrobloque o división de macrobloques incluido en una porción se predice de 'una o dos magines en una imagen actual' o 'una imagen en una vista diferente o dos imágenes en diferentes vistas, respectivamente'. Y, un tipo de porción mixta para la predicción que resulta del mezclado de ambas predicción se significa un caso en el que cada macrobloque o división de macrobloque incluido en una porción se predice de 'una o dos imágenes en una vista actual', 'una imagen en una vista diferente o dos imágenes sen vistas diferentes, respectivamente', o 'una o mas imágenes en una vista actual y una imagen en una vista diferente o dos imágenes en diferentes visas, respectivamente'. En otras palabras, una imagen denominada y un tipo de macrobloques permitidos difieren en cada tipo de porción, lo cual será explicado en detalle con referencia a la fig. 43 y la Fig. 44. Y la sintaxis entra las modalidades mencionadas antes del tipo de porción será explicado en detalle con referencia ala Fig. 40 y la Fig. 41. La unidad de extracción del modo de predicción 3720 puede extraer un indicador de modo de predicción de macrobloques indicando si un macrobloque actual es un macrobloque por predicción intra-vista, un macrobloque por preedición de vista interna o un macrobloque por predicción que resulta del mezclado de ambos tipos de predicción (S3820) . Para esto, la presente invención define un modo de predicción de macrobloques (mb_pred_mode) . Una modalidad de los modos de predicción de macrobloques se explicara en detalle con referencia a las Figs. 39, 40 y Fig. 41. La unidad de decodificación 3780 decodifica el macrobloque actual de acuerdo con el tipo de porción y/o el modo de predicción de macrobloques para recibir/producir el macrobloque actual (S3820) . En este caso, el macrobloque actual puede decodificarse de acuerdo con el tipo de macrobloque del macrobloque actual decidido de la información del tipo de macrobloque. Y, el tipo de macrobloque puede decidirse de acuerdo con el modo de predicción de macrobloques y el tipo de porciones. En el caso en el que el modo de predicción de macrobloques es un modo para predicción intra-vista, el tipo de macrobloques se decide de acuerdo con un tipo de porción para la predicción de intra-vivista y el macrobloques actual luego se codifica por una predicción de itera-vista de acuerdo con el tipo de macrobloques decidido. En el caso en donde el modo de predicción de macrobloques es un modo para predicción de vista interna, el tipo de macrobloques se decide de acuerdo con un tipo de porción para la predicción de vista interna y el macrobloque actual luego se decodifica por la predicción de vista interna de acuerdo con el tipo de macrobloques decididos. En este caso, el tipo de macrobloques depende de un modo de predicción de macrobloques un tipo de porciones. En particular, un esquema de predicción que será usado para un tipo de macrobloques puede determinarse de un modo de predicción de macrobloques y un tipo de macrobloques luego se decide de una información de tipo de macrobloques por un tipo de porción de acuerdo con el esquema de predicción. A saber, uno o ambos del slice_type y view_slice_type extraídos se selección con base en el modo de predicción de macrobloques. Por ejemplo, si un modo de predicción de macrobloques es un modo de predicción de vista interna, un tipo de macrobloques que debe decidirse de una tabla de macrobloques de tipos de porción (I, P, B) que corresponde a un tipo de porciones ( view_slice_type) para predicción de vista interna. La relación entra un modo de predicción de macrobloques y un tipo de macrobloques será explicado en detalla con referencia las Figs. 39, 40 y Figs. 41. La Fig. 39 es un diagrama de un modo de predicción de macrobloques de acuerdo con las modalidades del ejemplo de la presente invención. En la Fig. 39(a), se muestra una tabla que corresponde a una modalidad del modo de predicción de macrobloques (mb_pred_mode) de acuerdo con la presente invención . En el caso de una predicción de intra-vista, es decir, que se usa la predicción temporal únicamente para un macrobloque, '0' se asigna a un valor del ' mb pred mode ' . En el caso de que se use la predicción de vista interna para un macrobloque únicamente, '1' se siga a un valor de 'mb_pred_mode 1. En el caso de que se use la predicción temporal de de vista interna para un macrobloque, se asigna '2' a un valor de ' mb_pred_mode 1. En este caso, si un valor de 1 mb_pred_mode 1 Es '1', es decir, si ' mb_pred_mode ' Indica la predicción de vista interna, lista de dirección de vista 0 (ViewList) o lista de dirección de vista 1 (VewListl) se define como una lista de imagen de regencia para la predicción de vista interna. En la Fig. 39(b), se muestra la relación entre un modo de predicción de macrobloques y un tipo de macrobloque de acuerdo con otra modalidad. Si un valor de ' mb_pred_mode ' es '0', se usa únicamente la predicción temporal Y, un tipo de macrobloque se decide de acuerdo con un tipo de porción (slice_type) para predicción de intra-vista. Si un valor de ' mg_pred_mode ' Es 'G, la predicción de vista interna se usa únicamente. Y un tipo de macrobloque se decide de acuerdo con un tipo de porción ( view_slice_type) para predicción de vista interna. Si un valor de ' mb_pred_mode ' es '2', se usa la predicción mixta de la predicción temporal y de vista interna. Y, dos tipos de macrobloques se deciden de acuerdo con un tipo de rocín (slice type) para predicción de intra- vista y un tipo de porción (vie _slice_type) para predicción de vista interna. Basado en el modo de predicción de macrobloques, el tipo de macrobloques se da con base en el tipo de porción como se muestras en las siguientes tablas 1-3. [favor de insertar tablas 7-12, 7-14 en N6540 como tablas 1-3] . En otras palabras, en esta modalidad, un esquema de predicción usado para un macrobloque y un tipo de porción denominado se deciden por un modo de predicción de macrobloques. Y, un tipo de macrobloques se decide de acuerdo con el tipo de porción. La Fig. 40 y la Fig. 41 son diagramas de las modalidades de los ejemplos de la sintaxis de una porción de la señal de video recibidas por el aparato para decodificar la señal de video. Como se muestra, la sintaxis tiene tipo de porciones de información de modos de predicción de macrobloques de acuerdo con una modalidad de la presente invención . En la Fig. 40, se muestra una sintaxis del ejemplo. En la sintaxis, el campo 'slice_type' y el campo ' view_slice_type ' provee tipos de porciones y el 1 mb_pred_mode ' provee un modo de predicción de macrobloques. De acuerdo con la presente invención, el campo de 'slice_type' provee un tipo de porción para predicción de intra-vista y el campo de ' iew slice type ' provee un tipo de porciones para la predicción de vista interna. Cada tipo de porción puede volverse un tipo de porción I, tipo de porción P o tipo de porción B. Si un valor de ' mb_pred_mode ' es '0' o '?', se decide un tipo de macrobloque . En el caso de un valor del ' mb_pred_mode 1 es '2', puede observarse que otro tipo de macrobloques (o dos tipos) además se decide. En otras palabras, la sintaxis mostrada en (a) de la Fig. 40 indica que ' view_slice_type ' se agrega para aplicar más los tipos de porción convencional (I, P, B) a codificación de video de vista múltiple. En la Fig. 41, se muestra otra sintaxis del ejemplo. En la sintaxis, un campo de 'slice_type' se emplea para proveer un tipo de porción y un campo de ' mb_pred_mode ' se emplea para proveer un modo de predicción de macrobloques. De acuerdo con la presente invención, el campo de 'slice_type' puede incuir, entre otros, un tipo de porción (VP) para predicción de vista interna, un tipo B de porciones (VB) para predicción de vista interna y un tipo de porción mixta (Mixto) para la predicción que resulta desmezclado de predicaciones de intra-vista y vista interna. Si un valor en el campo de ' mb_pred_mode 1 es 0' o '1', se decide un tipo de macrobloque. Aún, en el caso en el que un valor de campo de ' mb_pred_mode 1 '2', puede observarse que se deciden un tipo de macrobloques adicionales (es decir, el total de dos) . En esta modalidad, la información de tipo de porciones existe en un encabezado de porciones, se aplicará en detalle con respecto a las Figs. 42. En otras palabras, la sintaxis mostrada en la Fig. 41 indica que VP, VB y tipos de porciones mixtas se agregan al tipo de porciones convencionales (slice_type) . Las Figs. 42 son diagramas de ejemplos para aplicar los tipos de porciones mostrados en la Fig. 41. El diagrama en la Fig. 42(a) muestra que un tipo de porciones P (VP) para la predicción de vistas internas, un tipo de porciones B (VB) para la predicción de vistas internas y un tipo de porciones mixto (mixtos) para la predicción que resultan del mezcla de ambas predicciones pueden existen como el tipo de porciones, además de otros tipos de porciones, en un encabezado de la porción. En particular, los tipos de porciones VP, VB y Mixtos de acuerdo con una modalidad de ejemplo se agregan a los tipos de porciones que pueden existir en una encabezado de porciones generales . El diagrama en la Fig. 42(b) muestra que el tipo de porciones P (VP) para predicción de vistas internas, un tipo de porción B (VB) para predicción de vistas internas y un tipo de porciones mixta (mixtas) para predicción que resulta desmezclado, ambas predicciones pueden existir como el tipo de porciones en un encabezado de porciones para codificación de vistas múltiples (MVC) . En particular, los tipos de porciones de acuerdo con una modalidades ilustrativa se definen en un encabezado de porciones para codificación de video de múltiples vistas. El diagrama en la Fig. 42(C) muestra un tipo de porciones (VP) para la predicción de vistas internas, un tipo de porciones B (VB) para predicción de vistas internas y un tipo de porciones mixtas (Mixtas) para predicción que resulta del mezclado, ambas predicciones pueden existir como el tipo de porciones, además del tipo de porciones existentes para codificación de video creciente, en un encabezado de porciones para codificación de video creciente (SVC) . En particular, los tipos de porciones VP, VB y mixtos de acuerdo con una modalidad ilustrativa se agregan a tipos de porciones que pueden existir en un encabezado de porción para la norma de codificación de video creciente (SVC) . La Fig. 43a es un diagrama de varios ejemplos del tipo de porciones incluidos en el tipo de porciones mostrados en la Fig. 41. En la Fig. 43(a), se muestra un caso en el que un tipo de porciones se predice de una imagen en una diferente vista. Por lo tanto, un tipo de porción se vuelve un tipo de porción de (VP) para predicción de vistas internas. En la Fig. 43(b), un caso en donde tipo de porción se predice de dos imágenes en diferentes vistas, se muestran respectivamente. Por lo tanto, un tipo de porción se convierte en un tipo de porciones B (VB) para predicción de vista interna. En las Figs. 43(c) y 43(f), se muestra un caso en el que un tipo de porciones se predice de una o más imágenes en una vista actual y una imagen en una vista diferente. De esta manera, un tipo de porción se vuelve un tipo de porción mixto (Mixto) para predicción que resulta del mezclado de ambas predicciones. También, en las Figs. 43(d) y 43(e), se muestra un caso en el que un tipo de porción se predice de una o dos imágenes en una vista actual y dos imágenes en diferentes vistas. La Fig. 44 es un diagrama de un macrobloque que se permite para los tipos de porciones mostrados en la Fig. 41. Haciendo referencia a la Fig. 44, un intra-macrobloque (I), un macrobloque (P) previsto de una imagen enana vista actual o un macrobloque (VP) previsto de una imagen en una vista diferente se deja para un tipo de porción P (VP) por predicción de vista interna. Un intra-macrobloque (I), un macrobloque (P o B) provisto de una o más imágenes en una vista actual o un macrobloque VP o VB provisto de una imagen en una vista diferente o dos imágenes en diferentes vistas, respectivamente, se permiten para un tipo de porción B (VB) por predicción de vista interna.
Y, un intra-macrobloque (I), un macrobloque (P o B) previsto de una o dos imágenes en una vista actual; un macrobloque (VP o VB) previsto de una imagen en una vista diferente o dos imágenes en diferentes vistas, respectivamente, o un macrobloque (Mixto) previsto de una o do imágenes en una vista actual, una imagen en una vista diferente o dos magines en vistas diferentes, respectivamente, se permiten para un tipo de porción mixta (Mixta) . Las Figs. 45-47 son diagramas de un tipo de macrobloques de un macrobloque que existe en un tipo de porción mixto (Mixto) de acuerdo con las modalidades de la presente invención. En las Figs. 45(a) y 45(b) los esquemas de configuración para un tipo de macrobloques (bm_type) y tipo de sub-macrobloque (sub_b_type) de un macrobloque que existe enana porción mixta se muestran respectivamente. En las Figs. 46 y 47, la representación binaria de la dirección predictiva de un macrobloque que existe en una porción mixta y dirección predictiva real de la porción mixta se muestran respectivamente. De acuerdo con una modalidad de la presente invención, un tipo de macrobloques (mb_type) se prepara considerando tanto un campo (partition_siz) de una división de macrobloques y una dirección precictiva (Direction) de una división de macrobloques. Y un tipo de sub-macrobloques ( sub_mb_type) se prepara considerando tanto un tamaño (Sub_partition_Size) de una división del sub-macrobloque y una dirección predictiva (Sub_direction) de cada división de macrobloque. Haciendo referencia a la Fig. 45(a), 'DirectionO' y 'Directionl' hincan una dirección predictiva de una primera división de macrobloques y una dirección preactiva de una segunda división de macrobloques, respectivamente. En particular, en el caso de un macrobloque de 8x16, 'DifertionO' indica una dirección predictiva para una división de macrobloques de 8x16 y 'Directionl' indica una dirección predictiva para una división de macrobloques recta de 8 x 16. Una principio de configuración del tipo de macrobloques (mb_type) se explica en detalle de la siguiente manera. Primero, los dos primeros bits indican un tamaño de división (Partition_size) de un macrobloque correspondiente y un valor de 0 ~3 está disponible para los dos primeros bites. Y, cuatro bits después de los dos primeros bits indican una dirección predictiva (Direction) en caso de que un macrobloque se divida en divisiones. Por ejemplo, en el caso de un macrobloque de 16x16, cuatro bits que indican una dirección predictiva de un macrobloque se conecta a una parte posterior de los dos primeros bits. En el caso de un macrobloque de 16x8, cuatro bis después de los primeros dos bits hincan una dirección predictiva (DirectionO) de una primera división y otros cuatro bits se conectan a so primeros cuatro bits para indicar una dirección predictiva (Directionl) de una segunda división. Asi mismo, en el caso de un macrobloque de 8 x 16, ocho bits se conectan a una parte posterior de los dos primeros bits. En esta caos, los cuatro primeros bits de los ocho bits unidas de los dos primeros bits indican una dirección preactiva de una primera división y los cuatro bits siguientes indican una dirección predictiva de una segunda división. Haciendo referencia a la Fig. 45(b), una dirección predictiva (Sub_Direction) de un sub-macrobloque se usa de la misma manera que una dirección predictiva (Direction) de la división de macrobloques mostrada en la Fig. 45(a). Un principio de configuración del tipo de submacrobloque (sub_mb_type) se explica en detalle de la siguiente manera. Primero, los dos primeros bits indican un tamaño de división (Partition_size) de un macrobloque correspondiente y los dos segundos bits, en seguida de los dos primeros bits, indican un tamaño de división (Sub_partition_size) de un submacrobloque del macrobloque correspondiente. Un valor de 0 ~ 3 está disponible para cada uno de los primero y segundos dos bits indican una dirección preactiva (Sub_direction) en el caso de que se divida un macrobloque en divisiones de sub-macrobloques . Por ejemplo, si un tamaño de (Partition_Size) de una división de un macrobloque es de 8x8 y si un tamaño (Sub_partitionSize) de una división de un sub-macrobloque es de 4x8, los dos primeros bits tienen un valor de 3, los dos segundos bits tienen un valor de 2, los primeros cuatro bits después de los dos segundos bits indican una dirección predictiva para un bloque izquierdo de 4 x 8 de los dos bloques de 4 x 8, y los segundos cuatro bits siguientes a los primeros cuatro bits indican una dirección predictiva para un bloque de 4 x 8 derecho. Haciendo referencia a la Fig.46, una dirección predicativa de un macrobloque se construye con cauto bits. Y, puede observarse que cada representación binaria se convierte de '1' de acuerdo con un caso de referencia de una imagen en la posición izquierda (L) , superior (T) , derecha (R) o inferior (B) de una imagen actual. Haciendo referencia a la Fig. 47, por ejemplo, en el caso de que una dirección predictiva está en la parte superior (T) , una imagen localizada en una parte superior en una dirección de vista de una imagen actual a la que se hace referencia. En el caso en que una dirección predictiva corresponde a todas las direcciones (LTRB) , puede observarse que las imágenes en todas las direcciones (LTRB) de un imagen actual a la que se hace referencia.
La Fig. 48 es un diagrama de bloques de una parte para codificar una seña de video de acuerdo con una modalidad de la presente invención. Haciendo referencia a la Fig. 48, un aparato para codificar una señal de video de acuerdo con una modalidad de la presente invención. El aparato incluye una unidad de decisión de tipo de macrobloques 4810, una unidad de generación de macrobloques 4820 y una unidad de decodificación 4830. La Fig. 49 es una gráfica de flujo de un método para codificar una seña de ideo en el aparato de codificación mostrado en la Fig. 48 de acuerdo con una modalidad de la presente invención. Haciendo referencia ahora a la Fig. 49, un método para codificar una señal de video de acuerdo con una modalidad de la presente invención incluye un paso S4910 para decidir un primer tipo de macrobloques para la predicción de intra-vista y un segundo tipo de macrobloques para la predicción de vista interna, un paso S4920 para generar un primero macrobloque que tiene el primer tipo de macrobloques un segundo macrobloques que tiene el segundo tipo de macrobloques, un paso S4930 para generar un tercer macrobloque usando los primero y segundo macrobloques y un paso S4940 de la codificación de un tipo de macrobloques de un macrobloque actual y un modo de predicción de macrobloques . De acuerdo con la presente invención, la unida de decisión del tipo de macrobloques 4810 decide un primer tipo de macrobloques para la predicción de intra-vista y un segundo tipo de macrobloques para la predicción de vista interna (S4910) como se describe en detalle anteriormente. Subsiguientemente, la unidad de generación de macrobloques 4820 genera un primer macrobloque en el primer tipo de macrobloques y un segundo macrobloque que tiene el segundo tipo de macrobloques (S4920) usando técnicas de predicción bien conocidas y luego genera un tercer macrobloque que usa los primero y segundo macrobloques (S4930) . En este caso, el tercer macrobloque se genera de acuerdo con un valor medio entre el primero y segundo macrobloques . Finalmente, la unida de codificación 4830 codifica un tipo de macrobloques (m_type) de un macrobloque útil y un modo de predicción de macrobloques (mb_pred_mode ) del macrobloque actual para comparar las eficiencias de codificación del primero al tercer macrobloque (S4940) . En este caso, hay varios métodos para medir las eficiencias de codificación. En particular, un método usando el costo de RD (rate-distortion) (RD, régimen de distorsión por sus sigla sen inglés) se usa en esta moldead de la presente invención. Como se sabe bien, el método de costo de RD, un costo correspondiente se ulula co dos componentes: un número de bits de codificación generado de la codificación de un bloque correspondiente y un valor de distorsión que inicia un error de una secuencia actual. El primero y segundo tipos de macrobloques pueden decidirse en una manera para seleccionar un tipo de macrobloques que tienen un valor mínimo del costo de RD explicado antes. Por ejemplo, un tipo de macrobloques que tiene un valor mínimo del costo de RD entre los tipos de macrobloques por la predicción de intra-vista se decide como el primer tipo de macrobloques. Y, un tipo de macrobloques que tiene un valor mínimo del costo de RD entre los tipos de macrobloques por predicción de vista interna se decide como el segundo tipo de macrobloques. En el paso de codificación del tipo de macrobloques y el modo de predicción de macrobloques, el tipo de macrobloques de un modo de predicción asociado con uno de los primero y segundo macrobloques que tiene el costo de RD menor puede seleccionarse. Subsiguientemente, el costo de RD del tercer macrobloque se determina. Finalmente, el tipo de macrobloques y modo de predicción de macrobloques del macrobloque actual se codifica por la comparación del costo de RD de los primero o segundo macrobloques seleccionaos y el costo de RD del tercer macrobloque entre ellos.
Si el costo de RD del primero o segundo macrobloque seleccionado es igual a, o mayor que, el costo de RD del tercer macrobloque, el tipo de macrobloque se convierte en un tipo de macrobloques que corresponde al primero o segundo macrobloque seleccionados. Por ejemplo, si el costo de RD del primer macrobloque es menor que el de los segundo y tercero macrobloques, el macrobloque actual se ajusta como el primer tipo de macrobloques. Y, el modo de predicción de macrobloque (es decir, vista interna) se vuelve un esquema de predicción de un macrobloque que corresponde al costo de RD. Por ejemplo, si el costo de RD del segundo macrobloque de manera que los primero y tercer macrobloques, un esquema de predicción de vista interna como un esquema de predicción del segundo macrobloque se convierte en un modo de predicción de macrobloques del macrobloque actual. Mientras, si el costo der. Del tercer macrobloque es menor a los costos de RD de los primero y segundo macrobloques, los tipo de macrobloques corresponde a los primero y segundo tipos de macrobloques. En particular, los tipos de macrobloques de predicción de INTA-vista y de predicción de vista interna se convierten en tipos de macrobloques del macrobloque actual. Y, el modo de predicción de macrobloques se convierte en un esquema de predicción mixto que resulta de las predicciones de intra-vista y de vista interna. Consecuentemente, la presente invención provee por lo menos el siguiente efecto o ventaja. La presente invención puede excluir la información de redundancia entra las vistas debido a varios esquemas de predicción entre las visas y dicha información como tipos porciones, los tipos de macrobloques y modos de predicción de macrobloques; incrementando asi el desempeño de eficiencia de codificación/descodificación .
APLICACIÓN INDUSTRIAL Mientras que la presente invención se ha descrito e ilustrado en la presente con referencia a las modalidades preferida del mismo, será evidente para los expertos en la materia que se pueden hacer varias modificaciones y variaciones en la misma sin alejarse del espíritu y alcance de la invención. Por lo tanto, se pretende que la presente invención cubre las modificaciones y variaciones de esta invención que están dentro del alcance de las reivindicaciones anexas y sus equivalentes.

Claims (8)

REIVINDICACIONES
1. -Un método para decodificar una señal de video, que comprende los pasos d: revisar un esquema de codificación de la señal de video; obtener información de configuración para la señal de video de acuerdo con el esquema de codificación; reconocer un número total de vistas usando la información de configuración, reconocer la información de referencia de vista interna basada en el número total de las vistas; y codificar la señal de video basada en la información de referencia de vista interna, en donde la información de configuración incluye por lo menos información de vistas para identificar una vista de la señal de video.
2. - El método de la reivindicación 1, que comprende además el paso de revisar un nivel para observar el incremento de la señal de video, en donde la señal de video se decodifica con base en el nivel.
3. - El método de la reivindicación 1, en donde la información de configuración incluye además un nivel temporal, una etiqueta de grupo de imagen de vista interna, y una etiqueta de IDR.
4. - El método de la reivindicación 2, en donde el en el paso de decodificación, si la señal de video corresponde a una vista de base de acuerdo con el nivel, se codifica la señal de video de la vista de base.
5. - El método de la reivindicación 1, que comprende además el paso de obtener información de una imagen en una vista diferente a la de cuan imagen actual usando la información de vista en donde la información de la imagen en la vista diferente se usa para decodificar la señal de ideo.
6. - El método de la reivindicación 5, en donde el paso de decodificación de señal de video comprende además el paso de llevar a cabo compensación de movimiento usando la información para la imagen en la vista diferente, en donde el información para la imagen en la vista diferente incluye la información de vector de movimiento y la información de imagen de referencia.
7. - El método de la reivindicación 5, el paso de decodificación de señal de video comprendiendo además los pasos de: extraer un identificador de predicción de síntesis de vista interna que indica si se obtiene una imagen en una vista virtual usando una imagen en una vista cercana a la de una imagen actual de la señal de video; y obtener una imagen en la vista virtual de acuerdo con el identificador de predicción de síntesis de vista interna, en donde la información para la imagen en la vista diferente se usa para obtener la imagen en la vista virtual. 8.- El método de la reivindicación 5, en donde el paso de decodificación de señal de video comprende además el paso de obtener información profunda entra diferentes vistas usando la información para la imagen en diferentes vistas.
MX2008012437A 2006-03-30 2007-03-30 Un metodo y aparato para decodificar/codificar una señal de video. MX2008012437A (es)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US78717106P 2006-03-30 2006-03-30
US80139806P 2006-05-19 2006-05-19
US81064206P 2006-06-05 2006-06-05
US83060106P 2006-07-14 2006-07-14
US83215306P 2006-07-21 2006-07-21
US83792506P 2006-08-16 2006-08-16
US84003206P 2006-08-25 2006-08-25
US84215206P 2006-09-05 2006-09-05
PCT/KR2007/001580 WO2007114608A1 (en) 2006-03-30 2007-03-30 A method and apparatus for decoding/encoding a video signal

Publications (1)

Publication Number Publication Date
MX2008012437A true MX2008012437A (es) 2008-11-18

Family

ID=38563848

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2008012437A MX2008012437A (es) 2006-03-30 2007-03-30 Un metodo y aparato para decodificar/codificar una señal de video.

Country Status (13)

Country Link
US (29) US8565303B2 (es)
EP (7) EP2008460B1 (es)
JP (5) JP5055355B2 (es)
KR (26) KR100949982B1 (es)
AU (1) AU2007232607B2 (es)
BR (1) BRPI0710048A2 (es)
CA (1) CA2647735C (es)
DE (4) DE202007019446U1 (es)
ES (3) ES2619522T3 (es)
MX (1) MX2008012437A (es)
PL (2) PL2008460T3 (es)
RU (1) RU2530310C2 (es)
WO (5) WO2007114612A1 (es)

Families Citing this family (246)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914713B1 (ko) * 2006-01-09 2009-08-31 엘지전자 주식회사 영상 신호의 레이어 간 예측 방법
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
JP5192393B2 (ja) * 2006-01-12 2013-05-08 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
US8767836B2 (en) * 2006-03-27 2014-07-01 Nokia Corporation Picture delimiter in scalable video coding
EP2039169A2 (en) * 2006-07-06 2009-03-25 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding
ZA200900857B (en) 2006-07-06 2010-05-26 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
WO2008007917A1 (en) 2006-07-12 2008-01-17 Lg Electronics, Inc. A method and apparatus for processing a signal
EP2632163A3 (en) * 2006-07-20 2013-11-27 Thomson Licensing Method and apparatus for signaling view scalability in multi-view video coding
US8731311B2 (en) * 2006-09-26 2014-05-20 Panasonic Corporation Decoding device, decoding method, decoding program, and integrated circuit
WO2008048499A2 (en) * 2006-10-13 2008-04-24 Thomson Licensing Reference picture list management syntax for multiple view video coding
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
CN101653000B (zh) * 2006-10-13 2013-01-02 汤姆逊许可公司 用于包含多视点视频编码的参考图像管理的方法
FR2907575B1 (fr) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Procede et dispositif de codage d'images representant des vues d'une meme scene
US9456222B2 (en) * 2006-10-18 2016-09-27 Thomson Licensing Local illumination and color compensation without explicit signaling
EP2087737A2 (en) * 2006-10-24 2009-08-12 Thomson Licensing Picture management for multi-view video coding
US8873932B2 (en) 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US20090180546A1 (en) 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
EP2418851A3 (en) * 2006-12-21 2012-05-23 Thomson Licensing Methods and apparatus for improved signaling using high level syntax for multi-view video coding and decoding
BRPI0806829A2 (pt) * 2007-01-04 2014-06-03 Thomson Licensing Método e aparelho para ocultamento de erros na transmissão de vídeo em vídeos codificados em múltiplas vistas que utilizam um alto nível de sintaxe
KR100801968B1 (ko) * 2007-02-06 2008-02-12 광주과학기술원 변위를 측정하는 방법, 중간화면 합성방법과 이를 이용한다시점 비디오 인코딩 방법, 디코딩 방법, 및 인코더와디코더
US8644379B2 (en) * 2007-03-07 2014-02-04 Himax Technologies Limited De-interlacing method and method of compensating a de-interlaced pixel
KR20100014552A (ko) * 2007-03-23 2010-02-10 엘지전자 주식회사 비디오 신호의 인코딩/디코딩 방법 및 장치
JP5273824B2 (ja) * 2007-04-04 2013-08-28 トムソン ライセンシング 参照ピクチャー・リスト管理
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) * 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
US8761265B2 (en) * 2007-04-17 2014-06-24 Thomson Licensing Hypothetical reference decoder for multiview video coding
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8917775B2 (en) * 2007-05-02 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video data
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
KR101366250B1 (ko) * 2007-06-19 2014-02-25 삼성전자주식회사 영상 분할을 이용한 영상 부호화, 복호화 방법 및 장치
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US10298952B2 (en) * 2007-08-06 2019-05-21 Interdigital Madison Patent Holdings Methods and apparatus for motion skip move with multiple inter-view reference pictures
WO2009023156A2 (en) * 2007-08-15 2009-02-19 Thomson Licensing Method and apparatus for error concealment in multi-view coded video
JP4739295B2 (ja) * 2007-08-27 2011-08-03 日本電信電話株式会社 映像信号生成装置、映像信号生成方法、映像信号生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
BR122012021797A2 (pt) * 2007-10-05 2015-08-04 Thomson Licensing Aparelho para incorporar informação de usabilidade de vídeo (vui) em um sistema de codificação de vídeo de múltiplas visualizações (mvc)
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
US8121191B1 (en) * 2007-11-13 2012-02-21 Harmonic Inc. AVC to SVC transcoder
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
WO2009111007A1 (en) * 2008-03-04 2009-09-11 Thomson Licensing Virtual reference view
CN101960854B (zh) * 2008-03-10 2013-12-18 汤姆森许可贸易公司 支持增强效率和主观质量的预测帧选择的方法和设备
JP5056560B2 (ja) * 2008-03-17 2012-10-24 富士通株式会社 符号化装置、復号化装置、符号化方法および復号化方法
EP2109047A1 (en) * 2008-04-07 2009-10-14 Global Digital Technologies SA Video characterization, identification and search system
WO2009131359A2 (en) * 2008-04-21 2009-10-29 Samsung Electronics Co., Ltd. Apparatus and method for composing scenes using rich media contents
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
CN101803388B (zh) * 2008-05-23 2012-11-21 松下电器产业株式会社 图像解码装置、图像解码方法、图像编码装置、以及图像编码方法
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
CN102396221B (zh) * 2008-06-25 2015-03-25 思科技术公司 阻止特技模式操作的支持
JP2012505569A (ja) * 2008-10-07 2012-03-01 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 多視点メディアデータ
KR101697598B1 (ko) 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
KR101625058B1 (ko) * 2008-11-10 2016-05-27 엘지전자 주식회사 시점간 예측을 이용한 비디오 신호 처리 방법 및 장치
CN102210147B (zh) 2008-11-12 2014-07-02 思科技术公司 处理具有[aar]单个视频信号的多个处理后的表示的视频[aar]节目以用于重建和输出
US8760495B2 (en) * 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101233627B1 (ko) * 2008-12-23 2013-02-14 한국전자통신연구원 스케일러블 부호화 장치 및 방법
RU2535176C2 (ru) 2009-01-19 2014-12-10 Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка Способ кодирования, способ декодирования, устройство кодирования, устройство декодирования, программа и интегральная схема
US8326131B2 (en) 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
ES2524973T3 (es) 2009-02-23 2014-12-16 Nippon Telegraph And Telephone Corporation Codificación y decodificación de imágenes multivista usando corrección de iluminación y de color localizada
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US9485299B2 (en) * 2009-03-09 2016-11-01 Arris Canada, Inc. Progressive download gateway
US8767832B2 (en) * 2009-03-10 2014-07-01 Mediatek Inc. Method and apparatus for processing a multimedia bitstream
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
JP4947389B2 (ja) 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
KR101619451B1 (ko) * 2009-04-17 2016-05-10 엘지전자 주식회사 다시점 비디오 신호의 처리 방법 및 장치
KR20120027194A (ko) * 2009-04-21 2012-03-21 엘지전자 주식회사 다시점 비디오 신호 처리 방법 및 장치
US8933989B2 (en) 2009-04-22 2015-01-13 Lg Electronics Inc. Reference picture list changing method of multi-view video
EP2425626A2 (en) * 2009-05-01 2012-03-07 Thomson Licensing Inter-layer dependency information for 3dv
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
TWI384887B (zh) * 2009-06-11 2013-02-01 Univ Nat Central 多視點影像編解碼方法
US8780999B2 (en) 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
CN102342109A (zh) * 2009-07-29 2012-02-01 松下电器产业株式会社 多视点视频解码装置及其方法
US8566393B2 (en) * 2009-08-10 2013-10-22 Seawell Networks Inc. Methods and systems for scalable video chunking
WO2011050998A1 (en) * 2009-10-29 2011-05-05 Thomas Sikora Method and device for processing a video sequence
KR101282552B1 (ko) 2009-11-04 2013-07-04 한국전자통신연구원 병렬 처리 스케일러블 비디오 부/복호화 방법 및 장치
TW201121331A (en) * 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
KR101444691B1 (ko) * 2010-05-17 2014-09-30 에스케이텔레콤 주식회사 참조영상 구성 및 인덱싱 장치 및 방법
KR102004836B1 (ko) 2010-05-26 2019-07-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP2012023651A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
WO2012011525A1 (ja) * 2010-07-21 2012-01-26 株式会社プランネット・アソシエイツ 三次元ビデオストリームへの映像変換方法
WO2012036902A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
US20130182768A1 (en) * 2010-09-30 2013-07-18 Korea Advanced Institute Of Science And Technology Method and apparatus for encoding / decoding video using error compensation
US9521424B1 (en) * 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
US9106916B1 (en) 2010-10-29 2015-08-11 Qualcomm Technologies, Inc. Saturation insensitive H.264 weighted prediction coefficients estimation
KR20120050725A (ko) * 2010-11-11 2012-05-21 삼성전자주식회사 데이터 재생 방법 및 장치
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
CN105791856B (zh) 2010-11-23 2019-07-12 Lg电子株式会社 由编码装置和解码装置执行的间预测方法
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
WO2012093879A2 (ko) * 2011-01-06 2012-07-12 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2012096164A1 (ja) * 2011-01-12 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9215473B2 (en) 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
CN102158733B (zh) * 2011-01-28 2015-08-19 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与系统
US20130322535A1 (en) * 2011-02-21 2013-12-05 Electronics And Telecommunications Research Institute Method for encoding and decoding images using plurality of reference images and device using method
WO2012115434A2 (ko) * 2011-02-21 2012-08-30 한국전자통신연구원 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US20140044347A1 (en) * 2011-04-25 2014-02-13 Sharp Kabushiki Kaisha Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
US9154804B2 (en) * 2011-06-04 2015-10-06 Apple Inc. Hint based adaptive encoding
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
EP2717572B1 (en) 2011-06-24 2018-08-08 LG Electronics Inc. Encoding/decoding method and apparatus using a skip mode
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9338465B2 (en) 2011-06-30 2016-05-10 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US9060173B2 (en) * 2011-06-30 2015-06-16 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US11647197B2 (en) 2011-06-30 2023-05-09 Velos Media, Llc Context initialization based on slice header flag and slice type
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
RS57976B1 (sr) * 2011-07-02 2019-01-31 Samsung Electronics Co Ltd Aparat za multipleksiranje i demultipleksiranje video podataka za identifikovanje stanja reprodukcije video podataka
US9948938B2 (en) 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US9674525B2 (en) * 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US9635355B2 (en) * 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US10237565B2 (en) * 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
CN103875249B (zh) 2011-08-09 2018-05-04 三星电子株式会社 用于多视点视频预测编码的方法和装置以及用于多视点视频预测解码的方法和装置
CN103843349B (zh) 2011-08-25 2017-03-01 太阳专利托管公司 用于使用周期性缓冲器描述对视频进行编码和解码的方法和装置
ES2685431T3 (es) * 2011-09-07 2018-10-09 Sun Patent Trust Procedimiento de decodificación de imágenes y aparato de decodificación de imágenes
CN107483927B (zh) 2011-09-09 2020-06-05 株式会社Kt 用于解码视频信号的方法
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
AU2012311021B2 (en) 2011-09-19 2016-07-14 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
WO2013042995A2 (ko) 2011-09-22 2013-03-28 엘지전자 주식회사 영상 정보 시그널링 방법 및 장치와 이를 이용한 디코딩 방법 및 장치
US9131245B2 (en) 2011-09-23 2015-09-08 Qualcomm Incorporated Reference picture list construction for video coding
ES2705355B1 (es) * 2011-09-23 2020-01-29 Kt Corp Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
KR20140085456A (ko) 2011-09-29 2014-07-07 텔레폰악티에볼라겟엘엠에릭슨(펍) 레퍼런스 픽처 리스트 핸들링
WO2013055148A2 (ko) 2011-10-12 2013-04-18 엘지전자 주식회사 영상 인코딩 방법 및 디코딩 방법
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US8855433B2 (en) * 2011-10-13 2014-10-07 Sharp Kabushiki Kaisha Tracking a reference picture based on a designated picture on an electronic device
US8768079B2 (en) 2011-10-13 2014-07-01 Sharp Laboratories Of America, Inc. Tracking a reference picture on an electronic device
CN104025598B (zh) 2011-10-19 2017-11-14 太阳专利托管公司 图像编码方法、图像编码装置
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
EP2774360B1 (en) * 2011-11-04 2017-08-02 Huawei Technologies Co., Ltd. Differential pulse code modulation intra prediction for high efficiency video coding
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
US9124895B2 (en) 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
KR101841914B1 (ko) * 2011-11-08 2018-03-27 한국전자통신연구원 컬러 영상 및 깊이 영상을 포함하는 다시점 비디오의 부호화 및 복호화 방법, 그리고 부호화 및 복호화 장치
US20130113882A1 (en) * 2011-11-08 2013-05-09 Sony Corporation Video coding system and method of operation thereof
WO2013070028A1 (ko) * 2011-11-11 2013-05-16 엘지전자 주식회사 영상 정보 전송 방법 및 장치와 이를 이용한 복호화 방법 및 장치
US10158873B2 (en) 2011-11-30 2018-12-18 Qualcomm Incorporated Depth component removal for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US9131217B2 (en) * 2011-12-09 2015-09-08 Qualcomm Incorporated Reference picture list modification for view synthesis reference pictures
US9258559B2 (en) * 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
WO2013105207A1 (en) * 2012-01-10 2013-07-18 Panasonic Corporation Video encoding method, video encoding apparatus, video decoding method and video decoding apparatus
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
ES2629744T3 (es) 2012-01-17 2017-08-14 Telefonaktiebolaget Lm Ericsson (Publ) Gestión de listas de imágenes de referencia
US9538200B2 (en) 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
KR102273741B1 (ko) * 2012-01-19 2021-07-05 브이아이디 스케일, 인크. 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
WO2013107939A1 (en) * 2012-01-20 2013-07-25 Nokia Corporation Method for video coding and an apparatus, a computer-program product, a system, and a module for the same
JPWO2013111551A1 (ja) * 2012-01-27 2015-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
WO2013128832A1 (ja) 2012-03-02 2013-09-06 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US20130243085A1 (en) * 2012-03-15 2013-09-19 Samsung Electronics Co., Ltd. Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9712887B2 (en) 2012-04-12 2017-07-18 Arris Canada, Inc. Methods and systems for real-time transmuxing of streaming media content
US9503702B2 (en) 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
KR102096566B1 (ko) 2012-04-13 2020-04-02 지이 비디오 컴프레션, 엘엘씨 저지연 화상 코딩
WO2013157783A1 (ko) * 2012-04-15 2013-10-24 삼성전자 주식회사 참조픽처리스트 변경이 가능한 인터 예측 방법과 그 장치
US9979958B2 (en) * 2012-04-20 2018-05-22 Qualcomm Incorporated Decoded picture buffer processing for random access point pictures in video sequences
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
EP2843944A4 (en) * 2012-04-23 2015-09-23 Samsung Electronics Co Ltd MULTI VIEW VIDEO CODING METHOD AND DEVICE AND MULTILOOK VIDEO CODING METHOD AND DEVICE
WO2013162251A1 (ko) * 2012-04-23 2013-10-31 삼성전자 주식회사 다시점 비디오 예측을 위한 참조리스트를 이용하는 다시점 비디오 부호화 방법 및 그 장치, 다시점 비디오 예측을 위한 참조리스트를 이용하는 다시점 비디오 복호화 방법 및 그 장치
US9762903B2 (en) 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US20130329007A1 (en) * 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US9225978B2 (en) 2012-06-28 2015-12-29 Qualcomm Incorporated Streaming adaption based on clean random access (CRA) pictures
RU2635251C2 (ru) 2012-06-29 2017-11-09 ДжиИ Видео Компрешн, ЭлЭлСи Концепция потока видеоданных
JP5743968B2 (ja) * 2012-07-02 2015-07-01 株式会社東芝 動画像復号方法及び動画像符号化方法
BR112014033041A2 (pt) * 2012-07-02 2018-05-08 Samsung Electronics Co Ltd método de predição de movimento, método de compensação de movimento, aparelho de predição de movimento, aparelho de compensação de movimento, e meio de gravação legível em computador.
CN103533374B (zh) * 2012-07-06 2018-02-16 乐金电子(中国)研究开发中心有限公司 一种视频编码、解码的方法及装置
WO2014010894A1 (ko) 2012-07-11 2014-01-16 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
KR102185384B1 (ko) * 2012-07-11 2020-12-02 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
EP2876878B1 (en) * 2012-07-19 2018-12-12 Sun Patent Trust Image encoding method, image decoding method, image encoding device, and image decoding device
EP2901688B1 (en) 2012-09-28 2019-10-23 Nokia Technologies Oy An apparatus and a method for video coding and decoding
JP6345594B2 (ja) * 2012-09-28 2018-06-20 ドルビー・インターナショナル・アーベー 画像を復号する方法
US20140092976A1 (en) * 2012-09-30 2014-04-03 Sharp Laboratories Of America, Inc. System for signaling idr and bla pictures
US9313500B2 (en) 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
CN108401157B (zh) * 2012-10-01 2022-06-24 Ge视频压缩有限责任公司 可伸缩视频解码器、编码器及可伸缩视频解码、编码方法
US9854234B2 (en) * 2012-10-25 2017-12-26 Qualcomm Incorporated Reference picture status for video coding
KR102170828B1 (ko) * 2012-11-21 2020-10-27 엘지전자 주식회사 영상 디코딩 방법 및 이를 이용하는 장치
US9357212B2 (en) * 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
CN107770546B (zh) 2012-12-10 2020-04-10 Lg 电子株式会社 解码图像的方法和使用其的装置
JP6229895B2 (ja) * 2012-12-11 2017-11-15 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
WO2014097913A1 (ja) 2012-12-21 2014-06-26 ソニー株式会社 画像処理装置および方法
TWI669950B (zh) * 2012-12-21 2019-08-21 日商新力股份有限公司 影像處理裝置及方法
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
KR101737595B1 (ko) * 2012-12-27 2017-05-18 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램 및 화상 복호 프로그램
CN104982038B (zh) * 2013-01-09 2018-09-28 Lg 电子株式会社 处理视频信号的方法和设备
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
US10491458B2 (en) * 2013-01-31 2019-11-26 Dell Products L.P. System and method for reporting peer-to-peer transfer events
US10469866B2 (en) 2013-04-05 2019-11-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding video with respect to position of integer pixel
US20160037177A1 (en) * 2013-04-05 2016-02-04 Samsung Electronics Co., Ltd. Interlayer video encoding method and apparatus and interlayer video decoding method and apparatus for compensating luminance difference
US9473771B2 (en) 2013-04-08 2016-10-18 Qualcomm Incorporated Coding video data for an output layer set
KR20160002716A (ko) * 2013-04-11 2016-01-08 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9930363B2 (en) 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
WO2014166104A1 (en) 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Removal of parsing dependency for illumination compensation
KR102105323B1 (ko) * 2013-04-15 2020-04-28 인텔렉추얼디스커버리 주식회사 객체 기반 적응적 밝기 보상 방법 및 장치
CN105532005B (zh) * 2013-07-12 2019-04-26 三星电子株式会社 用于层间编码的方法和设备以及用于使用残差预测对视频进行层间解码的方法和设备
KR101712110B1 (ko) 2013-07-12 2017-03-13 삼성전자 주식회사 변이 벡터 유도를 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2015008464A1 (en) * 2013-07-14 2015-01-22 Sharp Kabushiki Kaisha Video parameter set signaling
KR101869882B1 (ko) * 2013-10-11 2018-06-25 브이아이디 스케일, 인크. Hevc 확장을 위한 하이 레벨 구문
JP2016213519A (ja) * 2013-10-15 2016-12-15 シャープ株式会社 画像復号装置、画像符号化装置
US9674544B2 (en) * 2013-11-25 2017-06-06 Qualcomm Incorporated POC value design for multi-layer video coding
US9942546B2 (en) 2013-12-12 2018-04-10 Qualcomm Incorporated POC value design for multi-layer video coding
US10469864B2 (en) 2014-11-27 2019-11-05 Kt Corporation Method and apparatus for video signal coding using current picture reference flag
CN112584140A (zh) 2014-11-27 2021-03-30 株式会社Kt 对视频信号进行解码或编码的方法
RU2605237C1 (ru) * 2015-07-16 2016-12-20 Общество с ограниченной ответственностью "МАКИНТЕХ" Управляющее устройство, система и способ управления освещением
CN105100549B (zh) * 2015-07-27 2018-06-29 京东方科技集团股份有限公司 图像补偿方法及装置
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
KR20180057789A (ko) 2016-11-22 2018-05-31 광운대학교 산학협력단 전방향 카메라에서 효과적인 차분 움직임 백터 전송방법을 이용한 비디오 코딩 방법 및 방법 및 장치
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
AT519902B1 (de) 2017-05-11 2022-07-15 Blum Gmbh Julius Führungssystem zur Führung eines Türflügels
EP3468198A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Method and apparatus for video encoding and decoding based on illumination compensation
EP3692716A1 (en) * 2017-10-05 2020-08-12 InterDigital VC Holdings, Inc. Method and apparatus for adaptive illumination compensation in video encoding and decoding
BR112020026686A2 (pt) 2018-07-17 2021-03-30 Panasonic Intellectual Property Corporation Of America Sistema e método para codificação de vídeo
CN110741647A (zh) * 2018-09-29 2020-01-31 深圳市大疆创新科技有限公司 一种图像处理方法、装置、可移动平台及存储介质
US11166048B2 (en) * 2018-10-02 2021-11-02 Tencent America LLC Method and apparatus for video coding
WO2020071829A1 (ko) * 2018-10-04 2020-04-09 엘지전자 주식회사 히스토리 기반 영상 코딩 방법 및 그 장치
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US11184607B2 (en) * 2019-06-13 2021-11-23 Qualcomm Incorporated Same picture order count (POC) numbering for scalability support
KR20220049554A (ko) * 2019-09-16 2022-04-21 엘지전자 주식회사 가중 예측을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN115136604A (zh) * 2019-12-23 2022-09-30 Lg电子株式会社 基于nal单元类型的图像或视频编码
CA3167535A1 (en) * 2020-01-12 2021-03-11 Huawei Technologies Co., Ltd. Method and apparatus of harmonizing weighted prediction with non-rectangular merge modes
EP4091327A4 (en) 2020-02-19 2023-05-03 ByteDance Inc. INFERENCE OF WEIGHT VALUES FOR VIDEO COMPONENTS IN A BITSTREAM

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US262856A (en) * 1882-08-15 Car-heater
US147850A (en) * 1874-02-24 Improvement in cutting-nippers
US28498A (en) * 1860-05-29 Improvement in corn-planters
US89412A (en) * 1869-04-27 Improvement in mowing-machines
US159638A (en) * 1875-02-09 Improvement in grain-drills
US116558A (en) * 1871-07-04 Improvement in smelting iron ores
US106191A (en) * 1870-08-09 Fire-place heater
US10A (en) * 1836-08-10 Gtttlslto andi
US202594A (en) * 1878-04-16 Improvement in fence-posts
DE1098653B (de) * 1959-06-27 1961-02-02 Hoechst Ag Verfahren zur Herstellung von Sensibilisierungsfarbstoffen
US3093928A (en) * 1961-02-16 1963-06-18 Robert K Ostrander Multivoice unit
TW352384B (en) * 1992-03-24 1999-02-11 Hoechst Ag Sulfonamido- or sulfonamidocarbonylpyridine-2-carboxamides, process for their preparation and their use as pharmaceuticals
US5473379A (en) 1993-11-04 1995-12-05 At&T Corp. Method and apparatus for improving motion compensation in digital video coding
CA2138929A1 (en) * 1993-12-30 1995-07-01 Klaus Weidmann Substituted heterocyclic carboxamides, their preparation and their use as pharmaceuticals
GB9402857D0 (en) * 1994-02-15 1994-04-06 Isis Innovation Targeting gene therapy
DE4410480A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureesteramide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
DE4410423A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureamide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
IL135495A (en) * 1995-09-28 2002-12-01 Hoechst Ag Intermediate compounds for the preparation of quinoline-converted amines - 2 - carboxylic acid
US6055012A (en) 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US5659933A (en) * 1996-04-01 1997-08-26 Mcwilliams; Edward L. Odor-proof sealable container for bodily remains
DE69710413T2 (de) * 1996-05-24 2002-10-02 Koninkl Philips Electronics Nv Bewegungsschätzung
US5886736A (en) 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
DE19650215A1 (de) * 1996-12-04 1998-06-10 Hoechst Ag 3-Hydroxypyridin-2-carbonsäureamidester, ihre Herstellung und ihre Verwendung als Arzneimittel
JP3931392B2 (ja) 1997-08-25 2007-06-13 ソニー株式会社 立体画像用ビデオ信号生成装置、立体画像用ビデオ信号送出装置および立体画像用ビデオ信号受信装置
DE19746287A1 (de) * 1997-10-20 1999-04-22 Hoechst Marion Roussel De Gmbh Substituierte Isochinolin-2-Carbonsäureamide, ihre Herstellung und ihre Verwendung als Arzneimittel
US5916898A (en) * 1997-10-24 1999-06-29 Zeneca Limited Phenanthroline derivatives
US6200974B1 (en) * 1997-10-24 2001-03-13 Zeneca Limited Phenanthroline derivatives
IL136454A0 (en) * 1997-12-04 2001-06-14 Genzyme Corp Compositions and methods for inducing gene expression
US6124131A (en) * 1998-08-25 2000-09-26 The Johns Hopkins University School Of Medicine Mutant hypoxia inducible factor-1 HIF-1
US6005012A (en) * 1998-10-29 1999-12-21 The Regents Of The University Of California Method for producing hydrophobic aerogels
US6408301B1 (en) * 1999-02-23 2002-06-18 Eastman Kodak Company Interactive image storage, indexing and retrieval system
EP1075147A1 (en) 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Motion estimation
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
KR100680452B1 (ko) * 2000-02-22 2007-02-08 주식회사 팬택앤큐리텔 움직임 벡터 메모리의 갱신방법 및 장치
IT1321181B1 (it) * 2000-05-04 2003-12-30 Magneti Marelli Spa Metodo e dispositivo per la stima della posizione di un corpoattuatore in un azionatore elettromagnetico per il comando di una
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US6516501B2 (en) * 2000-07-31 2003-02-11 Vazquez-Perez Jose Fernando Method and apparatus for ecological burial
KR100375708B1 (ko) * 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
US20020106191A1 (en) * 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
KR100878925B1 (ko) 2001-01-16 2009-01-19 파나소닉 주식회사 정보기록장치, 정보기록방법 및 기록매체
BR0207854A (pt) * 2001-03-07 2004-08-24 Merck Patent Gmbh Tecnologia de expressão para proteìnas contendo uma porção de anticorpo de isotipo hìbrido
JP4157686B2 (ja) 2001-05-15 2008-10-01 株式会社モノリス 画像符号化および復号のための方法および装置
US6804301B2 (en) 2001-08-15 2004-10-12 General Instrument Corporation First pass encoding of I and P-frame complexity for compressed digital video
US6985231B2 (en) * 2001-09-20 2006-01-10 Strainoptics, Inc. Method and apparatus for measuring the optical quality of a reflective surface
KR100397511B1 (ko) 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100480787B1 (ko) * 2001-11-27 2005-04-07 삼성전자주식회사 좌표 인터폴레이터의 키 값 데이터 부호화/복호화 방법 및 장치
WO2003053066A1 (en) 2001-12-17 2003-06-26 Microsoft Corporation Skip macroblock coding
US20030123546A1 (en) 2001-12-28 2003-07-03 Emblaze Systems Scalable multi-level video coding
FI114527B (fi) * 2002-01-23 2004-10-29 Nokia Corp Kuvakehysten ryhmittely videokoodauksessa
BRPI0304565B1 (pt) * 2002-03-15 2018-07-24 Nokia Technologies Oy Método de predição de movimento compensado para uso na codificação da sequência de vídeo digital, codificador e decodificador de vídeo para codificar/decodificar uma sequência de vídeo digital usando predição de movimento compensado, terminal de miltimídia, e, codec de vídeo
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US7831990B2 (en) 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
KR100475060B1 (ko) * 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
US6925622B2 (en) * 2002-09-30 2005-08-02 Freescale Semiconductor, Inc. System and method for correlated clock networks
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US20040080078A1 (en) * 2002-10-25 2004-04-29 Collins David C. Methods and systems for producing a desired apparent coloring in an object produced through rapid prototyping
KR100513732B1 (ko) * 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
GB0229354D0 (en) 2002-12-18 2003-01-22 Robert Gordon The University Video encoding
KR100693669B1 (ko) 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US7949047B2 (en) * 2003-03-17 2011-05-24 Qualcomm Incorporated System and method for partial intraframe encoding for wireless multimedia transmission
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US8135683B2 (en) * 2003-12-16 2012-03-13 International Business Machines Corporation Method and apparatus for data redundancy elimination at the block level
TWI238651B (en) 2004-04-30 2005-08-21 Benq Corp Method and apparatus for determining frame status of video data
JP4421940B2 (ja) * 2004-05-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置および方法、並びに動画像復号化装置および方法
KR100679740B1 (ko) 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US8184108B2 (en) 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US20060083298A1 (en) * 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
TWI254571B (en) 2004-12-07 2006-05-01 Sunplus Technology Co Ltd Method for fast multiple reference frame motion estimation
KR100760258B1 (ko) 2004-12-10 2007-09-19 한국전자통신연구원 범용적 다시점 동영상 부호화/복호화 장치 및 방법
US7710462B2 (en) * 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US20060146932A1 (en) * 2004-12-30 2006-07-06 Krit Panusopone Method and apparatus for providing motion estimation with weight prediction
US20060233247A1 (en) * 2005-04-13 2006-10-19 Visharam Mohammed Z Storing SVC streams in the AVC file format
US20060254010A1 (en) * 2005-05-13 2006-11-16 Eugene Wagner Interproximal tool
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US8559515B2 (en) 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
KR101244911B1 (ko) * 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
KR100667830B1 (ko) 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
US8902977B2 (en) * 2006-01-09 2014-12-02 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multi-view video coding
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
JP5192393B2 (ja) * 2006-01-12 2013-05-08 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
WO2007099678A1 (ja) * 2006-03-01 2007-09-07 Matsushita Electric Industrial Co., Ltd. 送信装置および送受信装置
AU2007243935A1 (en) * 2006-03-29 2007-11-08 Thomson Licensing Multi view video coding method and device
EP2039169A2 (en) 2006-07-06 2009-03-25 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding
JP5013993B2 (ja) * 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
WO2008048499A2 (en) 2006-10-13 2008-04-24 Thomson Licensing Reference picture list management syntax for multiple view video coding
JP4793366B2 (ja) 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
CN101653000B (zh) 2006-10-13 2013-01-02 汤姆逊许可公司 用于包含多视点视频编码的参考图像管理的方法
MX2009003968A (es) * 2006-10-16 2009-06-01 Nokia Corp Sistema y método para usar segmentos decodificables paralelamente para codificación de video de vistas múltiples.
EP2087737A2 (en) 2006-10-24 2009-08-12 Thomson Licensing Picture management for multi-view video coding
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
EP2215844A2 (en) * 2007-10-15 2010-08-11 Nokia Corporation Motion skip and single-loop encoding for multi-view video content
US8553781B2 (en) * 2007-12-07 2013-10-08 Thomson Licensing Methods and apparatus for decoded picture buffer (DPB) management in single loop decoding for multi-view video
JP4569635B2 (ja) * 2008-01-17 2010-10-27 カシオ計算機株式会社 電波受信装置および電波時計

Also Published As

Publication number Publication date
EP2025170A1 (en) 2009-02-18
US20100080293A1 (en) 2010-04-01
KR20090099090A (ko) 2009-09-21
KR100943911B1 (ko) 2010-02-24
KR20090099585A (ko) 2009-09-22
EP2008460A1 (en) 2008-12-31
US20100111169A1 (en) 2010-05-06
US20100027659A1 (en) 2010-02-04
US20100027682A1 (en) 2010-02-04
KR20090006095A (ko) 2009-01-14
US7782946B2 (en) 2010-08-24
US20100260265A1 (en) 2010-10-14
EP2005753B1 (en) 2016-12-21
US20100091843A1 (en) 2010-04-15
US8565303B2 (en) 2013-10-22
KR100949976B1 (ko) 2010-03-29
KR100949983B1 (ko) 2010-03-29
US8411744B2 (en) 2013-04-02
WO2007114608A1 (en) 2007-10-11
KR20090006093A (ko) 2009-01-14
US20100316135A1 (en) 2010-12-16
KR100949982B1 (ko) 2010-03-29
KR100959537B1 (ko) 2010-05-27
US8559523B2 (en) 2013-10-15
KR20090101497A (ko) 2009-09-28
JP5247677B2 (ja) 2013-07-24
ES2533765T3 (es) 2015-04-15
US20100027660A1 (en) 2010-02-04
US20100091844A1 (en) 2010-04-15
US8526504B2 (en) 2013-09-03
US8559505B2 (en) 2013-10-15
KR100949977B1 (ko) 2010-03-29
JP2009532934A (ja) 2009-09-10
AU2007232607A1 (en) 2007-10-11
KR20090006094A (ko) 2009-01-14
KR100949978B1 (ko) 2010-03-29
KR100937431B1 (ko) 2010-01-18
EP2008461A1 (en) 2008-12-31
JP5055355B2 (ja) 2012-10-24
EP2005752A1 (en) 2008-12-24
JP2009532931A (ja) 2009-09-10
US8611419B2 (en) 2013-12-17
US20100091886A1 (en) 2010-04-15
US20090296811A1 (en) 2009-12-03
US8428130B2 (en) 2013-04-23
US7782949B2 (en) 2010-08-24
DE202007019446U1 (de) 2012-09-05
EP2025170A4 (en) 2010-02-17
KR20090099586A (ko) 2009-09-22
ES2636917T3 (es) 2017-10-10
US20100215100A1 (en) 2010-08-26
WO2007114610A1 (en) 2007-10-11
CA2647735C (en) 2013-08-06
KR100998912B1 (ko) 2010-12-08
KR100949979B1 (ko) 2010-03-29
US20100027654A1 (en) 2010-02-04
US8634475B2 (en) 2014-01-21
KR20090099095A (ko) 2009-09-21
US20100026884A1 (en) 2010-02-04
KR20090099587A (ko) 2009-09-22
KR100966569B1 (ko) 2010-06-30
US20100316361A1 (en) 2010-12-16
US20100128787A1 (en) 2010-05-27
KR20090007331A (ko) 2009-01-16
KR100966570B1 (ko) 2010-06-29
EP2008460B1 (en) 2017-05-17
EP2008461A4 (en) 2010-02-03
US8170108B2 (en) 2012-05-01
CA2647735A1 (en) 2007-10-11
US7782948B2 (en) 2010-08-24
KR20090101499A (ko) 2009-09-28
KR100934672B1 (ko) 2009-12-31
US8483273B2 (en) 2013-07-09
US20100316362A1 (en) 2010-12-16
US20100316136A1 (en) 2010-12-16
JP5054092B2 (ja) 2012-10-24
KR100949981B1 (ko) 2010-03-29
US20100074334A1 (en) 2010-03-25
EP2008460A4 (en) 2010-02-03
JP2009532930A (ja) 2009-09-10
DE202007019459U1 (de) 2012-09-13
JP5055353B2 (ja) 2012-10-24
US8611427B2 (en) 2013-12-17
US20100086036A1 (en) 2010-04-08
US20100091885A1 (en) 2010-04-15
AU2007232607B2 (en) 2010-09-16
US8432972B2 (en) 2013-04-30
KR100934674B1 (ko) 2009-12-31
US20100091883A1 (en) 2010-04-15
DE202007019454U1 (de) 2012-09-03
US7782947B2 (en) 2010-08-24
US20100091884A1 (en) 2010-04-15
KR100966568B1 (ko) 2010-06-29
KR20090101500A (ko) 2009-09-28
PL2008460T3 (pl) 2017-10-31
PL2005753T3 (pl) 2017-07-31
KR100934671B1 (ko) 2009-12-31
US8472519B2 (en) 2013-06-25
JP2009532932A (ja) 2009-09-10
US7782944B2 (en) 2010-08-24
EP2008461B1 (en) 2015-09-16
EP3151564A1 (en) 2017-04-05
KR20090099584A (ko) 2009-09-22
KR20090101498A (ko) 2009-09-28
KR100959536B1 (ko) 2010-05-27
ES2619522T3 (es) 2017-06-26
US7782943B2 (en) 2010-08-24
KR100949974B1 (ko) 2010-03-29
KR20090099092A (ko) 2009-09-21
EP2005753A1 (en) 2008-12-24
US20100316360A1 (en) 2010-12-16
US20100020870A1 (en) 2010-01-28
KR20090099094A (ko) 2009-09-21
US8565319B2 (en) 2013-10-22
US8457207B2 (en) 2013-06-04
EP3139615A1 (en) 2017-03-08
DE202007019458U1 (de) 2012-09-13
US20090279608A1 (en) 2009-11-12
US7782950B2 (en) 2010-08-24
KR20090099093A (ko) 2009-09-21
KR20090096651A (ko) 2009-09-11
KR100966567B1 (ko) 2010-06-29
US8576920B2 (en) 2013-11-05
KR20090099091A (ko) 2009-09-21
KR100949980B1 (ko) 2010-03-29
US8571113B2 (en) 2013-10-29
KR20090099096A (ko) 2009-09-21
JP2009532933A (ja) 2009-09-10
EP2025170B1 (en) 2015-01-07
WO2007114612A1 (en) 2007-10-11
KR20090101502A (ko) 2009-09-28
KR20090101501A (ko) 2009-09-28
US20100026883A1 (en) 2010-02-04
KR100934675B1 (ko) 2009-12-31
KR100959538B1 (ko) 2010-05-27
KR20090004996A (ko) 2009-01-12
KR20100074314A (ko) 2010-07-01
US8363732B2 (en) 2013-01-29
WO2007114611A1 (en) 2007-10-11
KR20090101496A (ko) 2009-09-28
US20100026882A1 (en) 2010-02-04
KR20090099089A (ko) 2009-09-21
EP2005752A4 (en) 2010-06-09
KR100949975B1 (ko) 2010-03-29
US7782945B2 (en) 2010-08-24
JP5055354B2 (ja) 2012-10-24
US20100027653A1 (en) 2010-02-04
KR100934673B1 (ko) 2009-12-31
RU2530310C2 (ru) 2014-10-10
RU2010111711A (ru) 2011-10-10
WO2007114609A1 (en) 2007-10-11
EP2005753A4 (en) 2010-02-03
BRPI0710048A2 (pt) 2011-08-02

Similar Documents

Publication Publication Date Title
AU2007232607B2 (en) A method and apparatus for decoding/encoding a video signal

Legal Events

Date Code Title Description
FG Grant or registration