ES2619522T3 - Un método y un aparato para descodificar/codificar una señal de video multivisión - Google Patents

Un método y un aparato para descodificar/codificar una señal de video multivisión Download PDF

Info

Publication number
ES2619522T3
ES2619522T3 ES07745747.1T ES07745747T ES2619522T3 ES 2619522 T3 ES2619522 T3 ES 2619522T3 ES 07745747 T ES07745747 T ES 07745747T ES 2619522 T3 ES2619522 T3 ES 2619522T3
Authority
ES
Spain
Prior art keywords
prediction
image
vision
sector
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07745747.1T
Other languages
English (en)
Inventor
Byeong Moon Jeon
Seung Wook Park
Han Suh Koo
Yong Joon Jeon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2619522T3 publication Critical patent/ES2619522T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un método para descodificar datos de video multivisión en una corriente de video multivisión, que comprende: recibir la corriente de datos de video multivisión que incluye una imagen de acceso aleatorio que incluye un sector de acceso aleatorio y un indicador de perfil que indica que una corriente de video recibida es la corriente de datos de video multivisión, en donde, el sector de acceso aleatorio está referenciando solamente sectores correspondientes a un mismo tiempo y a una visión diferente de la imagen de acceso aleatorio; y el método comprende además: obtener una banderola de acceso aleatorio para predicción intervisión, indicando la banderola de acceso aleatorio si una imagen es la imagen de acceso aleatorio; obtener información de inicialización para el sector de acceso aleatorio en base a la banderola de acceso aleatorio y al indicador de perfil, representando la información de inicialización información que reconoce una estructura predictiva entre una pluralidad de visiones, incluyendo la información de inicialización información del número de visión e información de identificación de visión; obtener información tipo indicativa de si el sector de acceso aleatorio se ha pronosticado a partir de una imagen de referencia o de dos imágenes de referencia; inicializar la lista de imagen de referencia, incluyendo la inicialización ordenar imágenes de referencia usadas para la predicción intervisión del sector de acceso aleatorio, estando las imágenes de referencia especificadas por la información de número de visión y por la información de identificación de visión según la información tipo; caracterizado por que el método comprende además: obtener un valor de diferencia a partir de la corriente de datos de video multivisión, representando el valor de diferencia una diferencia de número de visión en la lista de imagen de referencia inicializada; determinar un valor de modificación de asignación para modificar un índice de referencia en la lista de imagen de referencia inicializada según el valor de diferencia; modificar la lista de imagen de referencia inicializada para la predicción intervisión usando el valor de modificación de asignación determinado; determinar un valor de predicción de un macrobloque en la imagen de acceso aleatorio en base a la lista de imagen de referencia modificada, y descodificar el macrobloque usando el valor de predicción; en donde la información de inicialización se obtiene a partir de un área de extensión de una cabecera de secuencia.

Description

DESCRIPCIÓN
Un método y un aparato para descodificar/codificar una señal de video multivisión
Campo técnico
La presente invención se refiere a un método para descodificar/codificar una señal de video y a un aparato para el 5 mismo.
Técnica anterior
La codificación por compresión se refiere a una serie de técnicas de procesamiento de señales para trasmitir información digitalizada a través de un circuito de comunicación o para almacenar información digitalizada de una forma adecuada para un medio de almacenamiento. Los objetos para codificación por compresión incluyen audio, 10 video, texto y similares. En particular, una técnica para llevar a cabo codificación por compresión sobre una secuencia se conoce como compresión de secuencia de video. La secuencia de video está en general caracterizada por tener redundancia espacial y redundancia temporal.
El documento “Joint Multiview Video Modelo (JFVM) 1 [06/08/11]”, VETRO A ET AL., JOINT VIDEO TEAM (JVT) OF 15 ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q6), núm. JVT-T208, 17 de Agosto de 2006 (2006-08-17), XP030006640, se ocupa de la extensión para las listas de imágenes de referencia en codificación de video multivisión. El documento “ITU-T Recommendation H.264: Advanced video coding for generic audiovisual services”, INTERNET CITATION, 1 de Marzo de 2005 (2005-03-01), XP008095420, divulga reordenación de imagen para listas de imágenes de referencia para predicción temporal en AVC. 20
Descripción de la invención objeto técnico
El objeto de la presente invención consiste en potenciar la eficacia de codificación de una señal de video.
Solución técnica
Un objeto de la presente invención consiste en codificar una señal de video eficazmente definiendo información de visión capacitada para identificar una visión de la imagen. 25
Otro objeto de la presente invención consiste en realizar eficazmente un acceso aleatorio de una señal de video añadiendo información de identificación del grupo de imágenes intervisión en un formato especificado.
Otro objeto de la presente invención consiste en realizar predicción intervisión de manera más eficiente usando información de identificación de imagen de anclaje.
Otro objeto de la presente invención consiste en gestionar imágenes de referencia para predicción intervisión más 30 eficientemente usando información de identificación de imagen de anclaje.
Efectos ventajosos
En codificación de una señal de video, conforme a una estructura de codificación global de una secuencia de video multivisión, puesto que la información intervisión de un grupo de imagen intervisión difiere de la de un grupo de imagen de no intervisión, es posible una codificación más eficiente si la codificación se lleva a cabo mediante 35 discriminación del grupo de imagen intervisión y del grupo de imagen de no intervisión entre sí conforme a la información de identificación de grupo de imagen intervisión. Y, definiendo de nuevo un grupo de imagen intervisión que habilite una imagen I convencional a una imagen P, es posible una codificación más eficiente.
Breve descripción de los dibujos 40
La Figura 1 es un diagrama esquemático de bloques de un aparato para descodificación de una señal de video según la presente invención;
La Figura 2 es un diagrama de información de configuración para un video multivisión añadible a una corriente de bits codificada de video multivisión según una realización de la presente invención; 45
La Figura 3 es un diagrama de bloques interno de una unidad de construcción de lista de imagen de referencia 620 según una realización de la presente invención;
La Figura 4 es un diagrama de una estructura jerárquica de información de nivel para proporcionar escalabilidad de 50 visión de una señal de video según una realización de la presente invención;
La Figura 5 es un diagrama de una configuración de unidad NAL que incluye información de nivel dentro de un área de extensión de una cabecera NAL según una realización de la presente invención;
55
La Figura 6 es un diagrama de una estructura predictiva global de una señal de video multivisión según una realización de la presente invención para explicar un concepto de un grupo de imagen intervisión;
La Figura 7 es un diagrama de una estructura predictiva según una realización de la presente invención para explicar un concepto de un grupo de imagen intervisión recién definido; 5
La Figura 8 es un diagrama esquemático de bloques de un aparato para descodificar un video multivisión usando información de identificación de grupo de imagen intervisión según una realización de la presente invención;
La Figura 9 es un diagrama de flujo de un proceso para la construcción de una lista de imagen de referencia según 10 una realización de la presente invención;
La Figura 10 es un diagrama para explicar un método de inicialización de una lista de imagen de referencia cuando un sector actual es un sector P según una realización de la presente invención;
15
La Figura 11 es un diagrama para explicar un método de inicialización de una lista de imagen de referencia cuando un sector actual es un sector B según una realización de la presente invención;
La Figura 12 es un diagrama de bloques interno de una unidad de reordenación de lista de imagen de referencia 630 según una realización de la presente invención; 20
La Figura 13 es un diagrama de bloques interno de una unidad de cambio de asignación de índice de referencia 643B o 645B según una realización de la presente invención;
La Figura 14 es un diagrama para explicar un proceso para la reordenación de una lista de imagen de referencia 25 usando información de visión según una realización de la presente invención;
La Figura 15 es un diagrama de bloques interno de una unidad de reordenación de lista de imagen de referencia 630 según otra realización de la presente invención.
30
La Figura 16 es un diagrama de bloques interno de una unidad de reordenación de lista de imagen de referencia 970 para predicción intervisión según una realización de la presente invención;
La Figura 17 y la Figura 18 son diagramas de sintaxis para reordenación de lista de imagen de referencia según una realización de la presente invención; 35
La Figura 19 es un diagrama de sintaxis para reordenación de lista de imagen de referencia según otra realización de la presente invención;
La Figura 20 es un diagrama para un proceso de obtención de un valor de diferencia de iluminación de un bloque 40 actual según una realización, pero que no forma parte de la presente invención;
La Figura 21 es un diagrama de flujo de un proceso para llevar a cabo compensación de iluminación de un bloque actual según una realización, pero que no forma parte de la presente invención;
45
La Figura 22 es un diagrama de un proceso para la obtención de un valor de predicción de diferencia de iluminación de un bloque actual usando información para un bloque contiguo según una realización, pero que no forma parte de la presente invención;
La Figura 23 es un diagrama de flujo de un proceso de realización de compensación de iluminación usando 50 información para un bloque contiguo según una realización, pero que no forma parte de la presente invención;
La Figura 24 es un diagrama de flujo de un proceso para llevar a cabo compensación de iluminación usando información para un bloque contiguo según otra realización, pero que no forma parte de la presente invención;
55
La Figura 25 es un diagrama de un proceso para predicción de una imagen actual usando una imagen en una visión virtual según una realización, pero que no forma parte de la presente invención;
La Figura 26 es un diagrama de flujo de un proceso para sintetización de una imagen en una visión virtual durante la realización de una predicción intervisión en MVC según una realización, pero que no forma parte de la presente 60 invención;
La Figura 27 es un diagrama de flujo de un método de ejecución de una predicción ponderada según un tipo de sector en codificación de señal de video;
La Figura 28 es un diagrama de tipos de macrobloque admisibles en un tipo de sector en codificación de señal de 65 video según la presente invención;
La Figura 29 y la Figura 30 son diagramas de sintaxis para ejecutar una predicción ponderada según un tipo de sector recién definido según una realización, pero que no forma parte de la presente invención;
La Figura 31 es un diagrama de flujo de un método de ejecución de una predicción ponderada usando información 5 de banderola que indica si se debe ejecutar predicción ponderada intervisión en codificación de señal de vídeo;
La Figura 32 es un diagrama para explicar un método de predicción ponderada según la información de banderola que indica si se ha de ejecutar una predicción ponderada usando información para una imagen en una visión diferente de una imagen actual según una realización, pero que no forma parte de la presente invención; 10
La Figura 33 es un diagrama de sintaxis para ejecución de una predicción ponderada según una información de banderola recién definida según una realización, pero que no forma parte de la presente invención;
La Figura 34 es un diagrama de flujo de un método de ejecución de una predicción ponderada según un tipo de 15 unidad NAL (capa de abstracción de red) según una realización, pero que no forma parte de la presente invención;
La Figura 35 y la Figura 36 son diagramas de sintaxis para ejecución de una predicción ponderada en caso de que un tipo de unidad NAL sea para codificación de video multivisión según una realización, pero que no forma parte de la presente invención; 20
La Figura 37 es un diagrama de bloques parcial de un aparato de descodificación de señal de video conforme a un tipo de sector recién definido según una realización, pero que no forma parte de la presente invención;
La Figura 38 es un diagrama de flujo para explicar un método de descodificación de una señal de video en el 25 aparato mostrado en la Figura 37 según la presente invención;
La Figura 39 es un diagrama de un modo de predicción de macrobloque según una realización de la presente invención;
30
La Figura 40 y la Figura 41 son diagramas de sintaxis que tienen un tipo de sector y un modo de macrobloque aplicados a las mismas según la presente invención;
La Figura 42 es un diagrama de realizaciones a las que se aplican los tipos de sector de la Figura 41;
35
La Figura 43 es un diagrama de varias realizaciones del tipo de sector incluido en los tipos de sector mostrados en la Figura 41;
La Figura 44 es un diagrama de un macrobloque admisible para un tipo de sector mixto por predicción de dos predicciones mezcladas según una realización, pero que no forma parte de la presente invención; 40
Las Figuras 45 a 47 son diagramas de un tipo de macrobloque de un macrobloque existente en un sector mixto por predicción de dos predicciones mezcladas según una realización, pero que no forman parte de la presente invención;
45
La Figura 48 es un diagrama de bloques parcial de un aparato de codificación de señal de video según un tipo de sector recién definido conforme a una realización, pero que no forma parte de la presente invención, y
La Figura 49 es un diagrama de flujo de un método de codificación de una señal de video en el aparato mostrado en la Figura 48. 50
Mejor modo para llevar a cabo la invención
Para alcanzar esas y otras ventajas y en conformidad con el propósito de la presente invención, según se materializa y se describe ampliamente, un método de descodificación de una señal de video incluye las características según la reivindicación 1.
55
Para alcanzar mejor esas y otras ventajas y en conformidad con el propósito de la presente invención se define un aparato para descodificación de una señal de video multivisión según las características de la reivindicación 8.
Modo de invención
Ahora se hará referencia con detalle a las realizaciones preferidas de la presente invención, de las que se han ilustrado ejemplos en los dibujos que se acompañan. 60
La técnica de comprimir y codificar datos de señales de video considera redundancia espacial, redundancia temporal, redundancia escalable y redundancia intervisión. Y, también está capacitada para realizar una codificación
por compresión considerando una redundancia mutua entre visiones en el proceso de codificación por compresión. La técnica para la codificación por compresión, que considera la redundancia intervisión, es sólo una realización de la presente invención. Y, la idea técnica de la presente invención es aplicable a la redundancia temporal, la redundancia escalable, etc.
5
Mirando hacia una configuración de una corriente de bits en H.264/AVC, existe una estructura de capa separada denominada NAL (capa de abstracción de red) entre una VCL (capa de codificación de video) que hace frente al propio proceso de codificación de imagen móvil y un sistema inferior que transporta y almacena información codificada. Una salida desde un proceso de codificación son datos de VCL y es mapeada mediante una unidad NAL con anterioridad al transporte o almacenaje. Cada unidad NAL incluye datos de video comprimidos o RBSP (carga 10 útil de secuencia de bytes sin procesar: datos de resultado de compresión de imagen móvil), es decir los datos correspondientes a la información de cabecera.
La unidad NAL incluye básicamente una cabecera de NAL y un RBSP. La cabecera de NAL incluye información de banderola (nal_ref_idc) que indica si está incluido un sector como imagen de referencia de la unidad NAL, y un 15 identificador (nal_unit_type) que indica un tipo de unidad NAL. Los datos originales comprimidos se almacenan en el RBSP. Y, bits de arrastre de RBSP son añadidos a una última porción del RBSP para representar una longitud del RBSP como multiplicación de 8 bits. Como tipo de unidad NAL, existe la imagen IDR (refresco de descodificación instantáneo), SPS (conjunto de parámetros de secuencia), PPS (conjunto de parámetros de imagen), SEI (Información de potenciación suplementaria), o similares. 20
En la estandarización, se establecen restricciones para diversos perfiles y niveles a efectos de habilitar implementación de un producto objetivo con un coste apropiado. En este caso, un descodificador deberá cumplir la restricción decidida según el perfil y el nivel correspondientes. Así, se definen dos conceptos, “perfil” y “nivel”, para indicar una función o parámetro para representar hasta qué punto puede el descodificador afrontar un rango de una 25 secuencia comprimida. Y, un identificador de perfil (profile_idc) puede identificar el hecho de que una corriente de bits está basada en un perfil previamente descrito. El indicador de perfil significa una banderola que indica un perfil en el que se basa una corriente de bits. Por ejemplo, en H.264/AVC, si un indicador de perfil es 66, ello significa que una corriente de bits está basada en un perfil de línea de base. Si un indicador de perfil es 77, eso significa que una corriente de bits está basada en un perfil principal. Si un indicador de perfil es 88, esto significa que una corriente de 30 bits está basada en un perfil extendido. Y, el identificador de perfil puede estar incluido en un conjunto de parámetros de secuencia.
De ese modo, con el fin de afrontar un video multivisión, éste necesita ser identificado si un perfil de una corriente de bits presente a la entrada es un perfil multivisión. Si el perfil de la corriente de bits presente a la entrada es el perfil 35 multivisión, es necesario añadir sintaxis para permitir que sea transmitida al menos una información adicional para multivisión. En ese caso, el perfil multivisión indica un modo de perfil que gestiona video multivisión como una técnica de modificación de H.264/AVC. En MVC, puede ser más eficaz añadir sintaxis como información adicional para un modo MVC en vez de sintaxis incondicional. Por ejemplo, cuando un indicador de perfil de AVC indica un perfil multivisión, si se añade información para un video multivisión, éste está capacitado para potenciar la eficacia 40 de codificación.
Un conjunto de parámetros de secuencia indica información de cabecera que contiene información que se cruza con la codificación de una secuencia global tal como un perfil, un nivel, y similares. Una imagen móvil comprimida global, es decir, una secuencia, deberá empezar en una cabecera de secuencia. De ese modo, un conjunto de parámetros 45 de secuencia que corresponda a información de cabecera deberá llegar a un descodificador antes de que lleguen datos referentes al conjunto de parámetros. En especial, el conjunto de parámetros de secuencia RBSP juega el papel de información de cabecera respecto a los datos resultantes de la compresión de imagen móvil. Una vez que una corriente de bits está en la entrada, un indicador de perfil identifica preferentemente en cuál de la pluralidad de perfiles está basada la corriente de bits de entrada. Así, añadiendo una parte para decidir si una corriente de bits de 50 entrada se refiere a una sintaxis de perfil multivisión (por ejemplo, “Si (profil_idc = MULTI_VIEW_PROFILE)”), se decide si la corriente de bits de entrada se refiere al perfil multivisión. Se pueden añadir diversas clases de información de configuración solamente si se determina que la corriente de bits de entrada está relacionada con el perfil multivisión. Por ejemplo, ésta se encuentra capacitada para añadir un número total de visiones, un número de imágenes de referencia intervisión (List0/1) en caso de un grupo de imagen intervisión, un número de imágenes de 55 referencia intervisión (List0/1) en caso de un grupo de imagen de no intervisión, y similares. Y, diversas informaciones de visión son utilizables para la generación y gestión de una lista de imagen de referencia en una memoria intermedia de imagen descodificada.
La Figura 1 es un diagrama esquemático de bloques de un aparato para descodificar una señal de video según la 60 presente invención.
Haciendo referencia a la Figura 1, un aparato para descodificar una señal de video según la presente invención incluye un analizador de NAL 100, una unidad de descodificación de entropía 200, una unidad de transformación inversa/cuantificación inversa 300, una unidad de intrapredicción 400, una unidad de filtro de desbloqueo 500, una 65 unidad de memoria intermedia de imagen descodificada 600, una unidad de interpredicción 700, y similar.
La unidad de memoria intermedia de imagen descodificada 600 incluye una unidad de almacenaje de imagen de referencia 610, una unidad de construcción de lista de imagen de referencia 620, una unidad de gestión de imagen de referencia 650, y similar. Y, la unidad de construcción de lista de imagen de referencia 620 incluye una unidad de deducción de variable 625, una unidad de inicialización de lista de imagen de referencia 630, y una unidad de 5 reordenación de lista de imagen de referencia 640.
Y, la unidad de interpredicción 700 incluye una unidad de compensación de movimiento 710, una unidad de compensación de iluminación 720, una unidad de predicción de diferencia de iluminación 730, una unidad de predicción de síntesis de visión 740, y similar. 10
El analizador de NAL 100 lleva a cabo análisis por parte de la unidad NAL para descodificar una secuencia de video recibida. En general, al menos un conjunto de parámetros de secuencia y al menos un conjunto de parámetros de imagen son transferidos a un descodificador con anterioridad a que sean descodificados una cabecera de sector y datos de sector. En ese caso, varias clases de informaciones de configuración pueden ser incluidas en un área de 15 cabecera de NAL o en un área de extensión de una cabecera de NAL. Puesto que MVC es una técnica de modificación para una técnica AVC convencional, puede resultar más eficaz añadir las informaciones de configuración en caso de una corriente de bits de MVC solamente en vez de una adición incondicional. Por ejemplo, está capacitada para añadir información de banderola para identificar una presencia o no presencia de una corriente de bits de MVC en el área de cabecera de NAL o en el área de extensión de la cabecera de NAL. Solamente si una 20 corriente de bits de entrada es una corriente de bits codificada de video multivisión conforme a la información de banderola, está capacitada para añadir informaciones de configuración para un video mutivisión. Por ejemplo, las informaciones de configuración pueden incluir información de nivel temporal, información de nivel de visión, información de identificación de grupo de imagen intervisión, información de identificación de visión, y similares. Esto se explica con detalle en relación con la Figura 2 como sigue. 25
La Figura 2 es un diagrama de información de configuración para un video multivisión añadible a una corriente de bits codificada de video multivisión conforme a una realización de la presente invención. Los detalles de información de configuración para un video multivisión se explican en la descripción que sigue.
30
En primer lugar, la información de nivel temporal indica información respecto a una estructura jerárquica para proporcionar escalabilidad temporal a partir de una señal de video (①). Mediante la información de nivel temporal, está en condiciones de proporcionar a un usuario secuencias sobre varias zonas de tiempo.
La información de nivel de visión indica información para que una estructura jerárquica proporcione escalabilidad de 35 visión a partir de una señal de video (②). En un video multivisión, es necesario definir un nivel para un tiempo y un nivel para una visión para proporcionar a un usuario varias secuencias temporales y de visión. En caso de definir la información de nivel que antecede, se está en condiciones de usar escalabilidad temporal y escalabilidad de visión. Con ello, un usuario está capacitado para seleccionar una secuencia en un tiempo y una visión específicos, o una secuencia seleccionada puede estar limitada por una condición. 40
Las informaciones de nivel pueden ser establecidas de varias formas conforme a una condición específica. Por ejemplo, la información de nivel puede ser establecida de forma diferente según la posición de la cámara o el alineamiento de la cámara. Y, la información de nivel puede ser determinada considerando dependencia de visión. Por ejemplo, un nivel para una visión que tiene una imagen I en un grupo de imagen intervisión se establece en 0, 45 un nivel para una visión que tiene una imagen P en el grupo de imagen intervisión se establece en 1, y un nivel para una visión que tiene una imagen B en el grupo de imagen intervisión se establece en 2. Además, las informaciones de nivel pueden ser establecidas aleatoriamente y no en base a una condición especial. La información de nivel de visión va a ser explicada en detalle con referencia a la Figura 4 y la Figura 5, más adelante.
50
La información de identificación de grupo de imagen intervisión indica información para identificar si una imagen codificada de una unidad NAL actual es un grupo de imagen intervisión (③). En ese caso, el grupo de imagen intervisión significa una imagen codificada en la que todas las referencias de sector solamente seccionan con el mismo conteo de orden de imagen. Por ejemplo, el grupo de imagen intervisión significa una imagen codificada que se refiere a sectores en una visión diferente solamente sin referencia a sectores en una visión actual. En un proceso 55 de descodificación de un video multivisión, se puede necesitar un acceso aleatorio intervisión. La información de identificación de grupo de imagen intervisión puede ser necesaria para realizar un acceso aleatorio eficiente. Y, la información de referencia intervisión puede ser necesaria para predicción intervisión. De ese modo, la información de identificación de grupo de imagen intervisión puede ser usada para obtener la información de referencia intervisión. Además, la información de identificación de grupo de imagen intervisión puede ser usada para añadir 60 imágenes de referencia para predicción intervisión en la construcción de una lista de imagen de referencia. Además, la información de identificación de grupo de imagen intervisión puede ser usada para gestionar las imágenes de referencia añadidas para la predicción intervisión. Por ejemplo, las imágenes de referencia pueden ser clasificadas en grupos de imagen intervisión y grupos de imagen no intervisión, y las imágenes de referencia clasificadas pueden ser marcadas a continuación de modo que las imágenes de referencia por defecto que van a ser usadas para la 65 predicción intervisión no sean utilizadas. Mientras tanto, la información de identificación de grupo de imagen
intervisión es aplicable a un descodificador de referencia hipotético. Los detalles de la información de identificación de grupo de imagen intervisión van a ser explicados con referencia a la Figura 6, más adelante.
La información de identificación de visión significa información para discriminar una imagen en una visión actual a partir de una imagen de una visión diferente (④). En la codificación de una señal de video, se puede usar POC 5 (conteo de orden de imagen) o ‘frame_num’ para identificar cada imagen. En caso de una secuencia de video multivisión, se puede ejecutar predicción intervisión. Así, se necesita información de identificación para discriminar una imagen en una visión actual respecto a una imagen de otra visión. De ese modo, es necesario, definir información de identificación de visión para identificar una visión de una imagen. La información de identificación de visión puede ser obtenida a partir de un área de cabecera de una señal de video. Por ejemplo, el área de cabecera 10 puede ser un área de cabecera de una NAL, un área de extensión de una cabecera de NAL, o un área de cabecera de sector. La información de una imagen en una visión diferente de la de una imagen actual se obtiene usando la información de identificación de visión y está capacitada para descodificar la señal de video usando la información de la imagen en la visión diferente. La información de identificación de visión es aplicable a un proceso global de codificación/descodificación de la señal de video. Y, la información de identificación de visión puede ser aplicada a 15 codificación de video multivisión usando el ‘frame-num’ que considera una visión en vez de considerar un identificador de visión específico.
Mientras tanto, la unidad de descodificación de entropía 200 lleva a cabo descodificación de entropía sobre una corriente de bits analizada, y se extrae a continuación un coeficiente de cada macrobloque, un vector de movimiento, 20 y similares. La unidad de cuantificación inversa/transformación inversa 300 obtiene un valor de coeficiente transformado multiplicando un valor cuantificado recibido por una constante, y a continuación transforma el valor de coeficiente inversamente para reconstruir un valor de píxel. Usando el valor de píxel reconstruido, la unidad intrapredicción 400 realiza una intrapredicción a partir de una muestra descodificada dentro de una imagen actual. Mientras tanto, se aplica la unidad de filtro de desbloqueo 500 a cada macrobloque codificado para reducir la 25 distorsión de bloque. Un filtro alisa un borde del bloque para aumentar la calidad de imagen de una trama descodificada. La selección de un proceso de filtrado depende de la intensidad del contorno y del gradiente de una muestra de imagen alrededor de un contorno. Las imágenes son sometidas a filtrado y presentadas a la salida o almacenadas en la unidad de memoria intermedia de imagen descodificada 600 para ser usadas como imágenes de referencia. 30
La unidad de memoria intermedia de imagen descodificada 600 juega un papel en el almacenaje o la apertura de las imágenes previamente codificadas para realizar una interpredicción. En ese caso, para almacenar las imágenes en la unidad de memoria intermedia de imagen descodificada 600 o para abrir las imágenes, se usan “frame_num” y POC (conteo de orden de imagen) de cada imagen. Así, puesto que existen imágenes en una visión diferente de la 35 de una imagen actual entre las imágenes previamente codificadas, la información de visión para identificar una visión de una imagen puede ser utilizable junto con ‘frame_num” y POC. La unidad de memoria intermedia de imagen descodificada 600 incluye la unidad de almacenaje de imagen de referencia 610, la unidad de construcción de lista de imagen de referencia 620, y la unidad de gestión de imagen de referencia 650. La unidad de almacenaje de imagen de referencia 610 almacena imágenes a las que se referirá la codificación de la imagen actual. La unidad 40 de construcción de lista de imagen de referencia 620 construye una lista de imágenes de referencia para la predicción interimagen. En codificación de video multivisión, puede ser necesaria predicción intervisión. Así, si una imagen actual se refiere a una imagen de otra visión, puede resultar necesario construir una lista de imagen de referencia para la predicción intervisión. En ese caso, la unidad de construcción de lista de imagen de referencia 620 puede usar información para visualizar la generación de la lista de imagen de referencia para la predicción 45 intervisión. Los detalles de la unidad de construcción de lista de imagen de referencia 620 se explicarán más adelante con referencia a la Figura 3.
La Figura 3 es un diagrama de bloques interno de una unidad de construcción de lista de imagen de referencia 620 según una realización de la presente invención. 50
La unidad de construcción de lista de imagen de referencia 620 incluye la unidad de deducción de variable 625, la unidad de inicialización de lista de imagen de referencia 630, y la unidad de reordenación de lista de referencia 640.
La unidad de deducción de variable 625 deduce variables usadas para la inicialización de la lista de imagen de 55 referencia. Por ejemplo, la variable puede ser deducida usando ‘frame_num’ que indica un número de identificación de imagen. En particular, las variables FrameNum y FrameNumWrap pueden ser utilizables para cada imagen de referencia a corto plazo. En primer lugar, la variable FrameNum es igual a un valor de un frame_num de elemento de sintaxis. La variable FrameNumWrap puede ser usada para que la unidad de memoria intermedia de imagen descodificada 600 asigne un número pequeño a cada imagen de referencia. Y, la variable FrameNumWrap puede 60 ser deducida a partir de la variable FrameNum. De ese modo, se está en condiciones de deducir una variable PicNum usando la variable FrameNumWrap deducida. En ese caso, la variable PicNum puede significar un número de identificación de una imagen usada por la unidad de memoria intermedia de imagen descodificada 600. En caso de indicación de una imagen de referencia a largo plazo, puede ser utilizable una variable LongTermPicNum.
65
Con el fin de construir una lista de imagen de referencia para predicción intervisión, se está en condiciones de deducir una primera variable (por ejemplo, ViewNum) para construir una lista de imagen de referencia para predicción intervisión. Por ejemplo, se está en condiciones de deducir una segunda variable (por ejemplo, ViewId) usando ‘view_id’ para identificar una visión de una imagen. En primer lugar, la segunda variable puede ser igual a un valor del ‘view_id’ de elemento de sintaxis. Y, se puede usar una tercera variable (por ejemplo, ViewIdWrap) para 5 que la unidad de memoria intermedia de imagen descodificada 600 asigne un número pequeño de identificación de visión a cada imagen de referencia y que puede ser deducido a partir de la segunda variable. En ese caso, la primera variable ViewNum puede significar un número de identificación de visión de una imagen usado por la unidad de memoria intermedia de imagen descodificada 600. Más aún, puesto que un número de imágenes de referencia usadas para predicción intervisión en codificación de video multivisión puede ser relativamente más pequeño que el 10 usado para predicción temporal, éste puede no definir otra variable que indique un número de identificación de visión de una imagen de referencia a largo plazo.
La unidad de inicialización de lista de imagen de referencia 630 inicializa una lista de imagen de referencia usando las variables mencionadas con anterioridad. En este caso, un proceso de inicialización para la lista de imagen de 15 referencia puede diferir conforme a un tipo de sector. Por ejemplo, en el caso de descodificación de un sector P, está capacitada para asignar un índice de referencia en base a un orden de descodificación. En caso de descodificación de un sector B, está capacitada para asignar un índice de referencia en base a un orden de salida de las imágenes. En caso de inicialización de una lista de imagen de referencia para predicción intervisión, está capacitada para asignar un índice a una imagen de referencia en base a la primera variable, es decir, la variable deducida a partir de 20 la información de visión.
La unidad de reordenación de lista de imagen de referencia 640 juega un papel en el aumento de la eficacia de compresión asignando un índice más pequeño a una imagen mencionada con frecuencia en la lista de imagen de referencia inicializada. Esto se debe a que se asigna un bit pequeño si se obtiene un índice de referencia para 25 codificación más pequeño.
Y, la unidad de reordenación de lista de imagen de referencia 640 incluye una unidad de comprobación de tipo de sector 642, una unidad de reordenación de lista 0 de imagen de referencia 643, y una unidad de reordenación de lista 1 de imagen de referencia 645. Si se presenta a la entrada una lista de imagen de referencia inicializada, la 30 unidad de comprobación de tipo de sector 642 comprueba un tipo de sector que va a ser descodificado y decide a continuación si ha de reordenar una lista 0 de imagen de referencia o una lista 1 de imagen de referencia. De ese modo, la unidad de reordenación de lista 0/1 de imagen de referencia 643, 645 realiza la reordenación de la lista 0 de imagen de referencia si el tipo de sector no es un sector I y también realiza la reordenación de la lista 1 de imagen de referencia adicionalmente si el tipo de sector es un sector B. Así, tras la terminación del proceso de 35 reordenación, se construye una lista de imagen de referencia.
La unidad de reordenación de lista 0/1 de imagen de referencia 643, 645 incluye una unidad de obtención de información de identificación 643A, 645A y una unidad de cambio de asignación de índice de referencia 643B, 645B, respectivamente. La unidad de obtención de información de identificación 643A, 645A recibe información de 40 identificación (reordering_of_pic_nums_idc) que indica un método de asignación de un índice de referencia si se lleva a cabo la reordenación de una lista de imagen de referencia según la información de banderola que indica si se ha de ejecutar la reordenación de la lista de imagen de referencia. Y, la unidad de cambio de asignación de índice de referencia 643B, 645B reordena la lista de imagen de referencia cambiando la asignación de un índice de referencia de acuerdo con la información de identificación. 45
Y, la unidad de reordenación de lista de imagen de referencia 640 es operable mediante otro método. Por ejemplo, la reordenación puede ser ejecutada comprobando un tipo de unidad NAL transferida con anterioridad a que pase a través de la unidad de comprobación de tipo de sector 642 y clasificando a continuación el tipo de unidad NAL en un caso de NAL MVC y en un caso de NAL no MVC. 50
La unidad de gestión de imagen de referencia 650 gestiona imágenes de referencia para ejecutar interpredicción de manera más flexible. Por ejemplo, se puede usar un método de operación de control de gestión de memoria y un método de ventana deslizante. Esto se hace para gestionar una memoria de imagen de referencia y una memoria de imagen de no referencia unificando las memorias en una sola memoria y realizar una gestión de memoria eficiente 55 con una memoria pequeña. En codificación de video multivisión, puesto que las imágenes en una dirección de visión tienen el mismo conteo de orden de imagen, la información para identificar una visión de cada una de las imágenes es utilizable en el marcado de las imágenes en una dirección de visión. Y, las imágenes de referencia gestionadas de la manera que antecede pueden ser usadas por la unidad interpredicción 700.
60
La unidad interpredicción 700 lleva a cabo interpredicción usando imágenes de referencia almacenadas en la unidad de memoria intermedia de imagen descodificada 600. Un macrobloque intercodificado puede ser dividido en particiones de macrobloque. Y, cada una de las particiones de macrobloque puede ser pronosticada a partir de una o dos imágenes de referencia. La unidad de interpredicción 700 incluye la unidad de compensación de movimiento 710, la unidad de compensación de iluminación 720, la unidad de predicción de diferencia de iluminación 730, la 65 unidad de predicción de síntesis de visión 740, la unidad de predicción ponderada 750, y similares.
La unidad de compensación de movimiento 710 compensa un movimiento de un bloque actual usando informaciones transferidas desde la unidad de descodificación de entropía 200. Los vectores de movimiento de bloques contiguos al bloque actual, son extraídos a partir de una señal de video, y a continuación se deduce un predictor de vector de movimiento del bloque actual a partir de los vectores de movimiento de los bloques contiguos. 5 Y, el movimiento del bloque actual se compensa usando el predictor de vector de movimiento deducido y un vector de movimiento diferencial extraído de la señal de video. Y, está capacitada para realizar la compensación de movimiento usando una imagen o una pluralidad de imágenes de referencia. En codificación de video multivisión, en caso de que una imagen actual se refiera a imágenes de diferentes visiones, está capacitada para realizar compensación de movimiento usando información de lista de imagen de referencia para la predicción intervisión 10 almacenada en la unidad de memoria intermedia de imagen descodificada 600. Y, está capacitada también para realizar compensación de movimiento usando información de visión para identificar una visión de una imagen de referencia. Un modo directo consiste en un modo de codificación para predecir información de movimiento de un bloque actual a partir de información de movimiento para un bloque codificado. Puesto que este método está en condiciones de ahorrar un número de bits requeridos para codificar la información de movimiento, la eficacia de 15 compresión se incrementa. Por ejemplo, un modo de dirección temporal pronostica la información de movimiento para un bloque actual usando una correlación de información de movimiento en una dirección temporal. Usando un método similar a este método, la presente invención está capacitada para predecir información de movimiento para un bloque actual usando una correlación de información de movimiento en una dirección de visión.
20
Mientras tanto, en caso de que una corriente de bits de entrada corresponda a un video multivisión, puesto que las respectivas secuencias de visión se obtienen mediante cámaras diferentes, se genera una diferencia de iluminación mediante factores externos e internos de las cámaras. Para evitar esto, la unidad de compensación de iluminación 720 compensa la diferencia de iluminación. En la realización de la compensación de iluminación, está capacitada para usar información de banderola que indica si ha de realizar la compensación de iluminación, sobre una capa 25 específica de una señal de video. Por ejemplo, está capacitada para realizar una compensación de iluminación usando información de banderola que indica si ha de realizar la compensación de iluminación sobre un sector o un macrobloque correspondiente. En la realización de compensación de iluminación usando la información de banderola, la compensación de iluminación es aplicable a varios tipos de macrobloque (por ejemplo, modo inter 16x16, modo omisión B, modo directo, etc.). 30
En la realización de compensación de iluminación, está capacitada para usar información para un bloque contiguo o información para un bloque en una visión diferente de la de un bloque actual para reconstruir el bloque actual. Y, está también capacitada para usar un valor de diferencia de iluminación del bloque actual. En este caso, si el bloque actual se refiere a bloques de una visión diferente, está capacitada para realizar compensación de iluminación 35 usando la información de lista de imagen de referencia para la predicción intervisión almacenada en la unidad de memoria intermedia de imagen descodificada 600. En este caso, el valor de diferencia de iluminación del bloque actual indica una diferencia entre un valor de píxel medio del bloque actual y un valor de pixel medio de un bloque de referencia correspondiente al bloque actual. Como ejemplo de uso del valor de diferencia de iluminación, el valor de predicción de diferencia de iluminación del bloque actual se obtiene usando bloques contiguos al bloque actual y se 40 usa un valor de diferencia (residuo de diferencia de iluminación) entre el valor de diferencia de iluminación y el valor de predicción de diferencia de iluminación. Con ello, la unidad de descodificación está capacitada para reconstruir el valor de diferencia de iluminación del bloque actual usando el residuo de diferencia de iluminación y el valor de predicción de diferencia de iluminación. En la obtención de un valor de predicción de diferencia de iluminación de un bloque actual, está capacitada para usar información para un bloque contiguo. Por ejemplo, está capacitada para 45 predecir un valor de diferencia de iluminación de un bloque actual usando un valor de diferencia de iluminación de un bloque contiguo. Con anterioridad a la predicción, se comprueba si un índice de referencia del bloque actual es igual al del bloque contiguo. Según sea el resultado de la comprobación, se decide a continuación qué clase de bloque contiguo o valor deberá ser usado.
50
La unidad de predicción de síntesis de visión 740 se utiliza para sintetizar imágenes en una visión virtual usando imágenes de una visión contigua a una visión de la imagen actual y para predecir la imagen actual usando las imágenes sintetizadas en la visión virtual. La unidad de descodificación está capacitada para decidir si debe sintetizar una imagen en una visión virtual conforme a un identificador de predicción de síntesis intervisión transferido desde una unidad de codificación. Por ejemplo, si view_synthesize_pred_flag = 1 o view_syn_pred_flag = 55 1, se sintetiza un sector o un macrobloque en una visión virtual. En este caso, cuando el identificador de predicción de síntesis intervisión informa de que se generará una visión virtual, está capacitada para generar una imagen en la visión virtual usando información de visión para identificar una visión de una imagen. Y, en la predicción de una imagen actual a partir de las imágenes sintetizadas en la visión virtual, está capacitada para usar la información de visión para usar la imagen en la visión virtual como imagen de referencia. 60
La unidad de predicción ponderada 750 se usa para compensar el fenómeno de que la calidad de imagen de una secuencia se haya degradado considerablemente en el caso de codificación de la secuencia cuya luminosidad varía temporalmente. En MVC, se puede realizar predicción ponderada para compensar una diferencia de luminosidad a partir de una secuencia de una visión diferente al igual que se realiza para una secuencia cuya luminosidad varía 65
temporalmente. Por ejemplo, el método de predicción ponderada puede ser clasificado en método de predicción ponderada explícita y método de predicción ponderada implícita.
En particular, el método de predicción ponderada explícita puede usar una imagen de referencia o dos imágenes de referencia. En caso de usar una imagen de referencia, se genera una señal de predicción a partir de la multiplicación 5 de una señal de predicción correspondiente a compensación de movimiento por un coeficiente de peso. En caso de uso de dos imágenes de referencia, se genera una señal de predicción a partir de la adición de un valor de desviación a un valor resultante de multiplicar una señal de predicción correspondiente a compensación de movimiento por un coeficiente de peso.
10
Y, la predicción ponderada implícita realiza una predicción ponderada usando una distancia a partir de una imagen de referencia. Como método de obtención de la distancia desde la imagen de referencia, está capacitada para usar POC (conteo de orden de imagen) que indica un orden de salida de imagen, por ejemplo. En este caso, el POC puede ser obtenido considerando identificación de una visión de cada imagen. En la obtención de un coeficiente de peso para una imagen de una visión diferente, se puede usar información de visión para identificar una visión e una 15 imagen para obtener una distancia entre visiones de las respectivas imágenes.
En la codificación de una señal de video, es utilizable información de profundidad para una aplicación específica u otro propósito. En este caso, la información de profundidad puede significar información capacitada para indicar una diferencia de disparidad intervisión. Por ejemplo, se puede obtener un vector de disparidad mediante predicción 20 intervisión. Y, el vector de disparidad obtenido deberá ser transferido a un aparato de descodificación para compensación de disparidad de un bloque actual. Más aún, si se obtiene un mapa de profundidad y se transfiere a continuación al aparato de descodificación, el vector de disparidad puede ser deducido a partir del mapa de profundidad (o mapa de disparidad) sin transferir el vector de disparidad al aparato de descodificación. En este caso, resulta ventajoso que el número de bits de información de profundidad que se va a transferir al aparato de 25 descodificación, puede reducirse. De ese modo, al deducir el vector de disparidad a partir del mapa de profundidad, se puede proporcionar un nuevo método de compensación de disparidad. Así, en caso de usar una imagen de una visión diferente en el transcurso de la deducción del vector de disparidad desde el mapa de profundidad, se puede usar información de visión para identificar una visión de la imagen.
30
Las imágenes interpronosticadas o intrapronosticadas mediante el proceso explicado en lo que antecede, son seleccionadas según un modo de predicción para reconstruir una imagen actual. En la descripción que sigue, se van a explicar varias realizaciones que proporcionan un método de descodificación eficiente de una señal de video.
La Figura 4 es un diagrama de una estructura jerárquica de información de nivel para proporcionar escalabilidad de 35 visión de una señal de video según una realización de la presente invención.
Haciendo referencia a la Figura 4, se puede decidir información de nivel para cada visión considerando información de referencia intervisión. Por ejemplo, puesto que es imposible descodificar una imagen P y una imagen B sin una imagen I, se puede asignar ‘nivel=0’ a una visión base cuyo grupo de imagen intervisión es la imagen I, ‘nivel=1’ a 40 una visión base cuyo grupo de imagen intervisión es la imagen P, y ‘nivel=2’ a una visión base cuyo grupo de imagen intervisión es la imagen B. Más aún, también es posible decidir la información de nivel de forma aleatoria según un estándar específico.
La información de nivel puede ser decidida aleatoriamente según un estándar específico o sin ningún estándar. Por 45 ejemplo, en caso de que la información de nivel sea decidida en base a una visión, es posible establecer una visión V0 como visión base a un nivel de visión 0, una visión de imágenes pronosticadas usando imágenes en una visión a un nivel de visión 1, y una visión de imágenes pronosticadas usando imágenes en una pluralidad de visiones a un nivel de visión 2. En este caso, se puede necesitar al menos una secuencia de visión para tener compatibilidad con un descodificador convencional (por ejemplo, H.264/AVC, MPEG-2, MPEG-4, etc.). Esta visión base constituye una 50 base de codificación multivisión, la cual puede corresponder a una visión de referencia para la predicción de otra visión. Una secuencia correspondiente a una visión base en MVC (codificación de video multivisión) puede ser configurada en una corriente de bits independiente al ser codificada por medio de un esquema de codificación de secuencia convencional (MPEG-2, MPEG-4, H.263, H.264, etc.). Una secuencia correspondiente a una visión base es compatible con H.264/AVC o puede no serlo. Más aún, una secuencia de visión compatible con H.264/AVC 55 corresponde a una visión base.
Según puede apreciarse en la Figura 4, es posible establecer una visión V2 de imágenes pronosticadas usando imágenes de la visión V0, una visión V4 de imágenes pronosticadas usando imágenes de la visión V2, una visión V6 de imágenes pronosticadas usando imágenes de la visión V4, y una visión V7 de imágenes pronosticadas usando 60 imágenes de la visión V6 a un nivel de visión 1. Y, es posible establecer una visión V1 de imágenes pronosticadas usando imágenes de las visiones V0 y V2 y una visión V3 pronosticadas de la misma manera, y una visión V5 pronosticada de la misma manera a un nivel de visión 2. De ese modo, en caso de que el descodificador de un usuario sea incapaz de visualizar una secuencia de video multivisión, éste descodifica secuencias en la visión correspondiente al nivel de visión 0 solamente. En caso de que el descodificador de un usuario esté restringido 65 mediante información de perfil, éste se encuentra capacitado para descodificar la información de un nivel de visión
restringido solamente. En este caso, un perfil significa que los elementos técnicos para algoritmo en un proceso de codificación/ descodificación de video, están estandarizados. En particular, el perfil es un conjunto de elementos técnicos requeridos para descodificar una secuencia de bits de una secuencia comprimida y puede ser una especie de subestandarización.
5
Según otra realización de la presente invención, la información de nivel puede variar de acuerdo con la localización de una cámara. Por ejemplo, suponiendo que las visiones V0 y V1 sean secuencias obtenidas por medio de una cámara situada en la parte frontal, que las visiones V2 y V3 sean secuencias localizadas en la parte trasera, que las visiones V4 y V5 sean secuencias localizadas en el lado izquierdo, y que las visiones V6 y V7 sean secuencias localizadas en el lado derecho, se puede establecer las visiones V0 y V1 a un nivel de visión 0, las visiones V2 y V3 10 a un nivel de visión 1, las visiones V4 y V5 a un nivel de visión 2, y las visiones V6 y V7 a un nivel de visión 3. Alternativamente, la información de nivel puede variar según el alineamiento de la cámara. Alternativamente, la información de nivel puede ser decidida aleatoriamente y no en base a un estándar específico.
La Figura 5 es un diagrama de una configuración de unidad NAL que incluye información de nivel dentro de un área 15 de extensión de una cabecera de NAL según una realización de la presente invención.
Con referencia a la Figura 5, una unidad NAL incluye básicamente una cabecera de NAL y un RBSP. La cabecera de NAL incluye información de banderola (nal_ref_idc) que indica si está incluido un sector que resulta ser una imagen de referencia de la unidad NAL, y un identificador (nal_unit_type) que indica un tipo de unidad NAL. Y, la 20 cabecera de NAL puede incluir además información de nivel (view_level) que indica una información para que una estructura jerárquica proporcione escalabilidad de visión.
Los datos originales comprimidos se almacenan en el RBSP, y el bit de arrastre de RBSP se añade a una última porción del RBSP para que represente una longitud del RBSP como número de multiplicación de 8 bits. Como tipos 25 de unidad NAL, existen IDR (refresco de descodificación instantáneo), SPS (conjunto de parámetros de secuencia), PPS (conjunto de parámetros de imagen), SEI (información de potenciación suplementaria), etc.
La cabecera de NAL incluye información para un identificador de visión. Y, una secuencia de video de un nivel de visión correspondiente es descodificada con referencia al identificador de visión en el transcurso de la realización de 30 descodificación según un nivel de visión.
La unidad NAL incluye una cabecera de NAL 51 y una capa de sector 53. La cabecera de NAL 51 incluye una extensión de cabecera de NAL 52. Y, la capa de sector 53 incluye una cabecera de sector 54 y datos de sector 55.
35
La cabecera de NAL 51 incluye un identificador (nal_unit_type) que indica el tipo de unidad NAL. Por ejemplo, el identificador que indica el tipo de unidad NAL puede ser un identificador tanto para codificación escalable como codificación de video multivisión. En este caso, la extensión de cabecera de NAL 52 puede incluir información de banderola que discrimine si una NAL actual es la NAL para la codificación de video escalable o la NAL para la codificación de video multivisión. Y, la extensión de cabecera de NAL 52 puede incluir información de extensión para 40 la NAL actual conforme a la información de banderola. Por ejemplo, en caso de que la NAL actual sea la NAL para la codificación de video multivisión conforme a la información de banderola, la extensión de cabecera de NAL 52 puede incluir información de nivel (view_level) que indique información para que una estructura jerárquica proporcione escalabilidad de visión.
45
La Figura 6 es un diagrama de una estructura predictiva global de una señal de video multivisión según una realización de la presente invención para explicar un concepto de grupo de imagen intervisión.
Con referencia a la Figura 6, T0 a T100 sobre el eje horizontal indican tramas según tiempo, y S0 a S7 sobre el eje vertical indican tramas según visión. Por ejemplo, las imágenes en T0 significan tramas capturadas por diferentes 50 cámaras sobre la misma zona de tiempo T0, mientras que las imágenes en S0 significan secuencias capturadas por una sola cámara sobre diferentes zonas de tiempo. Y, las flechas que aparecen en el dibujo indican direcciones predictivas y órdenes predictivos de las imágenes respectivas. Por ejemplo, una imagen P0 en una visión S2 sobre una zona de tiempo T0 es una imagen pronosticada a partir de I0, lo que resulta ser una imagen de referencia de una imagen P0 en una visión S4 sobre la zona de tiempo T0. Y, ésta resulta ser una imagen de referencia de 55 imágenes B1 y B2 sobre las zonas de tiempo T4 y T2 en la visión S2, respectivamente.
En un proceso de descodificación de video multivisión, puede ser necesario un acceso aleatorio intervisión. Así, un acceso a una visión aleatoria podría ser posible minimizando el esfuerzo de descodificación. En ese caso, puede ser necesario un concepto de grupo de imagen intervisión para realizar un acceso eficiente. El grupo de imagen 60 intervisión significa una imagen codificada en la que todos los sectores hacen referencia solamente a sectores con el mismo conteo de orden de imagen. Por ejemplo, el grupo de imagen intervisión significa una imagen codificada que se refiere a sectores de una visión diferente solamente sin hacer referencia a sectores de una visión actual. En la Figura 6, si una imagen 10 en una visión S0 sobre la zona de tiempo T0 es un grupo de imagen intervisión, todas las imágenes de diferentes visiones sobre la misma zona de tiempo, es decir, la zona de tiempo T0, resultan ser grupos 65 de imagen intervisión. En otro ejemplo, si una imagen I0 en una visión S0 sobre una zona de tiempo T8 es un grupo
de imagen intervisión, todas las imágenes de diferentes visiones sobre la misma zona de tiempo, es decir, la zona de tiempo T8, son grupos de imagen intervisión. De igual modo, todas las imágenes en T16, ..., T96 y T100 resultan ser también grupos de imagen intervisión.
La Figura 7 es un diagrama de una estructura predictiva según una realización de la presente invención para 5 explicar un concepto de grupo de imagen intervisión recién definido.
En una estructura predictiva global de MVC, GOP puede empezar con una imagen I. Y, la imagen I es compatible con H.264/AVC. Así, todos los grupos de imagen intervisión compatibles con H.264/AVC pueden ser siempre la imagen I. Más aún, en caso de que las imágenes I sean sustituidas por una imagen P, se permite una codificación 10 más eficiente. En particular, se permite una codificación más eficiente usando la estructura predictiva que habilita a GOP para que empiece por la imagen P compatible con H.264/AVC.
En ese caso, si se redefine el grupo de imagen intervisión, todos los sectores resultan ser imágenes codificadas capacitadas para hacer referencia no solo a un sector de una trama sobre una misma zona de tiempo sino también a 15 un sector en la misma visión sobre una zona de tiempo diferente. Más aún, en caso de hacer referencia a un sector sobre una zona de tiempo diferente en una misma visión, éste puede ser restringido al grupo de imagen intervisión compatible con H.264/AVC solamente. Por ejemplo, una imagen P en un instante de tiempo T8 en una visión S0 en la Figura 6, puede resultar ser un grupo de imagen intervisión recién definido. De igual modo, una imagen P en un instante de tiempo T96 en una visión S0 o una imagen P en un instante de tiempo T100 en una visión S0 pueden 20 resultar ser un grupo de imagen intervisión recién definido. Y, el grupo de imagen intervisión puede ser definido solamente si es una visión base.
Después de que haya sido descodificado el grupo de imagen intervisión, todas las imágenes codificadas secuencialmente son descodificadas a partir de imágenes descodificadas antes que el grupo de imagen intervisión 25 en un orden de salida sin interpredicción.
Considerando la estructura de codificación global del video multivisión mostrada en la Figura 6 y en la Figura 7, puesto que la información de referencia intervisión de un grupo de imagen intervisión difiere de un grupo de imagen de no intervisión, es necesario discriminar entre sí el grupo de imagen intervisión y el grupo de imagen de no 30 intervisión conforme a la información de identificación de grupo de imagen intervisión.
La información de referencia intervisión significa una información capacitada para reconocer una estructura predictiva entre imágenes intervisión. Esto puede obtenerse a partir de un área de datos de una señal de video. Por ejemplo, se puede obtener a partir de un área de conjunto de parámetros de secuencia. Y, la información de 35 referencia intervisión puede ser reconocida usando el número de imágenes de referencia y la información de visión para las imágenes de referencia. Por ejemplo, se obtiene el número de visiones en total y la información de visión para identificar cada visión puede ser obtenida después en base al número de visiones en total. Y, se puede obtener el número de imágenes de referencia para una dirección de referencia para cada visión. Según el número de imágenes de referencia, puede obtener la información de visión para cada una de las imágenes de referencia. De 40 esa manera, se puede obtener la información de referencia intervisión. Y, la información de referencia intervisión puede ser reconocida mediante discriminación de un grupo de imagen intervisión y un grupo de imagen de no intervisión. Esto puede ser reconocido usando información de identificación de grupo de imagen intervisión que indique si un sector codificado en una NAL actual es un grupo de imagen intervisión. Los detalles de la información de identificación de grupo de imagen intervisión se explican con referencia a la Figura 8, tal y como sigue. 45
La Figura 8 es un diagrama esquemático de bloques de un aparato para descodificar un video multivisión usando información de identificación de grupo de imagen intervisión conforme a una realización de la presente invención.
Con referencia a la Figura 8, un aparato de descodificación según una realización de la presente invención incluye 50 una unidad de decisión de corriente de bits 81, una unidad de obtención de información de identificación de grupo de imagen intervisión 82, y una unidad de descodificación de video multivisión 83.
Si se presenta a la entrada una corriente de bits, la unidad de decisión de corriente de bits 81 decide si la corriente de bits presente a la entrada es una corriente de bit codificada para codificación de video escalable o si es una 55 corriente de bits codificada para codificación de video multivisión. Esto puede ser decidido mediante la información de banderola incluida en la corriente de bits.
La unidad de obtención de información de identificación de grupo de imagen intervisión 82 está capacitada para obtener información de identificación de grupo de imagen intervisión si la corriente de bits de entrada es la corriente 60 de bits para codificación de video multivisión como resultado de la decisión. Si la información de identificación de grupo de imagen intervisión obtenida es “verdadera”, ello significa que un sector codificado de una NAL actual es un grupo de imagen intervisión. Si la información de identificación de grupo de imagen intervisión obtenida es “falsa”, ello significa que un sector codificado de una NAL actual es un grupo de imagen de no intervisión. La información de identificación de grupo de imagen intervisión puede ser obtenida a partir de un área de extensión de una cabecera 65 de NAL o de un área de capa de sector.
La unidad de descodificación de video multivisión 83 descodifica un video multivisión según la información de identificación de grupo de imagen intervisión. Según una estructura de codificación global de una secuencia de video multivisión, la información de referencia intervisión de un grupo de imagen intervisión difiere de la de un grupo de imagen de no intervisión. Así, está capacitada para usar la información de identificación de grupo de imagen 5 intervisión con la adición de imágenes de referencia para predicción intervisión para generar una lista de imagen de referencia, por ejemplo. Y, también está capacitada para usar la información de identificación de grupo de imagen intervisión para gestionar las imágenes de referencia para la predicción intervisión. Además, la información de identificación de grupo de imagen intervisión es aplicable a un hipotético descodificador de referencia.
10
Según otro ejemplo de uso de la información de identificación de grupo de imagen intervisión, en caso de usar información en una visión diferente para cada proceso de descodificación, es utilizable la información de referencia intervisión incluida en un conjunto de parámetros de secuencia. En ese caso, se puede necesitar información para discriminar si una imagen actual es un grupo de imagen intervisión o un grupo de imagen de no intervisión, es decir, información de identificación de grupo de imagen intervisión. De ese modo, tiene capacidad para usar diferente 15 información de referencia intervisión para cada proceso de descodificación.
La Figura 9 es un diagrama de flujo de un proceso para generar una lista de imagen de referencia conforme a una realización de la presente invención.
20
Con referencia a la Figura 9, la unidad de memoria intermedia de imagen descodificada 600 juega un papel en el almacenaje o apertura de imágenes previamente codificadas para realizar predicción interimagen.
En primer lugar, las imágenes codificadas con anterioridad a una imagen actual están almacenadas en la unidad de almacenaje de imagen de referencia 610 para ser usadas como imágenes de referencia (S91). 25
En codificación de video multivisión, puesto que algunas de las imágenes previamente codificadas están en una visión diferente de la imagen actual, la información de visión para identificar una visión de una imagen puede ser usada para utilizar esas imágenes como imágenes de referencia. Así, el descodificador podría obtener información de visión para identificar una visión de una imagen (S92). Por ejemplo, la información de visión puede incluir 30 ‘view_id’ para identificar una visión de una imagen.
La unidad de memoria intermedia de imagen descodificada 600 necesita deducir una variable usada en la misma para generar una lista de imagen de referencia. Puesto que puede requerirse predicción intervisión para codificación de video multivisión, si una imagen actual se refiere a una imagen de una visión diferente, puede ser necesario generar una lista de imagen de referencia para predicción intervisión. En ese caso, la unidad de memoria intermedia 35 de imagen descodificada 600 necesita deducir una variable usada para generar la lista de imagen de referencia para la predicción intervisión usando la información de visión obtenida (S93).
Se puede generar una lista de imagen de referencia para predicción temporal o una lista de imagen de referencia para predicción intervisión mediante un método diferente según el tipo de sector de un sector actual (S94). Por 40 ejemplo, si un tipo de sector es un sector P/SP, se genera una lista de imagen de referencia 0 (S95). En caso de que el tipo de sector sea un sector B, se genera (S96) una lista de imagen de referencia 0 y una lista de imagen de referencia 1 . En ese caso, la lista de imagen de referencia 0 ó 1 puede incluir la lista de imagen de referencia para la predicción temporal solamente o ambas listas, lista de imagen de referencia para predicción temporal y lista de imagen de referencia para predicción intervisión. Esto va a ser explicado en detalle con referencia a la Figura 8 y a la 45 Figura 9 más adelante.
La lista de imagen de referencia inicializada experimenta un proceso para asignar un número más pequeño a una imagen mencionada frecuentemente para aumentar más una tasa de compresión (S97). Y, esto puede denominarse proceso de reordenación para una lista de imagen de referencia, lo que va a ser explicado en detalle con referencia 50 a las Figuras 12 a 19 más adelante. La imagen actual es descodificada usando la lista de imagen de referencia reordenada y la unidad de memoria intermedia de imagen descodificada 600 necesita gestionar las imágenes de referencia descodificadas para operar una memoria intermedia de forma más eficiente (S98). Las imágenes de referencia gestionadas por el proceso anterior son leídas por una unidad de interpredicción 700 para ser usadas a efectos de interpredicción. En codificación de video multivisión, la interpredicción puede incluir predicción intervisión. 55 En este caso, es utilizable la lista de imagen de referencia para la predicción intervisión.
Ejemplos detallados de un método de generación de una lisa de imagen de referencia de acuerdo con un tipo de sector se explican con referencia a la Figura 10 y la Figura 11, como sigue.
60
La Figura 10 es un diagrama para explicar un método de inicialización de una lista de imagen de referencia cuando un sector actual es un sector P según una realización de la presente invención.
Con referencia a la Figura 10, se indica un tiempo mediante T0, T1, ..., TN, mientras que una visión se indica mediante V0, V1, ...., V4. Por ejemplo, una imagen actual indica una imagen en un instante T3 en una visión V4. Y, 65 un tipo de sector de la imagen actual es un sector P. ‘PN’ es una abreviatura de una variable PicNum, ‘LPN’ es una
abreviatura de una variable LongTermPicNum, y ‘VN’ es una abreviatura de una variable ViewNum. Un número unido a una porción extrema de cada una de las variables indica un índice que indica un tiempo de cada imagen (para PN o LPN) o una visión de cada imagen (para VN). Esto es aplicable a la Figura 11 de la misma manera.
Una lista de imagen de referencia para predicción temporal o una lista de imagen de referencia para predicción 5 intervisión puede ser generada de una manera diferente según el tipo de sector de un sector actual. Por ejemplo, un tipo de sector según la Figura 12 es un sector P/SP. En este caso, se genera una lista de imagen de referencia 0. En particular, la lista de imagen de referencia 0 puede incluir una lista de imagen de referencia para predicción temporal y/o una lista de imagen de referencia para predicción intervisión. En la presente realización, se supone que una lista de imagen de referencia incluye tanto una lista de imagen de referencia para predicción temporal como una lista de 10 imagen de referencia para predicción intervisión.
Existen varios métodos para ordenar imágenes de referencia. Por ejemplo, las imágenes de referencia pueden ser alineadas conforme a un orden de descodificación o de salida de imagen. Alternativamente, las imágenes de referencia pueden ser alineadas en base a una variable deducida usando información de visión. Alternativamente, 15 las imágenes de referencia pueden ser alineadas de acuerdo con información de referencia intervisión que indique una estructura de predicción intervisión.
En el caso de una lista de imagen de referencia para predicción temporal, las imágenes de referencia de corto plazo y las imágenes de referencia de largo plazo pueden ser alineadas en base a un orden de descodificación. Por 20 ejemplo, éstas pueden ser alineadas según un valor de una variable PicNum o LongTermPicNum deducida a partir de un valor que indica un número de identificación de imagen (por ejemplo, frame_num o Longterframeidx). En primer lugar, las imágenes de referencia de corto plazo pueden ser inicializadas antes que las imágenes de referencia de largo plazo. Se puede establecer un orden de alineamiento de las imágenes de referencia de corto plazo a partir de una imagen de referencia que tenga un valor más alto de la variable PicNum respecto a una imagen 25 de referencia que tenga un valor de variable más bajo. Por ejemplo, las imágenes de referencia de corto plazo pueden ser alineadas por orden de PN1 que tienen una variable más alta, PN2 que tienen una variable intermedia, y PNO que tienen la variable más baja entre PN0 a PN2. Se puede establecer un orden de alineamiento de las imágenes de referencia de largo plazo a partir de una imagen de referencia que tenga un valor más bajo de la variable LongTermPicNum respecto a una imagen de referencia que tenga un valor de variable más alto. Por 30 ejemplo, las imágenes de referencia de largo plazo pueden ser alineadas por orden de LPN0 que tienen una variable más alta y LPN1 que tienen una variable más baja.
En el caso de una lista de imagen de referencia para predicción intervisión las imágenes de referencia pueden ser alineadas en base a una primera variable ViewNum deducida con el uso de información de visión. En particular, las 35 imágenes de referencia pueden ser alineadas por orden de una imagen de referencia que tenga un primer valor de variable (ViewNum) más alto respecto a una imagen de referencia que tenga un primer valor de variable (ViewNum) más bajo. Por ejemplo, las imágenes de referencia pueden ser alineadas por orden de VN3 que tiene una variable más alta, VN2, VN1 y VN0 que tienen una variable más baja entre VN0, VN1, VN2 y VN3.
40
De ese modo, tanto la lista de imagen de referencia para predicción temporal como la lista de imagen de referencia para predicción intervisión pueden ser gestionadas como una sola lista de imagen de referencia. Alternativamente, tanto la lista de imagen de referencia para predicción temporal como la lista de imagen de referencia para predicción intervisión pueden ser gestionadas como listas de imagen de referencia por separado, respectivamente. En el caso de gestionar ambas listas, lista de imagen de referencia para predicción temporal y lista de imagen de referencia 45 para predicción intervisión como una sola lista de imagen de referencia, éstas pueden ser inicializadas según un orden o de forma simultánea. Por ejemplo, en caso de inicialización de ambas listas, lista de imagen de referencia para predicción temporal y lista de imagen de referencia para predicción intervisión según un orden, la lista de imagen de referencia para la predicción temporal se inicializa de forma preferente y la lista de imagen de referencia para predicción intervisión se inicializa a continuación. Este concepto es aplicable también a la Figura 11. 50
Un caso en que un tipo de sector de una imagen actual es un sector B, va a ser explicado con referencia a la Figura 11 como sigue.
La Figura 11 es un diagrama para explicar un método de inicialización de una lista de imagen de referencia cuando 55 un sector actual es un sector B según una realización de la presente invención.
Con referencia a la Figura 9, en caso de que un tipo de sector sea un sector B, se genera una lista de imagen de referencia 0 y una lista de imagen de referencia 1. En ese caso, la lista de imagen de referencia 0 o la lista de imagen de referencia 1 pueden incluir una lista de imagen de referencia para predicción temporal solamente o bien 60 una lista de imagen de referencia para predicción temporal y una lista de imagen de referencia para predicción intervisión.
En el caso de la lista de imagen de referencia para predicción temporal, un método de alineamiento de imagen de referencia de corto plazo puede diferir de un método de alineación de imagen de referencia de largo plazo. Por 65 ejemplo, en el caso de imágenes de referencia de corto plazo, las imágenes de referencia pueden ser alineadas
conforme a un conteo de orden de imagen (en lo que sigue, POC de forma abreviada). En caso de imágenes de referencia de largo plazo, las imágenes de referencia pueden ser alineadas según un valor de variable (LongTermPicNum). Y, las imágenes de referencia de corto plazo pueden ser inicializadas antes que las imágenes de referencia de largo plazo.
5
Con el fin de alinear las imágenes de referencia de corto plazo de la lista de imagen de referencia 0, las imágenes de referencia son alineadas preferentemente a partir de una imagen de referencia que tiene un valor de POC más alto respecto a una imagen de referencia que tenga un valor de POC más bajo entre imágenes de referencia que tienen valores de POC más pequeños que el de una imagen actual, y a continuación alineadas a partir de una imagen de referencia que tiene un valor de POC más bajo respecto a una imagen de referencia que tenga un valor 10 de POC más alto entre las imágenes de referencia que tienen valores de POC más altos que el de una imagen actual. Por ejemplo, las imágenes de referencia pueden ser alineadas preferentemente a partir de PN1 que tiene un valor de POC más alto en imágenes de referencia PN0 y PN1 que tienen valores de POC más bajos que el de una imagen actual respecto a PN0, y a continuación alineadas a partir de PN3 que tiene un valor de POC más bajo en imágenes de referencia PN3 y PN4 que tienen un valor de POC más pequeño que el de una imagen actual respecto 15 a PN4.
Con el fin de alinear imágenes de referencia de largo plazo de la lista de imagen de referencia 0, las imágenes de referencia se alinean a partir de una imagen de referencia que tiene una variable LongTermPicNum más baja respecto a una imagen de referencia que tenga una variable más alta. Por ejemplo, las imágenes de referencia se 20 alinean a partir de LPN0 que tiene un valor más bajo en LPN0 y LPN1 respecto a LPN1 que tiene una segunda variable más baja.
En el caso de la lista de imagen de referencia para predicción intervisión, las imágenes de referencia pueden ser alineadas en base a una primera variable ViewNum deducida usando información de visión. Por ejemplo, en el caso 25 de la lista de imagen de referencia 0 para predicción intervisión, las imágenes de referencia pueden ser alineadas a partir de una imagen de referencia que tenga un primer valor de variable más alto entre imágenes de referencia que tengan primeros valores de variable más bajos que el de una imagen actual respecto a una imagen de referencia que tenga un primer valor de variable más bajo. Las imágenes de referencia son alineadas a continuación a partir de una imagen de referencia que tiene un primer valor de variable más bajo entre imágenes de referencia que tienen 30 primeros valores de variable mayores que el de una imagen actual respecto a una imagen de referencia que tiene un primer valor de variable más alto. Por ejemplo, las imágenes de referencia se alinean preferentemente a partir de VN1 que tiene un primer valor de variable más alto en VN0 y VN1 que tiene primeros valores de variable más pequeños que el de una imagen actual respecto a VN0 que tiene un primer valor de variable más bajo y a continuación se alinean a partir de VN3 que tiene un primer valor de variable más bajo en VN3 y VN4 que tienen 35 primeros valores de variable más grandes que el de una imagen actual respecto a VN4 que tiene un primer valor de variable más alto.
En el caso de la lista de imagen de referencia 1, el método de alineamiento de la lista de referencia 0 explicado con anterioridad es aplicable de forma similar. 40
En primer lugar, en el caso de la lista de imagen de referencia para predicción temporal, a efectos de alineamiento de imágenes de referencia de corto plazo de la lista de imagen de referencia 1, las imágenes de referencia son alineadas preferentemente a partir de una imagen de referencia que tiene un valor de POC más bajo respecto a una imagen de referencia que tiene un valor de POC más alto entre imágenes de referencia que tienen valores de POC 45 mayores que el de una imagen actual y a continuación alineadas a partir de una imagen de referencia que tiene un valor de POC más alto respecto a una imagen de referencia que tiene un valor de POC más bajo entre las imágenes de referencia que tienen valores de POC más pequeños que el de la imagen actual. Por ejemplo, las imágenes de referencia pueden ser alineadas preferentemente a partir de PN3 que tiene un valor de POC más bajo en imágenes de referencia PN3 y PN4 que tienen valores de POC mayores que el de una imagen actual respecto a PN4 y a 50 continuación alineadas a partir de PN1 que tiene un valor de POC más alto en imágenes de referencia PN0 y PN1 que tienen valores de POC más grandes que el de la imagen actual respecto a PN0.
A efectos de alineamiento de imágenes de referencia de largo plazo de la lista de imagen de referencia 1, las imágenes de referencia se alinean a partir de una imagen de referencia que tiene una variable LongTermPicNum 55 más baja respecto a una imagen de referencia que tiene una variable más alta. Por ejemplo, las imágenes de referencia se alinean a partir del LPN0 que tiene un valor más bajo en LPN0 y LPN1 respecto a LPN1 que tiene una variable más baja.
En el caso de la lista de imagen de referencia para predicción intervisión, las imágenes de referencia pueden ser 60 alineadas en base a una primera variable ViewNum deducida con el uso de información de visión. Por ejemplo, en el caso de la lista de imagen de referencia 1 para predicción intervisión, las imágenes de referencia pueden ser alineadas a partir de una imagen de referencia que tiene un primer valor de variable más bajo entre las imágenes de referencia que tienen primeros valores de variable más altos que el de una imagen actual respecto a una imagen de referencia que tiene un primer valor de variable más alto. Las imágenes de referencia son alineadas a continuación a 65 partir de una imagen de referencia que tiene un primer valor de variable más alto entre las imágenes de referencia
que tienen primeros valores de variable más pequeños que el de la imagen actual respecto a una imagen de referencia que tiene un primer valor de variable más bajo. Por ejemplo, las imágenes de referencia se alinean preferentemente a partir de VN3 que tiene un primer valor de variable más bajo en VN3 y VN4 que tiene primeros valores de variable mayores que el de una imagen actual respecto a VN4 que tiene un primer valor de variable más alto, y a continuación se alinean a partir de VN1 que tiene un primer valor de variable más alto en VN0 y VN1 que 5 tiene primeros valores de variable más pequeños que el de la imagen actual respecto a VN0 que tiene un primer valor de variable más bajo.
La lista de imagen de referencia inicializada mediante el proceso que antecede, es transferida a la unidad de reordenación de lista de imagen de referencia 640. La lista de imagen de referencia inicializada es reordenada a 10 continuación para una codificación más eficiente. El proceso de reordenación consiste en reducir una tasa de bits asignando un número pequeño a una imagen de referencia que tiene la probabilidad más alta de ser seleccionada como imagen de referencia operando una memoria intermedia de imagen descodificada. Se explican diversos métodos de reordenación de una lista de imagen de referencia en relación con las Figuras 12 a 19 como sigue.
15
La Figura 12 es un diagrama de bloques interno de la unidad de reordenación de lista de imagen de referencia 640 según una realización de la presente invención.
Con referencia a la Figura 12, la unidad de reordenación de lista de imagen de referencia 640 incluye básicamente una unidad de comprobación de tipo de sector 642, una unidad de reordenación de lista 0 de imagen de referencia 20 643, y una unidad de reordenación de lista 1 de imagen de referencia 645.
En particular, la unidad de reordenación de lista 0 de imagen de referencia 643 incluye una primera unidad de obtención de información de identificación 643A, y una primera unidad de cambio de asignación de índice de referencia 643B. Y, la unidad de reordenación de lista 1 de imagen de referencia 645 incluye una segunda unidad de 25 obtención de identificación 645A y una segunda unidad de cambio de asignación de índice de referencia 645B.
La unidad de comprobación de tipo de sector 642 comprueba el tipo de sector de un sector actual. A continuación, decide si ha de reordenar una lista de imagen de referencia 0 y/o una lista de imagen de referencia 1 en función del tipo de sector. Por ejemplo, si el tipo de sector de un sector actual es un sector I, no se reordena ninguna de la lista 30 de imagen de referencia 0 o la lista de imagen de referencia 1. Si el tipo de sector de un sector actual es un sector P, se reordena solamente la lista de imagen de referencia 0. Si el tipo de sector de un sector actual es un sector de tipo B, se reordena tanto la lista de imagen de referencia 0 como la lista de imagen de referencia 1.
La unidad de reordenación de lista 0 de imagen de referencia 643 se activa si la información de banderola para 35 ejecutar la reordenación de la lista de imagen de referencia 0 es “verdadera” y si el tipo de sector del sector actual no es el sector I. La primera unidad de obtención de información de identificación 643A obtiene información de identificación que indica un método de asignación de índice de referencia. La primera unidad de cambio de asignación de índice de referencia 643B cambia un índice de referencia asignado a cada imagen de referencia de la lista de imagen de referencia 0 según la información de identificación. 40
De igual modo, la unidad de reordenación de lista 1 de imagen de referencia 645 se activa si la información de banderola para ejecutar la reordenación de la lista de imagen de referencia 1 es “verdadera” y si el tipo de sector del sector actual es el sector B. La segunda unidad de obtención de información de identificación 645A obtiene información de identificación que indica un método de asignación de índice de referencia. La segunda unidad de 45 cambio de asignación de índice de referencia 645B cambia un índice de referencia asignado a cada imagen de referencia de la lista de imagen de referencia 1 conforme a la información de identificación.
De ese modo, la información de lista de imagen de referencia usada para interpredicción real, se genera a través de la unidad de reordenación de lista 0 de imagen de referencia 643 y de la unidad de reordenación de lista 1 de 50 imagen de referencia 645.
Un método de cambio de un índice de referencia asignado a cada imagen de referencia por la primera o la segunda unidad de cambio de asignación de índice de referencia 643B o 645B, va a ser explicado con referencia a la Figura 13, como sigue. 55
La Figura 13 es un diagrama de bloques interno de una unidad de cambio de asignación de índice de referencia 643B o 645B conforme a una realización de la presente invención. En la descripción que sigue, la unidad de reordenación de lista 0 de imagen de referencia 643 y la unidad de reordenación de lista 1 de imagen de referencia 645 mostradas en la Figura 12, van a ser explicadas conjuntamente. 60
Con referencia a la Figura 13, cada una de entre la primera y la segunda unidades de cambio de asignación de índice de referencia 643B y 645B incluye una unidad de cambio de asignación de índice de referencia para predicción temporal 644A, una unidad de cambio de asignación de índice de referencia para imagen de referencia de largo plazo 644B, una unidad de cambio de asignación de índice de referencia para predicción intervisión 644C, y 65 una unidad de terminación de cambio de asignación de índice de referencia 644D. Según las informaciones de
identificación obtenidas por la primera y la segunda unidades de obtención de información de identificación 643A y 645A, se activan las partes internas de la primera y la segunda unidades de cambio de asignación de índice de referencia 643B y 645B, respectivamente. Y, el proceso de reordenación se mantiene en ejecución hasta que se introduce información de identificación para terminar el cambio de asignación de índice de referencia.
5
Por ejemplo, si la información de identificación para cambiar la asignación de un índice de referencia para predicción temporal se recibe desde la primera o la segunda unidad de obtención de información de identificación 643A o 645A, la unidad de cambio de asignación de índice de referencia para predicción temporal 644A se activa. La unidad de cambio de asignación de índice de referencia para predicción temporal 644A obtiene una diferencia de número de imagen según la información de identificación recibida. En ese caso, la diferencia de número de imagen significa una 10 diferencia entre un número de imagen de una imagen actual y un número de imagen pronosticada. Y, el número de imagen pronosticada puede indicar un número de imagen de referencia asignado justamente antes. Así, se encuentra capacitada para cambiar la asignación del índice de referencia usando la diferencia de número de imagen obtenida. En ese caso, la diferencia de número de imagen puede ser sumada/restada al/del número de imagen pronosticada conforme a la información de identificación. 15
Según otro ejemplo, si se recibe información de identificación para cambiar la asignación de un índice de referencia a una imagen de referencia de largo plazo designada, la unidad de cambio de asignación de índice de referencia para una imagen de referencia de largo plazo 644B se activa. La unidad de cambio de asignación de índice de referencia para una imagen de referencia de largo plazo 644B obtiene un número de imagen de referencia de largo 20 plazo de una imagen designada según el número de identificación.
Según otro ejemplo, si se recibe información de identificación para cambiar la asignación de un índice de referencia para predicción intervisión, la unidad de cambio de asignación de índice de referencia para predicción intervisión 644C se activa. La unidad de cambio de asignación de índice de referencia para predicción intervisión 644C obtiene 25 la diferencia de información de visión según la información de identificación. En este caso, la diferencia de información de visión significa una diferencia entre un número de visión de una imagen actual y un número de visión pronosticado. Y, el número de visión pronosticado puede indicar un número de visión de una imagen de referencia asignada justamente antes. Así, está capacitada para cambiar la asignación de un índice de referencia usando la diferencia de información de visión obtenida. En ese caso, la diferencia de información de visión puede ser 30 sumada/restada al/del número de visión pronosticado según la información de identificación.
En otro ejemplo, si se recibe la información de identificación para la terminación de un cambio de asignación de índice de referencia, la unidad de terminación de cambio de asignación de índice de referencia 644D se activa. La unidad de terminación de cambio de asignación de índice de referencia 644D termina el cambio de asignación de un 35 índice de referencia según la información de identificación recibida. De ese modo, la unidad de reordenación de lista de imagen de referencia 640 genera información de lista de imagen de referencia.
Así, las imágenes de referencia usadas para predicción intervisión pueden ser gestionadas junto con las imágenes de referencia usadas para predicción temporal. Alternativamente, las imágenes de referencia usadas para predicción 40 intervisión pueden ser gestionadas separadamente de las imágenes de referencia usadas para predicción temporal. Por ello, se pueden necesitar informaciones nuevas para gestionar las imágenes de referencia usadas para predicción intervisión. Esto va a ser explicado con relación a las Figuras 15 a 19 más adelante.
Los detalles de la unidad de cambio de asignación de índice de referencia para predicción intervisión 644C van a ser 45 explicados haciendo referencia a la Figura 14 como sigue.
La Figura 14 es un diagrama para explicar un proceso para reordenar una lista de imagen de referencia usando información de visión según una realización de la presente invención.
50
Con referencia a la Figura 14, si el número de visión VN de una imagen actual es 3, si el tamaño de una memoria intermedia de imagen descodificada DPBsize es 4, y si el tipo de sector de un sector actual es un sector P, un proceso de reordenación para una lista de imagen de referencia 0 va a ser explicado en lo que sigue.
En primer lugar, el número de visión pronosticado inicialmente es ‘3’, es decir, el número de visión de la imagen 55 actual. Y, el alineamiento inicial de la lista de imagen de referencia 0 para predicción intervisión es ‘4, 5, 6, 2’ (①). En ese caso, si se recibe información de identificación para cambiar la asignación de un índice de referencia para predicción intervisión restando una diferencia de información de visión, se obtiene ‘1’ como diferencia de información de visión según la información de identificación recibida. Se calcula un número de visión nuevamente pronosticado (=2) restando la diferencia de información de visión (=1) del número de visión pronosticado (=3). En particular, se 60 asigna un primer índice de la lista de imagen de referencia 0 para predicción intervisión a una imagen de referencia que tiene el número de visión 2. Y, una imagen previamente asignada al primer índice puede ser trasladada a una parte más posterior de la lista de imagen de referencia 0. De ese modo, la lista de imagen de referencia 0 reordenada es ‘2, 5, 6, 4’ (②). Posteriormente, si se recibe información de identificación para cambiar la asignación de un índice de referencia para predicción intervisión restando la diferencia de información de visión, se obtiene ‘-2’ 65 como diferencia de información de visión conforme a la información de identificación. A continuación, se calcula un
numero de visión nuevamente pronosticado (=4) restando la diferencia de información de visión (=-2) del número de visión pronosticado (=2). En particular, se asigna un segundo índice de la lista de imagen de referencia 0 para predicción intervisión a una imagen de referencia que tiene el número de visión 4. Con ello, la lista de imagen de referencia 0 reordenada es ‘2, 4, 6, 5’ (③). A continuación, si se recibe información de identificación para terminación del cambio de asignación de índice de referencia, se genera la lista de imagen de referencia 0 que tiene 5 la lista de imagen de referencia 0 reordenada como final, conforme a la información de identificación recibida (④). Con ello, el orden en la lista de imagen de referencia 0 finalmente generada para la predicción intervisión, es ‘2, 4, 6, 5’.
En otro ejemplo de reordenación del resto de las imágenes después de que se haya asignado el primer índice de la 10 lista de imagen de referencia 0 para predicción intervisión, una imagen asignada a cada índice puede ser desplazada hasta una posición justamente por detrás de la imagen correspondiente. En particular, se asigna un segundo índice a una imagen que tiene un número de visión 4, se asigna un tercer índice a una imagen (número de visión 5) a la que fue asignado el segundo índice, y se asigna un cuarto índice a una imagen (número de visión 6) a la que fue asignado el tercer índice. Con ello, la lista de imagen de referencia 0 reordenada queda como ‘2, 4, 5, 6’. 15 Y, se puede ejecutar un proceso de reordenación posterior de la misma manera.
La lista de imagen de referencia generada por medio del proceso explicado con anterioridad, se utiliza a efectos de inter-predicción. Tanto la lista de imagen de referencia para predicción intervisión como la lista de imagen de referencia para predicción temporal pueden ser gestionadas como una sola lista de imagen de referencia. 20 Alternativamente, cada una de entre la lista de imagen de referencia para predicción intervisión y la lista de imagen de referencia para predicciones temporales, pueden ser gestionadas como lista de imagen de referencia por separado. Esto se explica con referencia a las Figuras 15 a 19 como sigue.
La Figura 15 es un diagrama de bloques interno de una unidad de reordenación de lista de imagen de referencia 640 25 según otra realización de la presente invención.
Con referencia a la Figura 15, a efectos de gestionar una lista de imagen de referencia para predicción intervisión como lista de imagen de referencia separada, se pueden necesitar nuevas informaciones. Por ejemplo, se reordena una lista de imagen de referencia para predicción temporal, y a continuación se reordena una lista de imagen de 30 referencia para predicción intervisión en algunos casos.
La unidad de reordenación de lista de imagen de referencia 640 incluye básicamente una unidad de reordenación de lista de imagen de referencia para predicción temporal 910, una unidad de comprobación tipo NAL 960, y una unidad de reordenación de lista de imagen de referencia para predicción intervisión 970. 35
La unidad de reordenación de lista de imagen de referencia para predicción temporal 910 incluye una unidad de comprobación de tipo de sector 642, una tercera unidad de obtención de información de identificación 920, una tercera unidad de cambio de asignación de índice de referencia 930, una cuarta unidad de obtención de información de identificación 940, y una cuarta unidad de cambio de asignación de índice de referencia 950. La tercera unidad de 40 cambio de asignación de índice de referencia 930 incluye una unidad de cambio de asignación de índice de referencia para predicción temporal 930A, una unidad de cambio de asignación de índice de referencia para una imagen de referencia de largo plazo 930B, y una unidad de terminación de cambio de asignación de índice de referencia 930C. De igual modo, la cuarta unidad de cambio de asignación de índice de referencia 950 incluye una unidad de cambio de asignación de índice de referencia para predicción temporal 950A, una unidad de cambio de 45 asignación de índice de referencia para imagen de referencia de largo plazo 950B, y una unidad de terminación de cambio de asignación de índice de referencia 950C.
La unidad de reordenación de lista de imagen de referencia para predicción temporal 910 reordena imágenes de referencia usadas para predicción temporal. Las operaciones de la unidad de reordenación de lista de imagen de 50 referencia para predicción temporal 910 son idénticas a las de la unidad de reordenación de lista de imagen de referencia 640 mencionada anteriormente, mostrada en la Figura 10, salvo en las informaciones para imágenes de referencia para predicción intervisión. Así, los detalles de la unidad de reordenación de lista de imagen de referencia para predicción temporal 910 han sido omitidos en la descripción que sigue.
55
La unidad de comprobación de tipo NAL 960 comprueba un tipo de NAL de una corriente de bits recibida. Si el tipo de NAL es una NAL para codificación de video multivisión, las imágenes de referencia usadas para la predicción intervisión son reordenadas por la unidad de reordenación de lista de imagen de referencia para predicción temporal 970. La lista de imagen de referencia generada para las predicciones intervisión se utiliza para interpredicción junto con la lista de imagen de referencia generada por la unidad de reordenación de lista de imagen de referencia para 60 predicción temporal 910. Más aún, si el tipo de NAL no es la NAL para codificación de video multivisión, la lista de imagen de referencia para predicción intervisión no se reordena. En ese caso, se genera solamente una lista de imagen de referencia para predicción temporal. Y, la unidad de reordenación de lista de imagen de referencia 970 de predicción intervisión reordena imágenes de referencia usadas para predicción intervisión. Esto se explica con detalle en relación con la Figura 16 como sigue. 65
La Figura 16 es un diagrama de bloques interno de la unidad de reordenación de lista de imagen de referencia 970 para predicción intervisión según una realización de la presente invención.
Con referencia a la Figura 16, la unidad de reordenación de lista de imagen de referencia para predicción intervisión 970 incluye una unidad de comprobación de tipo de sector 642, una quinta unidad de obtención de información de 5 identificación 971, una quinta unidad de cambio de asignación de índice de referencia 972, una sexta unidad de obtención de información de identificación 973, y una sexta unidad de cambio de asignación de índice de referencia 974.
La unidad de comprobación de tipo de sector 642 comprueba el tipo de sector de un sector actual. Si es así, decide 10 a continuación si ha de ejecutar la reordenación de una lista de imagen de referencia 0 y/o una lista de imagen de referencia 1 conforme al tipo de sector. Los detalles de la unidad de comprobación de tipo de sector 642 pueden ser deducidos a partir de la Figura 10, los cuales han sido omitidos en la descripción que sigue.
Cada una de entre la quinta y la sexta unidades de obtención de información de identificación 971 y 973 obtiene 15 información de identificación que indica un método de asignación de índice de referencia. Y, cada una de entre la quinta y la sexta unidades de cambio de asignación de índice de referencia 972 y 974 cambia un índice de referencia asignado a cada imagen de referencia de la lista de imagen de referencia 0 y/o 1. En este caso, el índice de referencia puede significar un número de visión de una imagen de referencia solamente. Y, la información de identificación indicativa del método de asignación de índice de referencia puede ser información de banderola. Por 20 ejemplo, si la información de banderola es verdadera, se cambia una asignación de un número de visión. Si la información de banderola es falsa, se puede terminar un proceso de reordenación de un número de visión. Si la información de banderola es verdadera, cada una de entre la quinta y la sexta unidades de cambio de asignación de índice de referencia 972 y 974 puede obtener una diferencia de número de visión según la información de banderola. En ese caso, la diferencia de número de visión significa una diferencia entre un número de visión de una imagen 25 actual y un número de visión de una imagen pronosticada. Y, el número de visión de la imagen pronosticada puede significar un número de visión de una imagen de referencia asignada justamente antes. Entonces está capacitada para cambiar la asignación de número de visión usando la diferencia de número de visión. En ese caso, la diferencia de número de visión puede ser sumada/restada al/del número de visión de la imagen pronosticada en función de la información de identificación. 30
De ese modo, para gestionar la lista de imagen de referencia para predicción intervisión como una lista de imagen de referencia separada, es necesario definir de nuevo una estructura de sintaxis. Según una realización de los contenidos explicados en la Figura 15 y en la Figura 16, la sintaxis va a ser explicada con referencia a la Figura 17, la Figura 18 y la Figura 19, como sigue. 35
La Figura 17 y la Figura 18 son diagramas de sintaxis para reordenación de lista de imagen de referencia según una realización de la presente invención.
Con referencia a la Figura 17, se ha representado como sintaxis una operación de la unidad de reordenación de lista 40 de imagen de referencia para predicción temporal 910 mostrada en la Figura 15. En comparación con los bloques mostrados en la Figura 15, la unidad de comprobación de tipo de sector 642 corresponde a S1 y S6 y la cuarta unidad de obtención de información de identificación 940 corresponde a S7. Los bloques internos de la tercera unidad de cambio de asignación de índice de referencia 930 corresponden a S3, S4 y S5, respectivamente. Y, los bloques internos de la cuarta unidad de cambio de asignación de índice de referencia 950 corresponden a S8, S9 y 45 S10, respectivamente.
Con referencia a la Figura 18, las operaciones de la unidad de comprobación de tipo de NAL 960 y de la unidad de reordenación de lista de imagen de referencia intervisión 970 han sido representadas como sintaxis. En comparación con los bloques respectivos mostrados en la Figura 15 y en la Figura 16, la unidad de comprobación de tipo de NAL 50 960 corresponde a S11, la unidad de comprobación de tipo de sector 642 corresponde a S13 y S16, la quinta unidad de obtención de información de identificación 971 corresponde a S14, y la sexta unidad de obtención de información de identificación 973 corresponde a S17. La quinta unidad de cambio de asignación de índice de referencia 972 corresponde a S15 y la sexta unidad de cambio de asignación de índice de referencia 974 corresponde a S18.
55
La Figura 19 es un diagrama de sintaxis para reordenación de lista de imagen de referencia según otra realización de la presente invención.
Con referencia a la Figura 19, las operaciones de la unidad de comprobación de tipo de NAL 960 y de la unidad de reordenación de lista de imagen de referencia intervisión 970 han sido representadas como sintaxis. En comparación 60 con los bloques respectivos mostrados en la Figura 15 y en la Figura 16, la unidad de comprobación de tipo de NAL 960 corresponde a S21, la unidad de comprobación de tipo de sector 642 corresponde a S22 y S25, la quinta unidad de obtención de información de identificación 971 corresponde a S23, y la sexta unidad de obtención de información de identificación 973 corresponde a S26. La quinta unidad de cambio de asignación de índice de referencia 972 corresponde a S24 y la sexta unidad de cambio de asignación de índice de referencia 974 corresponde a S27. 65
Según se ha mencionado en la descripción que antecede, la lista de imagen de referencia para la predicción intervisión puede ser usada por la unidad interpredicción 700 y es utilizable para llevar a cabo también compensación de iluminación. La compensación de iluminación es aplicable en el transcurso de la realización de estimación de movimiento/compensación de movimiento. En caso de que una imagen actual utilice una imagen de referencia en una visión diferente, está capacitada para realizar compensación de iluminación de una manera más 5 eficiente usando la lista de imagen de referencia para la predicción intervisión. Las compensaciones de iluminación van a ser explicadas como sigue.
La Figura 20 es un diagrama para un proceso de obtención de un valor de diferencia de iluminación de un bloque actual. 10
Compensación de iluminación significa un proceso para descodificar una señal de video compensada en movimiento adaptativamente conforme al cambio de iluminación. Y, es aplicable a una estructura predictiva de una señal de video, por ejemplo, predicción intervisión, predicción intravisión, y similares.
15
Compensación de iluminación significa un proceso para descodificar una señal de video usando un residuo de diferencia de iluminación y un valor de predicción de diferencia de iluminación correspondiente a un bloque que va a ser descodificado. En este caso, el valor de predicción de diferencia de iluminación puede ser obtenido a partir de un bloque contiguo a un bloque actual. Un proceso para obtener un valor de predicción de diferencia de iluminación a partir del bloque contiguo puede ser decidido usando información de referencia para el bloque contiguo, y una 20 secuencia y dirección pueden ser tomadas en consideración en el transcurso de la búsqueda de bloques contiguos. El bloque contiguo significa un bloque ya descodificado y también significa un bloque descodificado por consideración de redundancia dentro de la misma imagen para una visión o un tiempo o una secuencia descodificada con la consideración de redundancia dentro de imágenes diferentes.
25
Al comparar similitudes entre un bloque actual y un bloque de referencia candidato, deberá ser tenida en cuenta la diferencia de iluminación entre los dos bloques. Con el fin de compensar la diferencia de iluminación, se ejecuta una nueva estimación/compensación de movimiento. Se puede encontrar una nueva SAD usando la fórmula 1.
30
En este caso, ‘Mcurr’ indica un valor de pixel medio de un bloque actual, y ‘Mref’ indica un valor de pixel medio de un bloque de referencia. ‘f(i,j) indica un valor de pixel de un bloque actual y ‘r(i+x, j+y) indica un valor de pixel de un bloque de referencia. Al llevar a cabo estimación de movimiento en base a la nueva SAD según la fórmula 2, se está en condiciones de obtener un valor de diferencia de pixel medio entre el bloque actual y el bloque de referencia. Y, el 35 valor de diferencia de pixel medio obtenido puede ser denominado como valor de diferencia de iluminación (IC_offset).
En caso de realizar estimación de movimiento al que se aplica compensación de iluminación, se genera un valor de diferencia de iluminación y un vector de movimiento. Y, la compensación de iluminación se ejecuta según la fórmula 40 3 usando el valor de diferencia de iluminación y el vector de movimiento.
En este caso, NewR(i,j) indica un valor de error de iluminación compensada (residuo) y (x’, y’) indica un vector de movimiento.
5
Un valor de diferencia de iluminación (Mcurr – Mref) podrá ser transferido a la unidad de descodificación. La unidad de descodificación lleva a cabo la compensación de iluminación de la siguiente manera:
10
En la fórmula 4, NewR”(i,j) indica un valor de error de iluminación compensada (residuo) reconstruido y f’(i,j) indica un valor de pixel de un bloque actual reconstruido.
Con el fin de reconstruir un bloque actual, se puede transferir un valor de diferencia de iluminación a la unidad de 15 descodificación. Y, el valor de diferencia de iluminación puede ser pronosticado a partir de la información de bloques contiguos. Con el fin de reducir más un número de bits para codificar el valor de diferencia de iluminación, está capacitado para enviar un valor de diferencia (RIC_offset) entre el valor de diferencia de iluminación del bloque actual (IC_offset) y el valor de diferencia de iluminación del bloque contiguo (predIC_offset) solamente. Esto se representa mediante la fórmula 5. 20
La Figura 21 es un diagrama de flujo de un proceso para realizar compensación de iluminación de un bloque actual.
25
Con referencia a la Figura 21, en primer lugar, se deduce un valor de diferencia de iluminación de un bloque contiguo que indica un valor de diferencia de pixel medio entre el bloque contiguo de un bloque actual y un bloque mencionado como bloque contiguo, a partir de una señal de video (S2110).
A continuación, se obtiene un valor de predicción de diferencia de iluminación para compensación de iluminación del 30 bloque actual usando el valor de diferencia de iluminación (S2120). Así, está capacitado para reconstruir un valor de diferencia de iluminación del bloque actual usando el valor de predicción de diferencia de iluminación obtenido.
Con la obtención del valor de predicción de diferencia de iluminación, está capacitado para usar varios métodos. Por ejemplo, antes de que se pronostique el valor de diferencia de iluminación del bloque actual a partir del valor de 35 diferencia de iluminación del bloque contiguo, se comprueba si un índice de referencia del bloque actual es igual al del bloque contiguo. A continuación se está en condiciones de decidir la clase de bloque contiguo o se usará un valor según el resultado de la comprobación. En otro ejemplo, con la obtención del valor de predicción de diferencia de iluminación, se puede usar la información de banderola (IC_flag) que indica si se debe ejecutar una compensación de iluminación del bloque actual. Y, la información de banderola para el bloque actual puede ser 40 pronosticada usando también la información de los bloques contiguos. En otro ejemplo, se está en condiciones de obtener el valor de predicción de diferencia de iluminación usando tanto el método de comprobación de índice de
referencia como el método de predicción de información de banderola. Éstos se explican en detalle con referencia a las Figuras 22 a 24 como sigue.
La Figura 22 es un diagrama de bloques de un proceso para obtener un valor de predicción de diferencia de iluminación de un bloque actual usando información para un bloque contiguo. 5
Haciendo referencia a la Figura 22, se puede usar información respecto a un bloque contiguo durante la obtención de un valor de predicción de diferencia de iluminación de un bloque actual. En la presente descripción, un bloque puede incluir un macrobloque o un submacrobloque. Por ejemplo, se puede predecir un valor de diferencia de iluminación del bloque actual usando un valor de diferencia de iluminación del bloque contiguo. Con anterioridad a 10 esto, se comprueba si un índice de referencia del bloque actual es igual al del bloque contiguo. De acuerdo con el resultado de la comprobación, se puede decidir a continuación la clase de bloque contiguo o el valor que podrá ser usado. En la Figura 22, ‘refIdxLX’ indica un índice de referencia de un bloque actual, ‘refIdxLXN’ indica un índice de referencia de un bloque N. En este caso, ‘N’ es una marca de un bloque contiguo al bloque actual e indica A, B o C. Y, ‘PredIC_offsetN’ indica un valor de diferencia de iluminación para compensación de iluminación de un bloque N 15 contiguo. Si no se tiene capacidad de usar un bloque C que esté situado en el extremo superior derecho del bloque actual, se puede usar un bloque D en vez del bloque C. En particular, la información para el bloque D es utilizable como información para el bloque C. Si no se puede usar ambos bloques, el bloque B y el bloque C, se puede usar en cambio un bloque A. En especial, se puede usar la información para el bloque A como información para el bloque B o para el bloque C. 20
En otro ejemplo, con la obtención del valor de predicción de diferencia de iluminación, se puede usar información de banderola (IC_flag) que indique si se ha de ejecutar una compensación de iluminación del bloque actual. Alternativamente, se puede usar tanto el método de obtención de índice de referencia como el método de predicción de información de banderola en la obtención del valor de predicción de diferencia de iluminación. En este caso, si la 25 información de banderola para el bloque contiguo indica que no se ha ejecutado la compensación de iluminación, es decir IC_faIg==0, el valor de diferencia de iluminación ‘PredIC_offsetN’ del bloque contiguo se establece en 0.
La Figura 23 es un diagrama de flujo de un proceso para llevar a cabo compensación de iluminación usando información para un bloque contiguo según una realización de la presente invención. 30
Con referencia a la Figura 23, la unidad de descodificación extrae un valor de pixel medio de un bloque de referencia, un índice de referencia de un bloque actual, un índice de referencia del bloque de referencia, y similares, a partir de una señal de video, y a continuación está capacitada para obtener un valor de predicción de diferencia de iluminación del bloque actual usando la información extraída. La unidad de descodificación obtiene un valor de 35 diferencia (residuo de diferencia de iluminación) entre un valor de diferencia de iluminación del bloque actual y el valor de predicción de diferencia de iluminación, y a continuación puede reconstruir un valor de diferencia de iluminación del bloque actual usando el residuo de diferencia de iluminación y el valor de predicción de diferencia de iluminación obtenidos. En este caso, se puede usar información para un bloque contiguo para obtener el valor de predicción de diferencia de iluminación del bloque actual. Por ejemplo, se puede predecir un valor de diferencia de 40 iluminación del bloque actual usando el valor de diferencia de iluminación del bloque contiguo. Con anterioridad a esto, se comprueba si un índice de referencia del bloque actual es igual al del bloque contiguo. Según sea el resultado de la comprobación, se puede entonces decidir la clase de bloque contiguo o el valor que se podrá usar.
En particular, un valor de diferencia de iluminación de un bloque contiguo que indica un valor de diferencia de pixel 45 medio entre el bloque contiguo de un bloque actual y un bloque mencionado como bloque contiguo, se deduce a partir de una señal de video (S2310).
Posteriormente, se comprueba si un índice de referencia del bloque actual es igual a un índice de referencia de uno de la pluralidad de bloques contiguos (S2320). 50
Como resultado de la etapa de comprobación S2320, si existe al menos un bloque contiguo que tenga el mismo índice de referencia que el bloque actual, se comprueba si existe o no un bloque contiguo correspondiente (S2325).
Como resultado de la etapa de comprobación S2325, si existe solamente un bloque contiguo que tenga el mismo 55 índice de referencia que el bloque actual, se asigna un valor de diferencia de iluminación del bloque contiguo que tiene el mismo índice de referencia que el bloque actual a un valor de predicción de diferencia de iluminación del bloque actual (S2330). En particular, éste es ‘PredIC_offset = PredIC_offsetN’.
Si el bloque contiguo que tiene el mismo índice de referencia que el del bloque actual deja de existir como resultado 60 de la etapa de comprobación S2320 o si existen al menos dos bloques contiguos que tengan el mismo índice de referencia que el del bloque actual como resultado de la etapa de comprobación S2325, se asigna una media de valores de diferencia de iluminación (PredIC_offsetN, N = A, B o C) de los bloques contiguos a un valor de predicción de diferencia de iluminación del bloque actual (S650). En particular, éste es ‘PredIC_offset = Media(PredIC_offsetA, PredIC_offsetB, PredIC_offsetC). 65
La Figura 24 es un diagrama de flujo de un proceso para realizar compensación de iluminación usando información para un bloque contiguo.
Con referencia a la Figura 24, una unidad de descodificación tiene que reconstruir un valor de diferencia de iluminación de un bloque actual para llevar a cabo compensación de iluminación. En este caso, se puede usar 5 información para un bloque contiguo para obtener un valor de predicción de diferencia de iluminación del bloque actual. Por ejemplo, se puede pronosticar un valor de diferencia de iluminación del bloque actual usando el valor de diferencia de iluminación del bloque contiguo. Con anterioridad a esto, se comprueba si un índice de referencia del bloque actual es igual al del bloque contiguo. Según sea el resultado de la comprobación, se puede decidir a continuación la clase de bloque contiguo o el valor que se podrá usar. 10
En particular, se deduce un valor de diferencia de iluminación de un bloque contiguo que indica un valor medio de diferencia de pixel entre el bloque contiguo de un bloque actual y un bloque mencionado como bloque contiguo, a partir de una señal de video (S2410).
15
A continuación, se comprueba si un índice de referencia del bloque actual es igual a un índice de referencia de uno de una pluralidad de bloques contiguos (S2420).
Como resultado de la etapa de comprobación S720, si existe al menos un bloque contiguo que tenga el mismo índice de referencia que el del bloque actual, se comprueba si existe o no un bloque contiguo correspondiente 20 (S2430).
Como resultado de la etapa de comprobación S2430, si existe solamente un bloque contiguo que tenga el mismo índice de referencia que el del bloque actual, se asigna un valor de diferencia de iluminación del bloque contiguo que tenga el mismo índice de referencia que el del bloque actual a un valor de predicción de diferencia de iluminación del 25 bloque actual (S2440). En particular, éste es ‘PredIC_offset = PredIC_offsetN’.
Si el bloque contiguo que tiene el mismo índice de referencia que el bloque actual deja de existir como resultado de la etapa de comprobación S2420, el valor de predicción de diferencia de iluminación del bloque actual se establece en 0 (etapa S2460). En particular, éste es ‘PredIC_offset = 0’. 30
Si existen al menos dos bloques contiguos que tengan el mismo índice de referencia que el del bloque actual como resultado de la etapa de comprobación S2430, el bloque contiguo que tiene un índice de referencia diferente del bloque actual se establece en 0 y se asigna la media de valores de diferencia de iluminación de los bloques contiguos, incluyendo el valor establecido en 0, al valor de predicción de diferencia de iluminación del bloque actual 35 (S2450). En particular, éste es ‘PredIC_offset = Media(PredIC_offsetA, PredIC_offsetB, PredIC_offsetC). Más aún, en caso de que exista el bloque contiguo que tiene el índice de referencia diferente del bloque actual, el valor ‘0’ puede estar incluido en PredIC_offsetA, PredIC_offsetB o PredIC_offsetC.
Mientras tanto, la información de visión para identificar una visión de una imagen y una lista de imagen de referencia 40 para predicción intervisión son aplicables a la sintetización de una imagen en una visión virtual. En un proceso para sintetizar una imagen en una visión virtual, se puede mencionar una imagen en una visión diferente. Así, si se usa la información de visión y la lista de imagen de referencia para predicción intervisión, se puede sintetizar una imagen en una visión virtual de una manera más eficiente. En la descripción que sigue, se explican métodos de sintetización de una imagen en una visión virtual conforme a realizaciones de la presente invención. 45
La Figura 25 es un diagrama de bloques de un proceso para predecir una imagen actual usando una imagen en una visión virtual.
Con referencia a la Figura 25, en la realización de predicción intervisión en codificación de video multivisión, se 50 puede predecir una imagen actual usando una imagen de una visión diferente de la visión actual como imagen de referencia. Más aún, una imagen en una visión virtual se obtiene usando imágenes en una visión contigua a la de una imagen actual y la imagen actual es pronosticada a continuación usando la imagen obtenida en la visión virtual. Si es así, la predicción puede ser realizada de una manera más precisa. En ese caso, se puede usar un identificador de visión que indique una visión de una imagen para utilizar imágenes de visiones contiguas o imágenes de una 55 visión específica. En caso de que se genere la visión virtual, debe existir sintaxis específica para indicar si se ha de generar la visión virtual. Si la sintaxis indica que se debe generar la visión virtual, se puede generar la visión virtual usando el identificador de visión. Las imágenes de la visión virtual obtenidas mediante la unidad de predicción de síntesis de visión 740, son utilizables como imágenes de referencia. En ese caso, el identificador de visión puede ser asignado a las imágenes de la visión virtual. En un proceso para llevar a cabo predicción de vector de movimiento 60 para transferir un vector de movimiento, los bloques contiguos de un bloque actual pueden referirse a las imágenes obtenidas por la unidad de predicción de síntesis de visión 740. En ese caso, para usar la imagen de la visión virtual como imagen de referencia, se puede utilizar un identificador de visión que indique una visión de una imagen.
La Figura 26 es un diagrama de flujo de un proceso para sintetización de una imagen de una visión virtual durante la 65 realización de predicción intervisión en MVC.
Con referencia a la Figura 26, una imagen de una visión virtual se sintetiza usando imágenes de una visión contigua a la de una imagen actual. La imagen actual es pronosticada a continuación usando la imagen sintetizada en la visión virtual. Si es así, se puede conseguir una predicción más precisa. En caso de que se sintetice una imagen de una visión virtual, existe sintaxis específica que indica si se ha de ejecutar una predicción de una imagen actual 5 sintetizando la imagen en la visión virtual. Si se decide ejecutar la predicción de la imagen actual, es posible una codificación más eficiente. La sintaxis específica se define como un identificador de predicción de síntesis intervisión, lo que va a ser explicado como sigue. Por ejemplo, se sintetiza una imagen en una visión virtual mediante una capa de sector para definir ‘view_synthesize_pred_flag’ que indica si se ha de ejecutar una predicción de una imagen actual. Y, se sintetiza una imagen en una visión virtual mediante una capa de macrobloque para definir 10 ‘view_syn_pred_flag’ que indica si se ha de ejecutar una predicción de una imagen actual. Si ‘view_synthesize_pred_flag = 1’, un sector actual sintetiza un sector en una visión virtual usando un sector de una visión contigua a la del sector actual. Se puede entonces pronosticar el sector actual usando el sector sintetizado. Si ‘view_synthesize_pred_flag = 0’, no se sintetiza ningún sector en una visión virtual. De igual modo, si ‘view_syn_pred_flag = 1’, un macrobloque actual sintetiza un macrobloque en una visión virtual usando un 15 macrobloque de una visión contigua a la del macrobloque actual. Se puede entonces predecir el macrobloque actual usando el macrobloque sintetizado. Si ‘view_syn_pred_flag = 0’, no se sintetiza ningún macrobloque en ninguna visión virtual. Con ello, en la presente invención, el identificador de predicción de síntesis de intervisión que indica si se va a obtener una imagen en una visión virtual, se deduce a partir de una señal de video. Se puede entonces obtener la imagen en la visión virtual usando el identificador de predicción de síntesis de intervisión. 20
Según se ha mencionado en la descripción que antecede, se puede usar información de visión para identificar una visión de una imagen y una lista de imagen de referencia para predicción intervisión por parte de la unidad de interpredicción 700. Y, éstas pueden ser usadas también para la realización de predicción ponderada. La predicción ponderada es aplicable a un proceso para llevar a cabo compensación de movimiento. Al hacer esto, si una imagen 25 actual utiliza una imagen de referencia de una visión diferente, está capacitada para realizar la predicción ponderada de una manera más eficiente usando la información de visión y la lista de imagen de referencia para la predicción intervisión. Se explican en lo que sigue métodos de predicción ponderada según realizaciones de la presente invención.
30
La Figura 27 es un diagrama de flujo de un método de ejecución de predicción ponderada según un tipo de sector en codificación de señal de video.
Con referencia a la Figura 27, la predicción ponderada es un método de escalado de una muestra de datos de predicción compensada de movimiento dentro de un macrobloque de sector P o de sector B. Un método de 35 predicción ponderada incluye un modo explícito para llevar a cabo predicción ponderada para una imagen actual usando una información de coeficiente ponderado obtenida a partir de la información para imágenes de referencia y un modo implícito para llevar a cabo predicción ponderada para una imagen actual usando una información de coeficiente ponderado obtenida a partir de la información de distancia entre la imagen actual y una de las imágenes de referencia. El método de predicción ponderada puede ser aplicado de forma diferente según el tipo de sector de 40 un macrobloque actual. Por ejemplo, en el modo explícito, la información de coeficiente ponderado puede variar conforme a si un macrobloque actual, sobre el que se realiza la predicción ponderada, es un macrobloque de un sector P o un macrobloque de un sector B. Y, el coeficiente ponderado del modo explícito puede ser decidido mediante un codificador y puede ser transferido al estar incluido en una cabecera de sector. Por otra parte, en el modo implícito, se puede obtener un coeficiente ponderado en base a una posición relativamente temporal de List0 y 45 List1. Por ejemplo, si una imagen de referencia está temporalmente cerca de una imagen actual, resulta aplicable un coeficiente ponderado grande. Si una imagen de referencia está temporalmente distante de una imagen actual, resulta aplicable un coeficiente ponderado pequeño.
En primer lugar, un tipo de sector de un macrobloque para aplicar predicción ponderada al mismo se deduce a partir 50 de una señal de video (S2710).
Posteriormente, la predicción ponderada puede ser llevada a cabo sobre un macrobloque de acuerdo con el tipo de sector deducido (S2720).
55
En ese caso, el tipo de sector puede incluir un macrobloque al que se aplica predicción intervisión. La predicción intervisión significa que una imagen actual es pronosticada usando información para una imagen en una visión diferente a la imagen actual. Por ejemplo, el tipo de sector puede incluir un macrobloque al que se aplica predicción temporal para llevar a cabo la predicción usando información para una imagen de la misma visión que la imagen actual, un macrobloque al que se aplica la predicción intervisión, y un macrobloque al que se aplican ambas 60 predicciones, predicción temporal y predicción intervisión. Y, el tipo de sector puede incluir un macrobloque al que se aplica solamente predicción temporal, un macrobloque al que se aplica solamente predicción intervisión, o un macrobloque al que se aplican ambas predicciones, predicción temporal y predicción intervisión. Además, el tipo de sector puede incluir dos de los tipos de macrobloque o la totalidad de los tres tipos de macrobloque. Esto va a ser explicado en detalle con referencia a la Figura 28 más adelante. De ese modo, en caso de que se extraiga un tipo de 65 sector que incluya una predicción intervisión aplicada a un macrobloque a partir de una señal de video, se realiza
predicción ponderada usando información para una imagen en una visión diferente de una imagen actual. Al hacer esto, se puede utilizar un identificador de visión para identificar una visión de una imagen para el uso de información para una imagen en una visión diferente.
La Figura 28 es un diagrama de tipos de macrobloque admisibles en un tipo de sector en codificación de señal de 5 video según una realización de la presente invención.
Con referencia a la Figura 28, si se define un tipo de sector P mediante predicción intervisión como VP (View_P), un intra-macrobloque I, un macrobloque P pronosticado a partir de una imagen en una visión actual, o un macrobloque VP pronosticado a partir de una imagen en una visión diferente es admisible para el tipo de sector P mediante 10 predicción intervisión (2810).
En caso de que un tipo de sector B se defina mediante predicción intervisión como VB (View_B), es admisible un macrobloque P o B pronosticado a partir de al menos una imagen en una visión actual o un macrobloque VP o VB pronosticado a partir de al menos una imagen en una visión diferente (2820). 15
En caso de que un tipo de sector, sobre el que se realiza predicción usando predicción temporal, predicción intervisión o ambas de entre predicción temporal y predicción intervisión, se defina como “Mixto”, un intra-macrobloque I, un macrobloque P o B pronosticado a partir de al menos una imagen en una visión actual, un macrobloque VP o VB pronosticado a partir de al menos una imagen en una visión diferente, o un macrobloque 20 “Mixto” pronosticado usando tanto la imagen de la visión actual como la imagen de la visión diferente resulta admisible para el tipo de sector mixto (2830). En este caso, con el fin de usar la imagen en la visión diferente, también se puede usar un identificador de visión para identificar una visión de una imagen.
La Figura 29 y la Figura 30 son diagramas de sintaxis para la ejecución de predicción ponderada según un tipo de 25 sector recién definido.
Según se ha mencionado en la descripción de la Figura 28 que antecede, si se decide el tipo de sector como VP, VB o Mixto, la sintaxis para realizar la predicción ponderada convencional (por ejemplo, H.264) puede ser modificada en la Figura 29 o la Figura 30. 30
Por ejemplo, si un tipo de sector es un sector P por predicción temporal, se añade una parte ‘if(slice_type ! = VP ǁ slice_type ! = VB)’ (2910).
Si un tipo de sector es un sector B por predicción temporal, la condición if puede ser modificada a ‘if (slice_type == B 35 ǁ slice_type == Mixto)’ (2920).
Definiendo de nuevo un tipo de sector VP y un tipo de sector VB, se puede añadir de nuevo un formato similar a la Figura 29 (2930, 2940). En ese caso, puesto que se añade información para una visión, los elementos de sintaxis incluyen partes ‘view”, respectivamente. Por ejemplo, existe ‘Iuma_log2_view_weight_denom, 40 chroma_log2_weight_denom’.
La Figura 31 es un diagrama de flujo de un método de ejecución de predicción ponderada que usa información de banderola indicativa de si se ha de ejecutar predicción ponderada intervisión en codificación de señal de video.
45
Con referencia a la Figura 31, en codificación de señal de video a la que se aplica la presente invención, en caso de usar información de banderola indicativa de si se debe ejecutar predicción ponderada, se habilita una codificación más eficiente.
La información de banderola puede ser definida en base a un tipo de sector. Por ejemplo, puede existir información 50 de banderola que indique si debe aplicarse predicción ponderada a un sector P o a un sector SP, o información de banderola que indique si debe aplicarse predicción ponderada a un sector B.
En particular, la información de banderola puede definirse como ‘weighted_pred_flag’ o ‘weighted_bipred_idc’. Si ‘weighted_pred_flag = 0’, ello indica que la predicción ponderada no se aplica al sector P ni al sector SP. Si 55 ‘weighted_red_flag = 1’, ello indica que la predicción ponderada se aplica al sector P y al sector SP. Si ‘weighted_bipred_idc = 0’, ello indica que se aplica predicción ponderada por defecto al sector B. Si ‘weighted_bipred_idc = 1’, ello indica que se aplica predicción ponderada explícita al sector B. Si ‘weighted_bipred_idc = 2’, ello indica que se aplica predicción ponderada implícita al sector B.
60
En codificación de video multivisión, la información de banderola indicativa de si debe ejecutarse predicción ponderada usando información para una imagen intervisión puede ser definida en base a un tipo de sector.
En primer lugar, un tipo de sector y una información de banderola indicativos de si se ha de ejecutar predicción ponderada intervisión, se deducen a partir de una señal de video (S3110, S3120). En ese caso, el tipo de sector 65 puede incluir un macrobloque al que se aplica predicción temporal para llevar a cabo la predicción usando
información para una imagen en una misma visión que la de una imagen actual, y un macrobloque al que se aplica predicción intervisión para realizar predicción usando información para una imagen en una visión diferente de la imagen actual.
Entonces se puede decidir un modo de predicción ponderada basado en el tipo de sector deducido y en la 5 información de banderola deducida (S3130).
Posteriormente, se puede realizar predicción ponderada según el modo de predicción ponderada decidido (S3140). En ese caso, la información de banderola puede incluir información de banderola indicativa de si se va a ejecutar predicción ponderada usando información para una imagen en una visión diferente de la imagen actual así como 10 también ‘weighted_pred_flag’ y ‘weighted_bipred_flag’ mencionados anteriormente. Esto va a ser explicado en detalle con referencia a la Figura 32 que sigue.
Con ello, en caso de que un tipo de sector de un macrobloque actual sea un tipo de sector que incluya un macrobloque al que se aplica predicción intervisión, se permite una codificación más eficiente que en el caso de usar 15 información de banderola indicativa de si se va a ejecutar predicción ponderada usando información para una imagen en una visión diferente.
La Figura 32 es un diagrama para explicar un método de predicción ponderada conforme a información de banderola indicativa de si se ha de ejecutar predicción ponderada usando información para una imagen en una visión diferente 20 de una imagen actual.
Con referencia a la Figura 32, por ejemplo, la información de banderola que indica si se va a ejecutar predicción ponderada usando información para una imagen en una visión diferente de una imagen actual, puede ser definida como ‘view_weighted_pred_flag’ o como ‘view_weighted_bipred_flag’. 25
Si ‘view_weighted_pred_flag = 0’, ello indica que la predicción ponderada no se aplica a un sector VP. Si ‘view_weighted_pred_flag = 1’, se aplica predicción ponderada explícita a un sector VP. Si ‘view_weighted_bipred_flag = 0’, ello indica que se aplica predicción ponderada por defecto a un sector VB. Si ‘view_weighted_bipred_falg = 1’, ello indica que se aplica predicción ponderada explícita a un sector VB. Si 30 ‘view_weighted_bipred_flag = 2’, ello indica que se aplica predicción ponderada por defecto a un sector VB.
En caso de que se aplique predicción ponderada implícita a un sector VB, se puede obtener un coeficiente de peso a partir de una distancia relativa entre una visión actual y una visión diferente. En caso de que se aplique predicción ponderada implícita a un sector VB, la predicción ponderada puede llevarse a cabo usando un identificador de visión 35 que identifique una visión de una imagen o un conteo de orden de imagen (POC) dictado por consideración de discriminación de cada visión.
La información de banderola que antecede puede estar incluida en un conjunto de parámetros de imagen (PPS). En ese caso, el conjunto de parámetros de imagen (PPS) significa información de cabecera que indica un modo de 40 codificación de todas las imágenes (por ejemplo, modo de codificación de entropía, valor inicial de parámetro de cuantificación por unidad de imagen, etc.). Más aún, el conjunto de parámetros de imagen no está unido a todas las imágenes. Si no existe ningún conjunto de parámetros de imagen, se usa como información de cabecera un conjunto de parámetros de imagen existente justamente antes.
45
La Figura 33 es un diagrama de sintaxis para ejecutar predicción ponderada conforme a una información de banderola recién definida.
Con referencia a la Figura 33, en codificación de video multivisión a la que se aplica la presente invención, en caso de que se defina un tipo de sector que incluye un macrobloque aplicado a predicción intervisión y una información de 50 banderola indicativa de si debe ser ejecutada predicción ponderada usando información para una imagen en una visión diferente de la imagen actual, es necesario decidir la clase de predicción ponderada que va a ser ejecutada según el tipo de sector.
Por ejemplo, si un tipo de sector, según se muestra en la Figura 33, deducido a partir de una señal de video es un 55 sector P o un sector SP, se puede ejecutar predicción ponderada si ‘weighted_pred_flag = 1’. En caso de que un tipo de sector sea un sector B, se puede ejecutar predicción ponderada si ‘weighted_bipred_flag = 1’. En caso de que el tipo de sector sea un sector VP, se puede ejecutar predicción ponderada si ‘weighted_bipred_flag = 1’. En caso de que un tipo de sector sea un sector VB, se puede ejecutar predicción ponderada si ‘view_pred_flag = 1’.
60
La Figura 34 es un diagrama de flujo de un método de ejecución de predicción ponderada conforme a una unidad NAL (capa de abstracción de red).
Con referencia a la Figura 34, en primer lugar, se deduce un tipo de unidad NAL (nal_unit_type) a partir de una señal de video (S910). En este caso, el tipo de unidad NAL significa un identificador que indica un tipo de unidad NAL. Por 65
ejemplo, si ‘nal_unit_type = 5’, una unidad NAL es un sector de una imagen de IDR. Y, la imagen de IDR (refresco de descodificación instantáneo) significa una imagen de cabecera de una secuencia de video.
Posteriormente, se comprueba si el tipo de unidad NAL deducido es un tipo de unidad NAL para codificación de video multivisión (S3420). 5
Si el tipo de unidad NAL es el tipo de unidad NAL para codificación de video multivisión, se lleva a cabo predicción ponderada usando información para una imagen en una visión diferente de la imagen actual (S3430). El tipo de unidad NAL puede ser un tipo de unidad NAL aplicable tanto a codificación de video escalable como a codificación de video multivisión, o un tipo de unidad NAL para codificación de video multivisión solamente. De ese modo, si el 10 tipo de unidad NAL es para codificación de video multivisión, la predicción ponderada debe ser ejecutada usando la información para la imagen en la visión diferente de la imagen actual. De ese modo, es necesario definir una nueva sintaxis. Esto va a ser explicado en detalle con referencia a la Figura 35 y a la Figura 36, como sigue.
La Figura 35 y la Figura 36 son diagramas de sintaxis para ejecución de predicción ponderada en caso de que un 15 tipo de unidad NAL sea para codificación de video multivisión.
En primer lugar, si un tipo de unidad NAL es un tipo de unidad NAL para codificación de video multivisión, la sintaxis para ejecución de predicción ponderada convencional (por ejemplo, H.264) puede ser modificada en la sintaxis mostrada en la Figura 35 o la Figura 36. Por ejemplo, un número de referencia 3510 indica una parte de sintaxis 20 para realizar predicción ponderada convencional y un número de referencia 3520 indica una parte de sintaxis para realizar predicción ponderada en codificación de video multivisión. De ese modo, la predicción ponderada se realiza mediante la parte de sintaxis 3520 solamente si el tipo de unidad NAL es el tipo de unidad NAL para codificación de video multivisión. En ese caso, puesto que se añade la información para una visión, cada elemento de sintaxis incluye una porción ‘view’. Por ejemplo, existe ‘Iuma_view_log2_weight_denom, chroma_view_log2_weight_denom’, 25 o similares. Y, un número de referencia 3530 en la Figura 36 indica una parte de sintaxis para realizar predicción ponderada convencional y un número de referencia 3540 en la Figura 36 indica una parte de sintaxis para realizar predicción ponderada en codificación de video multivisión. De ese modo, la predicción ponderada se realiza por medio de la parte de sintaxis 3540 solamente si el tipo de unidad NAL es el tipo de unidad NAL para codificación de video multivisión. Asimismo, puesto que se añade información para una visión, cada elemento de sintaxis incluye 30 una porción ‘view’. Por ejemplo, existe ‘Iuma_view_weight_I1_flag, chroma_view_weight_I1_flag’, o similares. De ese modo, si se define un tipo de unidad NAL para codificación de video multivisión, se habilita codificación más eficiente en una manera de realizar predicción ponderada usando información para una imagen en una visión diferente de una imagen actual.
35
La Figura 37 es un diagrama de bloques de un aparato para descodificación de una señal de video según una realización de la presente invención.
Con referencia a la Figura 37, un aparato para descodificar una señal de video según la presente invención incluye una unidad de extracción de tipo de sector 3710, una unidad de extracción de modo de predicción 3720 y una 40 unidad de descodificación 3730.
La Figura 38 es un diagrama de flujo de un método de descodificación de una señal de video en el aparato de descodificación mostrado en la Figura 37 según una realización de la presente invención.
45
Con referencia a la Figura 38, un método de descodificación de una señal de video según una realización de la presente invención incluye una etapa S3810 de deducción de un tipo de sector y un modo de predicción de macrobloque, y una etapa S3820 de descodificación de un macrobloque actual según el tipo de sector y/o el modo de predicción de macrobloque.
50
En primer lugar, se explica un esquema de predicción utilizado por una realización de la presente invención, para ayudar a la comprensión de la presente invención. El esquema de predicción puede ser clasificado en predicción intravisión (por ejemplo, predicción entre imágenes de una misma visión) y predicción intervisión (por ejemplo, predicción entre imágenes de diferentes visiones). Y, la predicción intravisión puede ser el mismo esquema de predicción que una predicción temporal general. 55
Según la presente invención, la unidad de deducción de tipo de sector 3710 deduce un tipo de sector de un sector que incluye un macrobloque actual (S3810).
En ese caso, se puede proporcionar un campo de tipo de sector (slice_type) que indica un tipo de sector para 60 predicción intravisión y/o un campo de tipo de sector (view_slice_type) que indica un tipo de sector para predicción intervisión, como parte de la sintaxis de señal de video para proporcionar el tipo de sector. Esto va a ser descrito con mayor detalle en lo que sigue con respecto a las Figuras 6(a) y 6(b). Y, cada uno de entre el tipo de sector (slice_type) para predicción intravisión y el tipo de sector (view_slice_type) para predicción intervisión puede indicar, por ejemplo, un tipo de sector I (I_SLICE), un tipo de sector P (P_SLICE) o un tipo de sector B (B_SLICE). 65
Por ejemplo, si ‘slice_type’ de un sector específico es un sector B y ‘view_slice_type’ es un sector P, se descodifica un macrobloque en el sector específico mediante un esquema de codificación de sector B (B_SLICE) en una dirección intravisión (es decir, una dirección temporal) y/o mediante un esquema de codificación de sector P (P_SLICE) en una dirección de visión.
5
Mientras tanto, el tipo de sector está capacitado para incluir un tipo de sector P (VP) para predicción intervisión, un tipo de sector B (VB) para predicción intervisión y un tipo de sector mixto (Mixto) mediante predicción resultante de mezclar ambos tipos de predicción. En particular, el tipo de sector mixto proporciona predicción usando una combinación de predicción intravisión e intervisión.
10
En este caso, un tipo de sector P para predicción intervisión significa un caso en que cada macrobloque o partición de macrobloque incluido en un sector es pronosticado a partir de una imagen de una visión actual o de una imagen de una visión diferente. Un tipo de sector B para predicción intervisión significa un caso en que cada macrobloque o partición de macrobloque incluido en un sector es pronosticado a partir de ‘una o dos imágenes de una visión actual’ o de ‘una imagen de una visión diferente o dos imágenes de visiones diferentes, respectivamente’. Y, un tipo de 15 sector mixto para predicción resultante de mezclar ambas predicciones significa un caso en que cada macrobloque o partición de macrobloque incluido en un sector es pronosticado a partir de ‘una o dos imágenes de una visión actual’, una imagen de una visión diferente o dos imágenes de visiones diferentes, respectivamente’, o ‘una o dos imágenes de una visión actual y una imagen de una visión diferente o dos imágenes de visiones diferentes, respectivamente’.
20
En otras palabras, una imagen mencionada y un tipo de macrobloque permitido difieren en cada tipo de sector, lo que va a ser explicado en detalle con referencia a la Figura 43 y a la Figura 44, más adelante.
Y, la sintaxis entre las realizaciones mencionadas anteriormente del tipo de sector va a ser explicada en detalle con referencia a la Figura 40 y a la Figura 41, más adelante. 25
La unidad de deducción de modo de predicción 3720 puede deducir un indicador de modo de predicción de macrobloque que indique si el macrobloque actual es un macrobloque por predicción intravisión, un macrobloque por predicción intervisión, o un macrobloque por predicción resultante de mezclar ambos tipos de predicción (S3820). Para ello, la presente invención define un modo de predicción de macrobloque (mb_pred_mode). Una realización de 30 los modos de predicción de macrobloque va a ser explicada en detalle con referencia a las Figuras 39, 40 y 41, más adelante.
La unidad de descodificación 3730 descodifica el macrobloque actual según el tipo de sector y/o del modo de predicción de macrobloque para recibir/producir el macrobloque actual (S3820). En este caso, el macrobloque actual 35 puede ser descodificado según sea el tipo de macrobloque del macrobloque actual decidido a partir de la información de tipo de macrobloque. Y, el tipo de macrobloque puede ser decidido conforme al modo de predicción de macrobloque y al tipo de sector.
En caso de que el modo de predicción de macrobloque sea un modo para predicción intravisión, el tipo de 40 macrobloque se decide conforme a un tipo de sector para predicción intravisión y el macrobloque actual es descodificado a continuación por predicción intravisión según sea el tipo de macrobloque decidido.
En caso de que el modo de predicción de macrobloque sea un modo para predicción intervisión, el tipo de macrobloque se decide según un tipo de sector para predicción intervisión y el macrobloque actual es descodificado 45 a continuación por predicción intervisión conforme al tipo de macrobloque decidido.
En caso de que el modo de predicción de macrobloque sea un modo para predicción resultante de mezclar ambas predicciones, el tipo de macrobloque se decide según un tipo de sector para predicción intravisión y un tipo de sector para predicción intervisión, y el macrobloque actual es descodificado a continuación mediante la predicción 50 resultante de mezclar ambas predicciones conforme a cada uno de los tipos de macrobloque decididos.
En este caso, el tipo de macrobloque depende de un modo de predicción de macrobloque y de un tipo de sector. En particular, un esquema de predicción que va a ser usado para un tipo de macrobloque, puede ser determinado a partir de un modo de predicción de macrobloque, y a continuación se decide un tipo de macrobloque a partir de la 55 información del tipo de macrobloque mediante un tipo de sector según el esquema de predicción. En particular, se seleccionada uno o ambos de entre slice_type y view_slice_type deducidos, en base al modo de predicción de macrobloque.
Por ejemplo, si un modo de predicción de macrobloque es un modo para predicción intervisión, se puede decidir un 60 tipo de macrobloque a partir de una tabla de macrobloque de tipos de sector (I, P, B) correspondiente a un tipo de sector (view_slice_type) para predicción intervisión. La relación entre un modo de predicción de macrobloque y un tipo de macrobloque va a ser explicada en detalle con referencia a las Figuras 39, 40 y 41, más adelante.
La Figura 39 es un diagrama de modos de predicción de macrobloque según ejemplos de realización de la presente 65 invención.
En la Figura 39(a), se muestra una tabla correspondiente a una realización de modos de predicción de macrobloque (mb_pred_mode) según la presente invención.
En caso de que se use predicción intravisión, es decir, predicción temporal para un macrobloque solamente, se 5 asigna ‘0’ a un valor del ‘mb_pred_mode’. En caso de que se use predicción intervisión para un macrobloque solamente, se asigna ‘1’ a un valor del ‘mb_pred_mode’. En caso de que se usen ambas predicciones temporal e intervisión para un macrobloque, se asigna ‘2’ a un valor del ‘mb_pred_mode’.
En este caso, si un valor del ‘mb_pred_mode’ es 1, es decir, si el ‘mb_pred_mode indica predicción intervisión, la 10 dirección de visión List0 (ViewList0) o la dirección de visión List1 (ViewList1) se define como una lista de imagen de referencia para la predicción intervisión.
En la Figura 39(b), se ha mostrado la relación entre un modo de predicción de macrobloque y un tipo de macrobloque según otra realización. 15
Si un valor de ‘mb_pred_mode’ es ‘0’, se usa solamente predicción temporal. Y, se decide un tipo de macrobloque según un tipo de sector (slice_type) para predicción intravisión.
Si un valor de ‘mb_pred_mode’ es ‘1’, se usa solamente predicción intervisión. Y, se decide un tipo de macrobloque 20 según un tipo de sector (view_slice_type) para predicción intervisión.
Si un valor de ‘mb_pred_mode’ es ‘2’, se usa predicción mixta de ambas predicciones temporal e intervisión. Y, se deciden dos tipos de macrobloque según un tipo de sector (slice_type) para predicción intravisión y un tipo de sector (view_slice_type) para predicción intervisión. 25
En base al modo de predicción de macrobloque, se proporciona el tipo de macrobloque en base al tipo de sector según se muestra en las tablas 1-3 que siguen. [Insertar tablas 7-12 - 7-14 en N6540 como tablas 1-3 aquí].
En otras palabras, en esta realización, se decide un esquema de predicción usado para un macrobloque y un tipo de 30 sector al que se ha hecho referencia mediante un modo de predicción de macrobloque. Y, se decide un tipo de macrobloque según el tipo de sector.
La Figura 40 y la Figura 41 son diagramas de ejemplos de realización de la sintaxis de una porción de la señal de video recibida por el aparato para descodificar la señal de video. Según se muestra, la sintaxis tiene información de 35 tipo de sector y de modo de predicción de macrobloque según una realización de la presente invención.
En la Figura 40, se muestra un ejemplo de sintaxis. En la sintaxis, el campo ‘slice_type’ y el campo ‘view_slice_type’ proporcionan tipos de sector, y el campo ‘mb_pred_mode’ proporciona un modo de predicción de macrobloque.
40
Según la presente invención, el campo de ‘slice_type’ proporciona un tipo de sector para predicción intravisión, y el campo de ‘view_slice_type’ proporciona un tipo de sector para predicción intervisión. Cada tipo de sector puede resultar un tipo de sector I, un tipo de sector P o un tipo de sector B. Si el valor de ‘mb_pred_mode’ es ‘0’ o ‘1’, se decide un tipo de macrobloque. Más aún, en caso de que el valor del ‘mb_pred_mode’ sea ‘2’, se puede apreciar que se decide además otro tipo (o dos tipos) de macrobloque. En otras palabras, la sintaxis mostrada en (a) de la 45 Figura 40 indica que se añade ‘view_slice_type’ para aplicar además los tipos de sector convencionales (I, P, B) a la codificación de video multivisión.
En la Figura 41, se muestra otro ejemplo de sintaxis. En la sintaxis, se emplea un campo de ‘slice_type’ para proporcionar un tipo de sector, y se emplea un campo de ‘mb_pred_mode’ para proporcionar un modo de predicción 50 de macrobloque.
Según la presente invención, el campo de ‘slice_type’ puede incluir, entre otros, un tipo de sector (VP) para predicción intervisión, un tipo de sector B (VB) para predicción intervisión, y un tipo de sector mixto (Mixto) para predicción resultante de mezclar ambas predicciones intravisión e intervisión. 55
Si el valor en el campo de ‘mb_pred_mode’ es ‘0’ o ‘1’, se decide un tipo de macrobloque. Más aún, en caso de que el valor del campo de ‘mb_pred_mode’ sea ‘2’, se puede apreciar que se decide un tipo de macrobloque adicional (es decir, un total de dos). En esta realización, la información del tipo de sector existe en una cabecera de sector, lo que va a ser explicado en detalle con respecto a las Figuras 42. En otras palabras, la sintaxis mostrada en la Figura 60 41 indica que los tipos de sector VP, VB y Mixto son añadidos al tipo de sector (slice_type) convencional.
La Figura 42 muestra diagramas de ejemplos para aplicar los tipos de sector mostrados en la Figura 41.
El diagrama de la Figura 42(a) muestra que un tipo de sector P (VP) para predicción intervisión, un tipo de sector B 65 (VB) para predicción intervisión y un tipo de sector mixto (Mixto) para predicción resultante de mezclar ambas
predicciones, pueden existir como tipo de sector, además de otros tipos de sector, en una cabecera de sector. En particular, los tipos de sector VP, VB y Mixto según un ejemplo de realización, se añaden a los tipos de sector que pueden existir en una cabecera de sector general.
El diagrama de la Figura 42(b) muestra que un sector de tipo P (VP) para predicción intervisión, un sector de tipo B 5 (VB) para predicción intervisión y un tipo de sector mixto (Mixto) para la predicción resultante de mezclar ambas predicciones, pueden existir como tipo de sector en una cabecera de sector para codificación de video multivisión (MVC). En particular, los tipos de sector según un ejemplo de realización, están definidos en una cabecera de sector para codificación de video multivisión.
10
El diagrama de la Figura 42(c) muestra que un tipo de sector (VP) para predicción intervisión, un tipo de sector B (VB) para predicción intervisión y un tipo de sector mixto (Mixto) para predicción resultante de mezclar ambas predicciones, pueden existir como tipo de sector, adicionalmente al tipo de sector existente para codificación de video escalable, en una cabecera de sector para codificación de video escalable (SVC). En particular, los tipos de sector VP, VB y Mixto según un ejemplo de realización, se añaden a los tipos de sector que puedan existir en una 15 cabecera de sector de un estándar de codificación de video escalable (SVC).
La Figura 43 es un diagrama de varios ejemplos de tipos de sector incluidos en el tipo de sector mostrado en la Figura 41.
20
En la Figura 43(a), se muestra un caso en el que se predice un tipo de sector a partir de una imagen de una visión diferente. De ese modo, el tipo de sector resulta ser un tipo de sector (VP) para predicción intervisión.
En la Figura 43(b), se muestra un caso en el que se predice un tipo de sector a partir de dos imágenes de visiones diferentes, respectivamente. Así, el tipo de sector resulta ser un tipo de sector B (VB) para predicción intervisión. 25
En las Figuras 43(c) y 43(f), se muestra un caso en el que se predice un tipo de sector a partir de una o dos imágenes de una visión actual y de una imagen de una visión diferente. Así, el tipo de sector resulta ser un tipo de sector mixto (Mixto) para predicción resultante de mezclar ambas predicciones. También, en las Figuras 43(d) y 43(e), se muestra un caso en el que se predice un tipo de sector a partir de una o dos imágenes de una visión actual 30 y de dos imágenes de visiones diferentes. Así, el tipo de sector resulta ser también un tipo de sector mixto (Mixto).
La Figura 44 es un diagrama de macrobloque permitido para los tipos de sector mostrados en la Figura 41.
Con referencia a la Figura 44, un intramacrobloque (I), un macrobloque (P) pronosticado a partir de una imagen de 35 una visión actual o un macrobloque (VP) pronosticado a partir de una imagen de una visión diferente, son admitidos para un tipo de sector P (VP) por predicción ínter-visión.
Un intra-macrobloque (I), un macrobloque (P o B) pronosticado a partir de una o dos imágenes en una visión actual o un macrobloque VP o VB pronosticado a partir de una imagen en una visión diferente o de dos imágenes en 40 visiones diferentes, respectivamente, son permitidos para un tipo de sector B (VB) por predicción intervisión.
Y, un intra-macrobloque (I); un macrobloque (P o B) pronosticado a partir de una o dos imágenes en una visión actual; un macrobloque (VP o VB) pronosticado a partir de una imagen en una visión diferente o de dos imágenes en visiones diferentes, respectivamente, o un macrobloque (Mixto) pronosticado a partir de una o dos imágenes en una 45 visión actual, una imagen en una visión diferente, o dos imágenes en visiones diferentes, respectivamente, son permitidos para un tipo de sector mixto (Mixto).
Las Figuras 45-47 son diagramas de un tipo de macrobloque de un macrobloque existente en un tipo de sector mixto (Mixto). 50
En las Figuras 45(a) y 45(b), se muestran, respectivamente, esquemas de configuración para un tipo de macrobloque (mb_type) y un tipo de submacrobloque (sub_mb_type) de un macrobloque existente en un sector mixto.
55
En las Figuras 46 y 47 se muestran, respectivamente, la representación binaria de dirección(es) predictiva(s) de un macrobloque existente en un sector mixto y de dirección(es) predictiva(s) real(es) del sector mixto.
Según una realización de la presente invención, se prepara un tipo de macrobloque (mb_type) considerando tanto un tamaño (Partition_Size) de una partición de un macrobloque como una dirección predictiva (Direction) de una 60 partición de macrobloque.
Y, se prepara un tipo de submacrobloque (sub_mb_type) considerando tanto un tamaño (Sub_Partition_Size) de una partición de submacrobloque como una dirección predictiva (Sub_Direction) de cada partición de submacrobloque.
65
Con referencia a la Figura 45(a), ‘Direction0’ y ‘Direction1’ indican una dirección predictiva de una primera partición de macrobloque y una dirección predictiva de una segunda partición de macrobloque, respectivamente. En particular, en el caso de un macrobloque de 8x16, ‘Direction0’ indica una dirección predictiva para una partición de macrobloque de 8x16 izquierda, y ‘Direction1’ indica una dirección predictiva para una partición de macrobloque de 8x16 derecha. Se explica un principio configuracional de tipo de macrobloque (mb_type) con detalle en lo que sigue. 5 En primer lugar, los dos primeros bits indican un tamaño de partición (Partition_Size) de un macrobloque correspondiente y se encuentra disponible un valor de 0-3 para los dos primeros bits. Y, cuatro bits a continuación de los dos primeros bits indican una dirección predictiva (Direction) en el caso de que un macrobloque esté dividido en particiones.
10
Por ejemplo, en el caso de un macrobloque de 16x16, cuatro bits que indican una dirección predictiva del macrobloque están unidos a la parte trasera de los dos primeros bits. En el caso de un macrobloque de 16x8, cuatro bits siguientes a los dos primeros bits indican una dirección predictiva (Direction0) de una primera partición y otros cuatro bits están unidos a los cuatro bits anteriores para indicar una dirección predictiva (Direction1) de una segunda partición. Asimismo, en caso de un macrobloque de 8x16, ocho bits están unidos a la parte trasera de los dos 15 primeros bits. En ese caso, los primeros cuatro bits de los ocho bits unidos a los dos primeros bits indican una dirección predictiva de una primera partición y los siguientes cuatro bits indican una dirección predictiva de una segunda partición.
Con referencia a la Figura 45(b), se usa una dirección predictiva (Sub_Direction) de un submacrobloque de la misma 20 manera que la dirección predictiva (Direction) de la partición de macrobloque mostrada en la Figura 45(a). Un principio de configuración de tipo de submacrobloque (sub_mb_type) va a ser explicado con detalle en lo que sigue.
En primer lugar, los dos primeros bits indican un tamaño de partición (Partition_Size) de un macrobloque correspondiente y los dos segundos bits, a continuación de los dos bits anteriores, indican un tamaño de partición 25 (Sub_Partition_Size) de un submacrobloque del macrobloque correspondiente. Está disponible un valor de 0-3 para cada uno de los dos primeros y segundos bits. Posteriormente, cuatro bits unidos a continuación a los dos segundos bits indican una dirección predictiva (Sub_Direction) en caso de que un macrobloque esté dividido en particiones de submacrobloque. Por ejemplo, si un tamaño (Partition_Size) de una partición de un macrobloque es 8x8 y si un tamaño (Sub_Partition_Size) de una partición de un submacrobloque es 4x8, los dos primeros bits tienen un valor de 30 3, los dos segundos bits tienen un valor de 2, los primeros cuatro bits siguientes a los dos segundos bits indican una dirección predictiva para un bloque de 4x8 izquierdo de entre dos bloques de 4x8, y los segundos cuatro bits a continuación de los primeros cuatro bits indican una dirección predictiva para un bloque de 4x8 derecho.
Con referencia a la Figura 46, se construye una dirección predictiva de un macrobloque con cuatro bits. Y, se puede 35 apreciar que cada representación binaria resulta ser ‘1’ según un caso de referencia a una imagen en una posición a la izquierda (L), en la parte superior (T), a la derecha (R) o en la parte inferior (B) de una imagen actual.
Con referencia a la Figura 47, por ejemplo, en caso de que una dirección predictiva sea la parte superior (T), se refiere a una imagen situada en la parte superior según una dirección de visión de una imagen actual. En el caso de 40 que una dirección predictiva corresponda a todas las direcciones (LTRB), se puede apreciar que se refiere a imágenes en todas las direcciones (LTRB) de una imagen actual.
La Figura 48 es un diagrama de bloques de un aparato para codificar una señal de video.
45
Con referencia a la Figura 48, el aparato incluye una unidad de decisión de tipo de macrobloque 4810, una unidad de generación de macrobloque 4820 y una unidad de codificación 4830.
La Figura 49 es un diagrama de flujo de un método de codificación de una señal de video en el aparato de codificación mostrado en la Figura 48. 50
Con referencia a la Figura 49, un método de codificación de una señal de video incluye una etapa S4910 de decisión de un primer tipo de macrobloque para predicción intravisión y de un segundo tipo de macrobloque para predicción intervisión, una etapa S4920 de generación de un primer macrobloque que tiene el primer tipo de macrobloque y de un segundo macrobloque que tiene el segundo tipo de macrobloque, una etapa S4930 de generación de un tercer 55 macrobloque usando el primer y el segundo macrobloques, y una etapa S4940 de codificación de un tipo de macrobloque de un macrobloque actual y de un modo de predicción de macrobloque.
La unidad de decisión de tipo de macrobloque 4810 decide un primer tipo de macrobloque para predicción intravisión y un segundo tipo de macrobloque para predicción intervisión (S4910) según se ha descrito con detalle en lo que 60 antecede.
Posteriormente, la unidad de generación de macrobloque 4820 genera un primer macrobloque que tiene el primer tipo de macrobloque y un segundo macrobloque que tiene el segundo tipo de macrobloque (S4920) usando técnicas de predicción bien conocidas, y a continuación genera un tercer macrobloque usando el primer y el segundo 65
macrobloques (S4930). En este caso, el tercer macrobloque se genera conforme a un valor medio entre el primer y el segundo macrobloques.
Finalmente, la unidad de codificación 4830 codifica un tipo de macrobloque (mb_type) de un macrobloque actual y un modo de predicción de macrobloque (mb_pred_mode) del macrobloque actual comparando eficacias de 5 codificación del primer al tercer macrobloques (S4940).
En este caso, existen varios métodos para medir las eficacias de codificación. En particular, se usa un método que hace uso de costo RD (tasa-distorsión) en esta realización de la presente invención. Según se conoce bien, en el método de costo RD, se calcula un costo correspondiente con dos componentes: un número de bits de codificación 10 generado a partir de la codificación de un bloque correspondiente y un valor de distorsión que indica un error a partir de una secuencia real.
El primer y el segundo tipos de macrobloque pueden ser decididos según una manera de selección de un tipo de macrobloque que tenga un valor mínimo del costo RD explicado con anterioridad. Por ejemplo, un tipo de 15 macrobloque que tenga un valor mínimo del costo RD entre tipos de macrobloque por predicción intravisión se decide como el primer tipo de macrobloque. Y, un tipo de macrobloque que tenga un valor mínimo del costo RD entre tipos de macrobloque por predicción intervisión, se decide como el segundo tipo de macrobloque.
En la etapa de codificación del tipo de macrobloque y del modo de predicción de macrobloque, se puede seleccionar 20 el modo de predicción de tipo de macrobloque asociado a uno de entre los primeros y segundos macrobloques que tengan el costo RD más pequeño. A continuación, se determina el costo RD del tercer macrobloque. Finalmente, el tipo de macrobloque y el modo de predicción de macrobloque del macrobloque actual son codificados por comparación del costo RD del primer o segundo macrobloque seleccionado y del costo RD del tercer macrobloque entre sí. 25
Si el costo RD del primer o segundo macrobloque seleccionado es igual o mayor que el costo RD del tercer macrobloque, el tipo de macrobloque resulta ser un tipo de macrobloque correspondiente al primer o segundo macrobloque seleccionado.
30
Por ejemplo, si el costo RD del primer macrobloque es más pequeño que el del segundo y tercer macrobloques, el macrobloque actual se establece como el primer tipo de macrobloque. Y, el modo de predicción de macrobloque (es decir, intravisión) resulta ser un esquema de predicción de un macrobloque correspondiente al costo RD.
Por ejemplo, si el costo RD del segundo macrobloque es más pequeño que el del primer y tercer macrobloques, un 35 esquema de predicción intervisión como esquema de predicción del segundo macrobloque resulta ser el modo de predicción de macrobloque del macrobloque actual.
Mientras tanto, si el costo RD del tercer macrobloque es más pequeño que los costos RD del primer y segundo macrobloques, los tipos de macrobloque corresponden tanto al primer como al segundo tipos de macrobloque. En 40 particular, los tipos de macrobloque de predicción intravisión e intervisión resultan ser tipos de macrobloque del macrobloque actual. Y, el modo de predicción de macrobloque resulta ser un esquema de predicción mixto resultante de mezclar predicciones intravisión e intervisión.
En consecuencia, la presente invención proporciona al menos el siguiente efecto o ventaja. 45
La presente invención está capacitada para excluir la información de redundancia entre visiones debido a varios esquemas de predicción entre visiones y a una información tal como tipos de sector, tipos de macrobloque y modos de predicción de macrobloque, potenciando con ello el rendimiento de la eficacia de codificación/descodificación.
Aplicabilidad industrial 50
Aunque la presente invención ha sido descrita e ilustrada en la presente memoria con referencia a las realizaciones preferidas de la misma, resultará evidente para los expertos en la materia que se pueden realizar en la misma diversas modificaciones y variaciones sin apartarse del ámbito de la invención. Así, se entiende que la presente invención cubre las modificaciones y variaciones de la presente invención que caigan dentro del alcance de las reivindicaciones anexas y de sus equivalentes. 55

Claims (14)

  1. REIVINDICACIONES
    1.- Un método para descodificar datos de video multivisión en una corriente de video multivisión, que comprende:
    5
    recibir la corriente de datos de video multivisión que incluye una imagen de acceso aleatorio que incluye un sector de acceso aleatorio y un indicador de perfil que indica que una corriente de video recibida es la corriente de datos de video multivisión,
    en donde,
    el sector de acceso aleatorio está referenciando solamente sectores correspondientes a un mismo tiempo y a 10 una visión diferente de la imagen de acceso aleatorio;
    y el método comprende además:
    obtener una banderola de acceso aleatorio para predicción intervisión, indicando la banderola de acceso aleatorio si una imagen es la imagen de acceso aleatorio;
    obtener información de inicialización para el sector de acceso aleatorio en base a la banderola de acceso 15 aleatorio y al indicador de perfil, representando la información de inicialización información que reconoce una estructura predictiva entre una pluralidad de visiones, incluyendo la información de inicialización información del número de visión e información de identificación de visión;
    obtener información tipo indicativa de si el sector de acceso aleatorio se ha pronosticado a partir de una imagen de referencia o de dos imágenes de referencia; 20
    inicializar la lista de imagen de referencia, incluyendo la inicialización ordenar imágenes de referencia usadas para la predicción intervisión del sector de acceso aleatorio, estando las imágenes de referencia especificadas por la información de número de visión y por la información de identificación de visión según la información tipo;
    caracterizado por que el método comprende además: 25
    obtener un valor de diferencia a partir de la corriente de datos de video multivisión, representando el valor de diferencia una diferencia de número de visión en la lista de imagen de referencia inicializada;
    determinar un valor de modificación de asignación para modificar un índice de referencia en la lista de imagen de referencia inicializada según el valor de diferencia;
    modificar la lista de imagen de referencia inicializada para la predicción intervisión usando el valor de 30 modificación de asignación determinado;
    determinar un valor de predicción de un macrobloque en la imagen de acceso aleatorio en base a la lista de imagen de referencia modificada, y
    descodificar el macrobloque usando el valor de predicción;
    en donde la información de inicialización se obtiene a partir de un área de extensión de una cabecera de 35 secuencia.
  2. 2.- El método de la reivindicación 1, en donde la información de número de visión indica un número de visiones de referencia de la imagen de acceso aleatorio, y la información de identificación de visión proporciona un identificador de visión de cada visión de referencia para la imagen de acceso aleatorio. 40
  3. 3.- El método de la reivindicación 1, en donde los datos de video multivisión incluyen datos de video de una visión base independiente de otras visiones, siendo la visión base una visión descodificada sin el uso de predicción intervisión.
    45
  4. 4.- El método de la reivindicación 1, en donde el valor de diferencia se obtiene a partir de una cabecera de sector.
  5. 5.- El método de la reivindicación 1, en donde el valor de modificación de asignación determinado se usa para asignar un índice de referencia intervisión a la imagen de acceso aleatorio en la lista de imagen de referencia inicializada. 50
  6. 6.- El método de la reivindicación 1, en donde el valor de modificación de asignación representa una variable asociada a un identificador de visión de una imagen de referencia intervisión en la lista de imagen de referencia inicializada.
    55
  7. 7.- El método de la reivindicación 1, en donde la posición de cualquier otra de las imágenes restantes se desplaza al último lugar en la lista de imagen de referencia inicializada.
  8. 8.- Un aparato para descodificar datos de video multivisión en una corriente de video multivisión, que comprende:
    una unidad de análisis de Capa de Abstracción de Red (NAL) adaptada para recibir la corriente de datos de 60 video multivisión que incluye una imagen de acceso aleatorio que incluye un sector de acceso aleatorio y un indicador de perfil que indica que una corriente de video recibida es la corriente de datos de video multivisión,
    en donde,
    el sector de acceso aleatorio está referenciando solamente un sector correspondiente a un mismo tiempo y a una visión diferente de la imagen de acceso aleatorio, y la unidad de análisis de Capa de Abstracción de Red 65
    (NAL) está además adaptada para obtener una banderola de acceso aleatorio para predicción intervisión, indicando la banderola de acceso aleatorio si una imagen es la imagen de acceso aleatorio, para obtener información de inicialización para el sector de acceso aleatorio en base a la banderola de acceso aleatorio y al indicador de perfil, representando la información de inicialización una información que reconoce una estructura predictiva entre una pluralidad de visiones, incluyendo la información de inicialización información 5 de número de visión e información de identificación de visión, y para obtener (642) una información tipo que indica si el sector de acceso aleatorio ha sido pronosticado a partir de una imagen de referencia o de dos imágenes de referencia; y, el aparato comprende además:
    una unidad de memoria intermedia de imagen descodificada adaptada para inicializar (630) la lista de imagen de referencia, incluyendo la inicialización ordenar imágenes de referencia usadas para la predicción 10 intervisión del sector de acceso aleatorio, estando las imágenes de referencia especificadas por la información de número de visión y por la información de identificación de visión conforme a la información tipo, caracterizado por que la unidad de memoria intermedia de imagen descodificada está además adaptada para obtener (643A, 645A) un valor de diferencia a partir de la corriente de datos de video multivisión, representando el valor de diferencia una diferencia de número de visión en la lista de imagen de referencia 15 inicializada, para determinar un valor de modificación de asignación para modificar un índice de referencia en la lista de imagen de referencia inicializada según el valor de diferencia, y para modificar (643B, 645B) la lista de imagen de referencia inicializada para la predicción intervisión usando el valor de modificación de asignación determinado, y
    una unidad interpredicción adaptada para determinar un valor de predicción de un macrobloque en la imagen 20 de acceso aleatorio en base a la lista de imagen de referencia modificada, y para descodificar el macrobloque usando el valor de predicción,
    en donde la información de inicialización se obtiene a partir de un área de extensión de una cabecera de secuencia.
    25
  9. 9.- El aparato de la reivindicación 8, en donde la información de número de visión indica un número de visiones de referencia de la imagen de acceso aleatorio, y la información de identificación de visión proporciona un identificador de visión de cada visión de referencia para la imagen de acceso aleatorio.
  10. 10.- El aparato de la reivindicación 8, en donde los datos de video multivisión incluyen datos de video de una visión 30 base independiente de otras visiones, siendo la visión base una visión descodificada sin el uso de predicción intervisión.
  11. 11.- El aparato de la reivindicación 8, en donde el valor de diferencia se obtiene a partir de una cabecera de sector.
    35
  12. 12.- El aparato de la reivindicación 8, en donde el valor de modificación de asignación determinado se usa para asignar un índice de referencia intervisión a la imagen de acceso aleatorio en la lista de imagen de referencia inicializada.
  13. 13.- El aparato de la reivindicación 8, en donde el valor de modificación de asignación representa una variable 40 asociada a un identificador de visión de una imagen de referencia intervisión en la lista de imagen de referencia inicializada.
  14. 14.- El aparato de la reivindicación 8, en donde la posición de cualquier otra de las imágenes restantes se desplaza al último lugar en la lista de imagen de referencia inicializada. 45
ES07745747.1T 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video multivisión Active ES2619522T3 (es)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US78717106P 2006-03-30 2006-03-30
US787171P 2006-03-30
US80139806P 2006-05-19 2006-05-19
US801398P 2006-05-19
US81064206P 2006-06-05 2006-06-05
US810642P 2006-06-05
US83060106P 2006-07-14 2006-07-14
US830601P 2006-07-14
US83215306P 2006-07-21 2006-07-21
US832153P 2006-07-21
US83792506P 2006-08-16 2006-08-16
US837925P 2006-08-16
US84003206P 2006-08-25 2006-08-25
US840032P 2006-08-25
US84215206P 2006-09-05 2006-09-05
US842152P 2006-09-05
PCT/KR2007/001584 WO2007114612A1 (en) 2006-03-30 2007-03-30 A method and apparatus for decoding/encoding a video signal

Publications (1)

Publication Number Publication Date
ES2619522T3 true ES2619522T3 (es) 2017-06-26

Family

ID=38563848

Family Applications (3)

Application Number Title Priority Date Filing Date
ES07745747.1T Active ES2619522T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video multivisión
ES07745745.5T Active ES2533765T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video
ES07745743.0T Active ES2636917T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES07745745.5T Active ES2533765T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video
ES07745743.0T Active ES2636917T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video

Country Status (13)

Country Link
US (29) US8170108B2 (es)
EP (7) EP2005752A4 (es)
JP (5) JP5055354B2 (es)
KR (26) KR100934671B1 (es)
AU (1) AU2007232607B2 (es)
BR (1) BRPI0710048A2 (es)
CA (1) CA2647735C (es)
DE (4) DE202007019459U1 (es)
ES (3) ES2619522T3 (es)
MX (1) MX2008012437A (es)
PL (2) PL2008460T3 (es)
RU (1) RU2530310C2 (es)
WO (5) WO2007114609A1 (es)

Families Citing this family (246)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1980114A4 (en) * 2006-01-09 2014-12-31 Lg Electronics Inc METHOD FOR PREDICTING INTER-LAYER OF VIDEO SIGNAL
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
JP5199123B2 (ja) * 2006-01-12 2013-05-15 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
US8767836B2 (en) 2006-03-27 2014-07-01 Nokia Corporation Picture delimiter in scalable video coding
RU2443074C2 (ru) * 2006-07-06 2012-02-20 Томсон Лайсенсинг Способ и устройство для отделения номера кадра и/или счетчика очередности изображения (рос) для мультивидового видеокодирования и видеодекодирования
CN101496407B (zh) 2006-07-06 2013-02-06 汤姆逊许可证公司 用于针对多视角视频编码和解码解耦合帧号和/或图像顺序计数(poc)的方法和装置
TWI344792B (en) 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
CN101518086B (zh) * 2006-07-20 2013-10-30 汤姆森特许公司 在多视图视频编码中用信号通知视图可分级性的方法和装置
WO2008038513A1 (en) * 2006-09-26 2008-04-03 Panasonic Corporation Decoding device, decoding method, decoding program, and integrated circuit
US20100002762A1 (en) * 2006-10-13 2010-01-07 Purvin Bibhas Pandit Method for reference picture management involving multiview video coding
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
BRPI0716957A2 (pt) * 2006-10-13 2013-10-29 Thomson Licensing Sintaxe de gerenciamento de lista de imagens de referência para codificação de vídeo de múltiplas vistas
FR2907575B1 (fr) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Procede et dispositif de codage d'images representant des vues d'une meme scene
JP5421113B2 (ja) * 2006-10-18 2014-02-19 トムソン ライセンシング 明示的な信号伝達なしでの局所的な輝度および色の補償のための方法および装置
EP2418854A3 (en) * 2006-10-24 2012-06-06 Thomson Licensing Picture identification for multi-view video coding
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
DK2103136T3 (en) * 2006-12-21 2017-12-04 Thomson Licensing METHODS AND APPARATUS FOR IMPROVED SIGNALING USING HIGH-LEVEL SYNTHOLOGY FOR MULTIVIEW VIDEO AND DECODING
EP2116064B1 (en) * 2007-01-04 2012-08-15 Thomson Licensing Method and apparatus for video error concealment in multi-view coded video using high level syntax
KR100801968B1 (ko) * 2007-02-06 2008-02-12 광주과학기술원 변위를 측정하는 방법, 중간화면 합성방법과 이를 이용한다시점 비디오 인코딩 방법, 디코딩 방법, 및 인코더와디코더
US8644379B2 (en) * 2007-03-07 2014-02-04 Himax Technologies Limited De-interlacing method and method of compensating a de-interlaced pixel
WO2008117963A1 (en) * 2007-03-23 2008-10-02 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
EP2135456B1 (en) * 2007-04-04 2017-05-03 Thomson Licensing Reference picture list management
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
CN101658040B (zh) * 2007-04-17 2013-09-11 汤姆森许可贸易公司 用于多视点视频编码的假设参考解码器
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8917775B2 (en) * 2007-05-02 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video data
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
KR101366250B1 (ko) * 2007-06-19 2014-02-25 삼성전자주식회사 영상 분할을 이용한 영상 부호화, 복호화 방법 및 장치
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
CN101816180B (zh) * 2007-08-06 2013-01-16 汤姆森特许公司 利用多个视图间参考画面的运动跳跃模式的方法和装置
EP2181549A2 (en) * 2007-08-15 2010-05-05 Thomson Licensing Method and apparatus for error concealment in multi-view coded video
JP4739295B2 (ja) * 2007-08-27 2011-08-03 日本電信電話株式会社 映像信号生成装置、映像信号生成方法、映像信号生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101703019B1 (ko) * 2007-10-05 2017-02-06 톰슨 라이센싱 멀티-뷰 비디오(mvc) 코딩 시스템 내의 비디오 유용성 정보(vui)를 통합하기 위한 방법 및 장치
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
US8121191B1 (en) * 2007-11-13 2012-02-21 Harmonic Inc. AVC to SVC transcoder
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
EP2250812A1 (en) * 2008-03-04 2010-11-17 Thomson Licensing Virtual reference view
EP2250813B1 (en) * 2008-03-10 2018-12-05 InterDigital Madison Patent Holdings Method and apparatus for predictive frame selection supporting enhanced efficiency and subjective quality
JP5056560B2 (ja) * 2008-03-17 2012-10-24 富士通株式会社 符号化装置、復号化装置、符号化方法および復号化方法
EP2109047A1 (en) * 2008-04-07 2009-10-14 Global Digital Technologies SA Video characterization, identification and search system
CN102017651B (zh) * 2008-04-21 2014-01-29 三星电子株式会社 使用富媒体内容组成场景的装置和方法
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
WO2009142021A1 (ja) * 2008-05-23 2009-11-26 パナソニック株式会社 画像復号化装置、画像復号化方法、画像符号化装置、及び画像符号化方法
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
EP2297964A4 (en) * 2008-06-25 2017-01-18 Cisco Technology, Inc. Support for blocking trick mode operations
ES2515967T3 (es) * 2008-10-07 2014-10-30 Telefonaktiebolaget L M Ericsson (Publ) Datos multimedia de múltiples vistas
EP2348733A4 (en) 2008-10-27 2012-09-12 Lg Electronics Inc METHOD AND APPARATUS FOR THE SYNTHESIS OF VIRTUAL VISUALIZATION IMAGES
KR101625058B1 (ko) * 2008-11-10 2016-05-27 엘지전자 주식회사 시점간 예측을 이용한 비디오 신호 처리 방법 및 장치
EP2356812B1 (en) 2008-11-12 2015-06-10 Cisco Technology, Inc. Processing of a video program having plural processed representations of a single video signal for reconstruction and output
EP2365694B1 (en) * 2008-11-18 2017-01-04 LG Electronics Inc. Method and apparatus for processing image signal
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101233627B1 (ko) * 2008-12-23 2013-02-14 한국전자통신연구원 스케일러블 부호화 장치 및 방법
MX2010007649A (es) 2009-01-19 2010-08-13 Panasonic Corp Metodo de codificacion, metodo de decodificacion, aparato de codificacion, aparato de decodificacion, programa y circuito integrado.
US8326131B2 (en) 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
CA2752567C (en) * 2009-02-23 2014-11-18 Nippon Telegraph And Telephone Corporation Multi-view image coding method, multi-view image decoding method, multi-view image coding device, multi-view image decoding device, multi-view image coding program, and multi-viewimage decoding program
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US9485299B2 (en) * 2009-03-09 2016-11-01 Arris Canada, Inc. Progressive download gateway
US8767832B2 (en) * 2009-03-10 2014-07-01 Mediatek Inc. Method and apparatus for processing a multimedia bitstream
JP4947389B2 (ja) * 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
EP2421264B1 (en) * 2009-04-17 2016-05-25 LG Electronics Inc. Method and apparatus for processing a multiview video signal
WO2010123198A2 (ko) * 2009-04-21 2010-10-28 엘지전자 주식회사 다시점 비디오 신호 처리 방법 및 장치
WO2010123203A2 (ko) * 2009-04-22 2010-10-28 엘지전자 주식회사 다시점 영상의 참조 픽쳐 리스트 변경 방법
KR20120013966A (ko) 2009-05-01 2012-02-15 톰슨 라이센싱 3dv를 위한 기준 화상 리스트
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
TWI384887B (zh) * 2009-06-11 2013-02-01 Univ Nat Central 多視點影像編解碼方法
US8780999B2 (en) 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
WO2011013257A1 (ja) * 2009-07-29 2011-02-03 パナソニック株式会社 マルチビュービデオ復号装置およびその方法
CA2711311C (en) 2009-08-10 2016-08-23 Seawell Networks Inc. Methods and systems for scalable video chunking
JP5791618B2 (ja) * 2009-10-29 2015-10-07 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ビデオ・シーケンスを処理する方法及び装置
KR101282552B1 (ko) 2009-11-04 2013-07-04 한국전자통신연구원 병렬 처리 스케일러블 비디오 부/복호화 방법 및 장치
TW201121331A (en) * 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
KR101444691B1 (ko) * 2010-05-17 2014-09-30 에스케이텔레콤 주식회사 참조영상 구성 및 인덱싱 장치 및 방법
KR102108078B1 (ko) 2010-05-26 2020-05-08 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP2012023651A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
WO2012011525A1 (ja) * 2010-07-21 2012-01-26 株式会社プランネット・アソシエイツ 三次元ビデオストリームへの映像変換方法
JP2013538534A (ja) 2010-09-14 2013-10-10 トムソン ライセンシング オクルージョンデータのための圧縮方法および圧縮装置
KR102006443B1 (ko) * 2010-09-30 2019-08-02 한국전자통신연구원 오차 보상을 이용한 영상 부호화/복호화 방법 및 장치
US9106916B1 (en) 2010-10-29 2015-08-11 Qualcomm Technologies, Inc. Saturation insensitive H.264 weighted prediction coefficients estimation
US9521424B1 (en) * 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
KR20120050725A (ko) * 2010-11-11 2012-05-21 삼성전자주식회사 데이터 재생 방법 및 장치
KR101425772B1 (ko) 2010-11-23 2014-08-06 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2012093879A2 (ko) * 2011-01-06 2012-07-12 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
US9300943B2 (en) * 2011-01-12 2016-03-29 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9215473B2 (en) 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
CN105100822B (zh) * 2011-01-28 2018-05-11 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与系统
WO2012115434A2 (ko) * 2011-02-21 2012-08-30 한국전자통신연구원 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
KR20120095814A (ko) * 2011-02-21 2012-08-29 한밭대학교 산학협력단 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
WO2012147740A1 (ja) * 2011-04-25 2012-11-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
US9154804B2 (en) * 2011-06-04 2015-10-06 Apple Inc. Hint based adaptive encoding
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
CN103765895B (zh) 2011-06-24 2017-03-08 Lg电子株式会社 使用跳跃模式的编码/解码方法和装置
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9060173B2 (en) * 2011-06-30 2015-06-16 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US9338465B2 (en) 2011-06-30 2016-05-10 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US11647197B2 (en) 2011-06-30 2023-05-09 Velos Media, Llc Context initialization based on slice header flag and slice type
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
ES2642839T3 (es) * 2011-07-02 2017-11-20 Samsung Electronics Co., Ltd. Procedimiento y aparato de multiplexión y desmultiplexión de datos de vídeo para identificar el estado de reproducción de datos de vídeo
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US9674525B2 (en) * 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US9635355B2 (en) 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US10237565B2 (en) * 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
KR20130018628A (ko) * 2011-08-09 2013-02-25 삼성전자주식회사 다시점 비디오 예측 부호화 방법 및 그 장치, 다시점 비디오 예측 복호화 방법 및 그 장치
CN107105302B (zh) 2011-08-25 2019-12-10 太阳专利托管公司 视频编码装置及视频编码方法
CN107257492B (zh) 2011-09-07 2020-04-28 太阳专利托管公司 图像编码方法以及图像编码装置
CN107483929B (zh) 2011-09-09 2020-05-12 株式会社Kt 用于解码视频信号的方法
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
WO2013042329A1 (ja) 2011-09-19 2013-03-28 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置
FI4017006T3 (fi) 2011-09-22 2023-12-19 Lg Electronics Inc Menetelmä ja laite kuvainformaation signaloimiseksi, ja dekoodausmenetelmä ja laite saman käyttämiseksi
US9106927B2 (en) 2011-09-23 2015-08-11 Qualcomm Incorporated Video coding with subsets of a reference picture set
CA2968598C (en) * 2011-09-23 2019-04-30 Kt Corporation Method for deriving a merge candidate block and device using same
CN103843340B (zh) 2011-09-29 2018-01-19 瑞典爱立信有限公司 参考图片列表处理
US9712819B2 (en) 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US8855433B2 (en) * 2011-10-13 2014-10-07 Sharp Kabushiki Kaisha Tracking a reference picture based on a designated picture on an electronic device
US8768079B2 (en) 2011-10-13 2014-07-01 Sharp Laboratories Of America, Inc. Tracking a reference picture on an electronic device
CN104025598B (zh) 2011-10-19 2017-11-14 太阳专利托管公司 图像编码方法、图像编码装置
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9124895B2 (en) 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US9503750B2 (en) * 2011-11-04 2016-11-22 Futurewei Technologies, Inc. Binarization of prediction residuals for lossless video coding
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
KR101841914B1 (ko) * 2011-11-08 2018-03-27 한국전자통신연구원 컬러 영상 및 깊이 영상을 포함하는 다시점 비디오의 부호화 및 복호화 방법, 그리고 부호화 및 복호화 장치
US20130113882A1 (en) * 2011-11-08 2013-05-09 Sony Corporation Video coding system and method of operation thereof
WO2013070028A1 (ko) 2011-11-11 2013-05-16 엘지전자 주식회사 영상 정보 전송 방법 및 장치와 이를 이용한 복호화 방법 및 장치
US10200708B2 (en) 2011-11-30 2019-02-05 Qualcomm Incorporated Sequence level information for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US9131217B2 (en) * 2011-12-09 2015-09-08 Qualcomm Incorporated Reference picture list modification for view synthesis reference pictures
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
JP6078927B2 (ja) * 2012-01-10 2017-02-15 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、及び、動画像復号装置
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
DK3016391T3 (en) * 2012-01-17 2017-06-26 ERICSSON TELEFON AB L M (publ) Managing reference image list
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
KR102273741B1 (ko) * 2012-01-19 2021-07-05 브이아이디 스케일, 인크. 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
US9538200B2 (en) * 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
CN104160706B (zh) * 2012-01-20 2018-12-28 诺基亚技术有限公司 对图像进行编码的方法和装置以及对图像比特流进行解码的方法和装置
JPWO2013111551A1 (ja) * 2012-01-27 2015-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
EP2822277A4 (en) 2012-03-02 2015-03-04 Panasonic Ip Corp America IMAGE ENCODING METHOD, IMAGE DECODING METHOD, IMAGE ENCODING DEVICE, IMAGE DECODING DEVICE, AND IMAGE ENCODING / DECODING DEVICE
US20130243085A1 (en) * 2012-03-15 2013-09-19 Samsung Electronics Co., Ltd. Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9712887B2 (en) 2012-04-12 2017-07-18 Arris Canada, Inc. Methods and systems for real-time transmuxing of streaming media content
US9503702B2 (en) * 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
RU2710908C2 (ru) 2012-04-13 2020-01-14 ДжиИ Видео Компрешн, ЭлЭлСи Кодирование изображений с малой задержкой
EP2838263A4 (en) * 2012-04-15 2015-12-23 Samsung Electronics Co Ltd INTERPRETING METHOD BY WHICH LISTS OF REFERENCE PICTURES CAN BE MODIFIED, AND APPARATUS THEREFOR
US10051264B2 (en) 2012-04-20 2018-08-14 Qualcomm Incorporated Marking reference pictures in video sequences having broken link pictures
KR20130119379A (ko) * 2012-04-23 2013-10-31 삼성전자주식회사 다시점 비디오 예측을 위한 참조리스트를 이용하는 다시점 비디오 부호화 방법 및 그 장치, 다시점 비디오 예측을 위한 참조리스트를 이용하는 다시점 비디오 복호화 방법 및 그 장치
EP2843944A4 (en) * 2012-04-23 2015-09-23 Samsung Electronics Co Ltd MULTI VIEW VIDEO CODING METHOD AND DEVICE AND MULTILOOK VIDEO CODING METHOD AND DEVICE
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
US9762903B2 (en) 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US20130329007A1 (en) * 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US9225978B2 (en) 2012-06-28 2015-12-29 Qualcomm Incorporated Streaming adaption based on clean random access (CRA) pictures
CN115442631A (zh) 2012-06-29 2022-12-06 Ge视频压缩有限责任公司 视频数据流、编码器、编码视频内容的方法以及解码器
RU2647674C1 (ru) * 2012-07-02 2018-03-16 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока
JP5743968B2 (ja) * 2012-07-02 2015-07-01 株式会社東芝 動画像復号方法及び動画像符号化方法
CN103533374B (zh) * 2012-07-06 2018-02-16 乐金电子(中国)研究开发中心有限公司 一种视频编码、解码的方法及装置
WO2014010894A1 (ko) 2012-07-11 2014-01-16 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
KR102185384B1 (ko) * 2012-07-11 2020-12-02 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
KR102058606B1 (ko) * 2012-07-19 2019-12-23 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치
CN108322761B (zh) 2012-09-28 2020-08-07 杜比国际公司 图像解码装置
KR101812615B1 (ko) * 2012-09-28 2017-12-27 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
US20140092976A1 (en) * 2012-09-30 2014-04-03 Sharp Laboratories Of America, Inc. System for signaling idr and bla pictures
US9313500B2 (en) 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
WO2014053512A1 (en) 2012-10-01 2014-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scalable video coding using inter-layer prediction contribution to enhancement layer prediction
US9854234B2 (en) * 2012-10-25 2017-12-26 Qualcomm Incorporated Reference picture status for video coding
KR101981712B1 (ko) * 2012-11-21 2019-05-24 엘지전자 주식회사 영상 디코딩 방법 및 이를 이용하는 장치
US10334259B2 (en) 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
CN107770555B (zh) 2012-12-10 2020-04-14 Lg 电子株式会社 解码图像的方法和使用其的装置
CN104838655B (zh) * 2012-12-11 2018-09-04 索尼公司 编码设备和编码方法、及解码设备和解码方法
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
TWI669950B (zh) * 2012-12-21 2019-08-21 日商新力股份有限公司 影像處理裝置及方法
US9992513B2 (en) 2012-12-21 2018-06-05 Sony Corporation Image processing efficient transmission or reception of encoded information
US9924197B2 (en) * 2012-12-27 2018-03-20 Nippon Telegraph And Telephone Corporation Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
CN104982038B (zh) 2013-01-09 2018-09-28 Lg 电子株式会社 处理视频信号的方法和设备
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
US10491458B2 (en) * 2013-01-31 2019-11-26 Dell Products L.P. System and method for reporting peer-to-peer transfer events
EP2983362B1 (en) * 2013-04-05 2020-10-28 Samsung Electronics Co., Ltd. Interlayer video decoding method and apparatus for compensating luminance difference
CN105308970B (zh) 2013-04-05 2018-11-23 三星电子株式会社 针对整数像素的位置对视频进行编码和解码的方法和设备
US9473771B2 (en) 2013-04-08 2016-10-18 Qualcomm Incorporated Coding video data for an output layer set
WO2014168443A1 (ko) * 2013-04-11 2014-10-16 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9930363B2 (en) * 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
WO2014166104A1 (en) 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Removal of parsing dependency for illumination compensation
KR102105323B1 (ko) * 2013-04-15 2020-04-28 인텔렉추얼디스커버리 주식회사 객체 기반 적응적 밝기 보상 방법 및 장치
KR101663230B1 (ko) * 2013-07-12 2016-10-06 삼성전자주식회사 잔차 예측을 이용한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2015005750A1 (ko) 2013-07-12 2015-01-15 삼성전자 주식회사 변이 벡터 유도를 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
WO2015008464A1 (en) * 2013-07-14 2015-01-22 Sharp Kabushiki Kaisha Video parameter set signaling
EP3056004A2 (en) * 2013-10-11 2016-08-17 VID SCALE, Inc. High level syntax for hevc extensions
JP2016213519A (ja) * 2013-10-15 2016-12-15 シャープ株式会社 画像復号装置、画像符号化装置
US9674544B2 (en) * 2013-11-25 2017-06-06 Qualcomm Incorporated POC value design for multi-layer video coding
US9654774B2 (en) 2013-12-12 2017-05-16 Qualcomm Incorporated POC value design for multi-layer video coding
CN111031323B (zh) 2014-11-27 2023-11-28 株式会社Kt 视频信号处理方法
KR102551609B1 (ko) 2014-11-27 2023-07-05 주식회사 케이티 비디오 신호 처리 방법 및 장치
RU2605237C1 (ru) * 2015-07-16 2016-12-20 Общество с ограниченной ответственностью "МАКИНТЕХ" Управляющее устройство, система и способ управления освещением
CN105100549B (zh) * 2015-07-27 2018-06-29 京东方科技集团股份有限公司 图像补偿方法及装置
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
KR20180057789A (ko) 2016-11-22 2018-05-31 광운대학교 산학협력단 전방향 카메라에서 효과적인 차분 움직임 백터 전송방법을 이용한 비디오 코딩 방법 및 방법 및 장치
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
AT519902B1 (de) 2017-05-11 2022-07-15 Blum Gmbh Julius Führungssystem zur Führung eines Türflügels
EP3468198A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Method and apparatus for video encoding and decoding based on illumination compensation
CN111194553A (zh) 2017-10-05 2020-05-22 交互数字Vc控股公司 用于视频编码和解码中的自适应照明补偿的方法和装置
BR112020026686A2 (pt) 2018-07-17 2021-03-30 Panasonic Intellectual Property Corporation Of America Sistema e método para codificação de vídeo
CN110741647A (zh) * 2018-09-29 2020-01-31 深圳市大疆创新科技有限公司 一种图像处理方法、装置、可移动平台及存储介质
US11166048B2 (en) * 2018-10-02 2021-11-02 Tencent America LLC Method and apparatus for video coding
SI3846467T1 (sl) 2018-10-04 2024-02-29 Lg Electronics Inc. Postopki za kodiranje slik na podlagi zgodovine
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US11184607B2 (en) * 2019-06-13 2021-11-23 Qualcomm Incorporated Same picture order count (POC) numbering for scalability support
WO2021054720A1 (ko) * 2019-09-16 2021-03-25 엘지전자 주식회사 가중 예측을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021132962A1 (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 Nal 유닛 타입 기반 영상 또는 비디오 코딩
MX2022008593A (es) * 2020-01-12 2022-10-20 Huawei Tech Co Ltd Método y aparato para armonizar predicción ponderada con modos de fusión no rectangulares.
MX2022009920A (es) * 2020-02-19 2022-09-09 Bytedance Inc Se?alizacion de pesos de una lista de imagenes de referencia.

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US106191A (en) * 1870-08-09 Fire-place heater
US89412A (en) * 1869-04-27 Improvement in mowing-machines
US202594A (en) * 1878-04-16 Improvement in fence-posts
US10A (en) * 1836-08-10 Gtttlslto andi
US28498A (en) * 1860-05-29 Improvement in corn-planters
US159638A (en) * 1875-02-09 Improvement in grain-drills
US116558A (en) * 1871-07-04 Improvement in smelting iron ores
US262856A (en) * 1882-08-15 Car-heater
US147850A (en) * 1874-02-24 Improvement in cutting-nippers
DE1098653B (de) * 1959-06-27 1961-02-02 Hoechst Ag Verfahren zur Herstellung von Sensibilisierungsfarbstoffen
US3093928A (en) * 1961-02-16 1963-06-18 Robert K Ostrander Multivoice unit
TW352384B (en) * 1992-03-24 1999-02-11 Hoechst Ag Sulfonamido- or sulfonamidocarbonylpyridine-2-carboxamides, process for their preparation and their use as pharmaceuticals
US5473379A (en) 1993-11-04 1995-12-05 At&T Corp. Method and apparatus for improving motion compensation in digital video coding
TW406076B (en) * 1993-12-30 2000-09-21 Hoechst Ag Substituted heterocyclic carboxamides, their preparation and their use as pharmaceuticals
GB9402857D0 (en) * 1994-02-15 1994-04-06 Isis Innovation Targeting gene therapy
DE4410480A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureesteramide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
DE4410423A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureamide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
IL135495A (en) * 1995-09-28 2002-12-01 Hoechst Ag Intermediate compounds for the preparation of quinoline-converted amines - 2 - carboxylic acid
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US5659933A (en) * 1996-04-01 1997-08-26 Mcwilliams; Edward L. Odor-proof sealable container for bodily remains
EP0840982B1 (en) * 1996-05-24 2002-02-13 Koninklijke Philips Electronics N.V. Motion estimation
US5886736A (en) * 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
DE19650215A1 (de) * 1996-12-04 1998-06-10 Hoechst Ag 3-Hydroxypyridin-2-carbonsäureamidester, ihre Herstellung und ihre Verwendung als Arzneimittel
JP3931392B2 (ja) * 1997-08-25 2007-06-13 ソニー株式会社 立体画像用ビデオ信号生成装置、立体画像用ビデオ信号送出装置および立体画像用ビデオ信号受信装置
DE19746287A1 (de) * 1997-10-20 1999-04-22 Hoechst Marion Roussel De Gmbh Substituierte Isochinolin-2-Carbonsäureamide, ihre Herstellung und ihre Verwendung als Arzneimittel
US6200974B1 (en) * 1997-10-24 2001-03-13 Zeneca Limited Phenanthroline derivatives
US5916898A (en) * 1997-10-24 1999-06-29 Zeneca Limited Phenanthroline derivatives
CA2311643C (en) * 1997-12-04 2009-04-07 Genzyme Corporation Compositions and methods for inducing gene expression
US6124131A (en) * 1998-08-25 2000-09-26 The Johns Hopkins University School Of Medicine Mutant hypoxia inducible factor-1 HIF-1
US6005012A (en) * 1998-10-29 1999-12-21 The Regents Of The University Of California Method for producing hydrophobic aerogels
US6408301B1 (en) * 1999-02-23 2002-06-18 Eastman Kodak Company Interactive image storage, indexing and retrieval system
EP1075147A1 (en) 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Motion estimation
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
KR100680452B1 (ko) 2000-02-22 2007-02-08 주식회사 팬택앤큐리텔 움직임 벡터 메모리의 갱신방법 및 장치
IT1321181B1 (it) 2000-05-04 2003-12-30 Magneti Marelli Spa Metodo e dispositivo per la stima della posizione di un corpoattuatore in un azionatore elettromagnetico per il comando di una
FR2811791B1 (fr) 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US6516501B2 (en) * 2000-07-31 2003-02-11 Vazquez-Perez Jose Fernando Method and apparatus for ecological burial
KR100375708B1 (ko) 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
US20020106191A1 (en) * 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
KR100878927B1 (ko) 2001-01-16 2009-01-19 파나소닉 주식회사 정보기록장치, 정보기록방법 및 기록매체
BR0207854A (pt) * 2001-03-07 2004-08-24 Merck Patent Gmbh Tecnologia de expressão para proteìnas contendo uma porção de anticorpo de isotipo hìbrido
JP4157686B2 (ja) * 2001-05-15 2008-10-01 株式会社モノリス 画像符号化および復号のための方法および装置
US6804301B2 (en) * 2001-08-15 2004-10-12 General Instrument Corporation First pass encoding of I and P-frame complexity for compressed digital video
US6985231B2 (en) * 2001-09-20 2006-01-10 Strainoptics, Inc. Method and apparatus for measuring the optical quality of a reflective surface
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100480787B1 (ko) * 2001-11-27 2005-04-07 삼성전자주식회사 좌표 인터폴레이터의 키 값 데이터 부호화/복호화 방법 및 장치
JP4610195B2 (ja) 2001-12-17 2011-01-12 マイクロソフト コーポレーション スキップマクロブロックコード化
US20030123546A1 (en) 2001-12-28 2003-07-03 Emblaze Systems Scalable multi-level video coding
FI114527B (fi) * 2002-01-23 2004-10-29 Nokia Corp Kuvakehysten ryhmittely videokoodauksessa
CN100581232C (zh) * 2002-03-15 2010-01-13 诺基亚有限公司 用于在视频序列中对运动进行编码的方法
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US7831990B2 (en) 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
KR100475060B1 (ko) * 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
US6925622B2 (en) * 2002-09-30 2005-08-02 Freescale Semiconductor, Inc. System and method for correlated clock networks
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US20040080078A1 (en) * 2002-10-25 2004-04-29 Collins David C. Methods and systems for producing a desired apparent coloring in an object produced through rapid prototyping
KR100513732B1 (ko) * 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
GB0229354D0 (en) 2002-12-18 2003-01-22 Robert Gordon The University Video encoding
KR100693669B1 (ko) * 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US7949047B2 (en) 2003-03-17 2011-05-24 Qualcomm Incorporated System and method for partial intraframe encoding for wireless multimedia transmission
US7489342B2 (en) 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US8135683B2 (en) * 2003-12-16 2012-03-13 International Business Machines Corporation Method and apparatus for data redundancy elimination at the block level
TWI238651B (en) 2004-04-30 2005-08-21 Benq Corp Method and apparatus for determining frame status of video data
JP4421940B2 (ja) * 2004-05-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置および方法、並びに動画像復号化装置および方法
KR100679740B1 (ko) 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US8184108B2 (en) 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US20060083298A1 (en) * 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
TWI254571B (en) 2004-12-07 2006-05-01 Sunplus Technology Co Ltd Method for fast multiple reference frame motion estimation
KR100760258B1 (ko) 2004-12-10 2007-09-19 한국전자통신연구원 범용적 다시점 동영상 부호화/복호화 장치 및 방법
US7671894B2 (en) 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7710462B2 (en) * 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US20060146932A1 (en) * 2004-12-30 2006-07-06 Krit Panusopone Method and apparatus for providing motion estimation with weight prediction
US20060233247A1 (en) * 2005-04-13 2006-10-19 Visharam Mohammed Z Storing SVC streams in the AVC file format
US20060254010A1 (en) * 2005-05-13 2006-11-16 Eugene Wagner Interproximal tool
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
KR101244911B1 (ko) 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
KR100667830B1 (ko) 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US7903737B2 (en) 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
EP1972147B8 (en) * 2006-01-09 2017-05-10 Dolby International AB Methods and Apparatus for Illumination and Color Compensation for Multiview Video Coding
JP5199123B2 (ja) * 2006-01-12 2013-05-15 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
WO2007099678A1 (ja) * 2006-03-01 2007-09-07 Matsushita Electric Industrial Co., Ltd. 送信装置および送受信装置
US20090225826A1 (en) * 2006-03-29 2009-09-10 Purvin Bibhas Pandit Multi-View Video Coding Method and Device
RU2443074C2 (ru) * 2006-07-06 2012-02-20 Томсон Лайсенсинг Способ и устройство для отделения номера кадра и/или счетчика очередности изображения (рос) для мультивидового видеокодирования и видеодекодирования
JP5013993B2 (ja) 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
US20100002762A1 (en) 2006-10-13 2010-01-07 Purvin Bibhas Pandit Method for reference picture management involving multiview video coding
BRPI0716957A2 (pt) 2006-10-13 2013-10-29 Thomson Licensing Sintaxe de gerenciamento de lista de imagens de referência para codificação de vídeo de múltiplas vistas
EP2080379B1 (en) * 2006-10-16 2018-08-22 Nokia Technologies Oy System and method for using parallelly decodable slices for multi-view video coding
EP2418854A3 (en) 2006-10-24 2012-06-06 Thomson Licensing Picture identification for multi-view video coding
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
WO2009050658A2 (en) * 2007-10-15 2009-04-23 Nokia Corporation Motion skip and single-loop encoding for multi-view video content
US8553781B2 (en) * 2007-12-07 2013-10-08 Thomson Licensing Methods and apparatus for decoded picture buffer (DPB) management in single loop decoding for multi-view video
JP4569635B2 (ja) * 2008-01-17 2010-10-27 カシオ計算機株式会社 電波受信装置および電波時計

Also Published As

Publication number Publication date
US20100027660A1 (en) 2010-02-04
US20100091844A1 (en) 2010-04-15
US20100020870A1 (en) 2010-01-28
EP3139615A1 (en) 2017-03-08
KR100949983B1 (ko) 2010-03-29
CA2647735A1 (en) 2007-10-11
KR20090099586A (ko) 2009-09-22
US7782943B2 (en) 2010-08-24
US8170108B2 (en) 2012-05-01
US8526504B2 (en) 2013-09-03
KR100966568B1 (ko) 2010-06-29
KR20090101500A (ko) 2009-09-28
RU2530310C2 (ru) 2014-10-10
EP2005753A1 (en) 2008-12-24
JP5055355B2 (ja) 2012-10-24
US8611419B2 (en) 2013-12-17
KR20090099585A (ko) 2009-09-22
US20100215100A1 (en) 2010-08-26
WO2007114610A1 (en) 2007-10-11
KR20090099093A (ko) 2009-09-21
ES2636917T3 (es) 2017-10-10
US20100027654A1 (en) 2010-02-04
KR20090101496A (ko) 2009-09-28
US20100026882A1 (en) 2010-02-04
JP5054092B2 (ja) 2012-10-24
KR100934674B1 (ko) 2009-12-31
EP2008460B1 (en) 2017-05-17
US7782944B2 (en) 2010-08-24
DE202007019459U1 (de) 2012-09-13
EP2025170B1 (en) 2015-01-07
KR100949977B1 (ko) 2010-03-29
KR20090099587A (ko) 2009-09-22
PL2008460T3 (pl) 2017-10-31
US8483273B2 (en) 2013-07-09
US20100091885A1 (en) 2010-04-15
KR100949974B1 (ko) 2010-03-29
US20100316135A1 (en) 2010-12-16
PL2005753T3 (pl) 2017-07-31
US20090296811A1 (en) 2009-12-03
KR20090006095A (ko) 2009-01-14
DE202007019458U1 (de) 2012-09-13
KR100966569B1 (ko) 2010-06-30
US20100316361A1 (en) 2010-12-16
US20100260265A1 (en) 2010-10-14
US20100027659A1 (en) 2010-02-04
JP5247677B2 (ja) 2013-07-24
KR100934675B1 (ko) 2009-12-31
US8457207B2 (en) 2013-06-04
US8565319B2 (en) 2013-10-22
KR100959538B1 (ko) 2010-05-27
EP2005753A4 (en) 2010-02-03
AU2007232607B2 (en) 2010-09-16
KR100934672B1 (ko) 2009-12-31
JP5055353B2 (ja) 2012-10-24
US20100080293A1 (en) 2010-04-01
KR20090099096A (ko) 2009-09-21
KR20090101499A (ko) 2009-09-28
KR100943911B1 (ko) 2010-02-24
US20100091884A1 (en) 2010-04-15
EP3151564A1 (en) 2017-04-05
ES2533765T3 (es) 2015-04-15
EP2008461B1 (en) 2015-09-16
US20100027682A1 (en) 2010-02-04
KR100949981B1 (ko) 2010-03-29
KR20090099095A (ko) 2009-09-21
US7782946B2 (en) 2010-08-24
KR20090006093A (ko) 2009-01-14
EP2005753B1 (en) 2016-12-21
KR20090007331A (ko) 2009-01-16
KR20090099089A (ko) 2009-09-21
US8634475B2 (en) 2014-01-21
KR100937431B1 (ko) 2010-01-18
KR20090096651A (ko) 2009-09-11
US7782947B2 (en) 2010-08-24
KR100966570B1 (ko) 2010-06-29
KR20100074314A (ko) 2010-07-01
KR20090099091A (ko) 2009-09-21
US8428130B2 (en) 2013-04-23
KR20090101501A (ko) 2009-09-28
RU2010111711A (ru) 2011-10-10
JP2009532932A (ja) 2009-09-10
US8611427B2 (en) 2013-12-17
KR20090099090A (ko) 2009-09-21
EP2008461A4 (en) 2010-02-03
KR20090101498A (ko) 2009-09-28
US20100091886A1 (en) 2010-04-15
EP2008461A1 (en) 2008-12-31
KR20090099094A (ko) 2009-09-21
US20100074334A1 (en) 2010-03-25
EP2005752A1 (en) 2008-12-24
US20100316136A1 (en) 2010-12-16
US8565303B2 (en) 2013-10-22
US8363732B2 (en) 2013-01-29
JP2009532934A (ja) 2009-09-10
KR100934671B1 (ko) 2009-12-31
US8472519B2 (en) 2013-06-25
DE202007019446U1 (de) 2012-09-05
US20100316360A1 (en) 2010-12-16
WO2007114611A1 (en) 2007-10-11
KR100949976B1 (ko) 2010-03-29
AU2007232607A1 (en) 2007-10-11
BRPI0710048A2 (pt) 2011-08-02
US7782948B2 (en) 2010-08-24
US8576920B2 (en) 2013-11-05
KR20090099584A (ko) 2009-09-22
WO2007114608A1 (en) 2007-10-11
US20100128787A1 (en) 2010-05-27
US8432972B2 (en) 2013-04-30
KR100949978B1 (ko) 2010-03-29
EP2005752A4 (en) 2010-06-09
EP2025170A4 (en) 2010-02-17
KR100949975B1 (ko) 2010-03-29
US8411744B2 (en) 2013-04-02
CA2647735C (en) 2013-08-06
US7782945B2 (en) 2010-08-24
JP2009532930A (ja) 2009-09-10
KR20090006094A (ko) 2009-01-14
US20100316362A1 (en) 2010-12-16
KR20090101502A (ko) 2009-09-28
US7782950B2 (en) 2010-08-24
JP5055354B2 (ja) 2012-10-24
MX2008012437A (es) 2008-11-18
KR100966567B1 (ko) 2010-06-29
KR100949979B1 (ko) 2010-03-29
WO2007114609A1 (en) 2007-10-11
US20100111169A1 (en) 2010-05-06
KR100998912B1 (ko) 2010-12-08
US8571113B2 (en) 2013-10-29
US8559523B2 (en) 2013-10-15
KR20090099092A (ko) 2009-09-21
US20100091883A1 (en) 2010-04-15
US20090279608A1 (en) 2009-11-12
WO2007114612A1 (en) 2007-10-11
KR100934673B1 (ko) 2009-12-31
US20100091843A1 (en) 2010-04-15
JP2009532933A (ja) 2009-09-10
KR20090004996A (ko) 2009-01-12
US20100026884A1 (en) 2010-02-04
US20100026883A1 (en) 2010-02-04
EP2025170A1 (en) 2009-02-18
US20100086036A1 (en) 2010-04-08
DE202007019454U1 (de) 2012-09-03
JP2009532931A (ja) 2009-09-10
EP2008460A4 (en) 2010-02-03
US7782949B2 (en) 2010-08-24
KR100949982B1 (ko) 2010-03-29
KR100959537B1 (ko) 2010-05-27
KR100949980B1 (ko) 2010-03-29
US20100027653A1 (en) 2010-02-04
KR20090101497A (ko) 2009-09-28
US8559505B2 (en) 2013-10-15
KR100959536B1 (ko) 2010-05-27
EP2008460A1 (en) 2008-12-31

Similar Documents

Publication Publication Date Title
ES2619522T3 (es) Un método y un aparato para descodificar/codificar una señal de video multivisión