ES2906182T3 - Método para decodificar vídeo multivista - Google Patents

Método para decodificar vídeo multivista Download PDF

Info

Publication number
ES2906182T3
ES2906182T3 ES14876960T ES14876960T ES2906182T3 ES 2906182 T3 ES2906182 T3 ES 2906182T3 ES 14876960 T ES14876960 T ES 14876960T ES 14876960 T ES14876960 T ES 14876960T ES 2906182 T3 ES2906182 T3 ES 2906182T3
Authority
ES
Spain
Prior art keywords
block
prediction
current block
motion vector
curr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14876960T
Other languages
English (en)
Inventor
Jong Ki Han
Jae Yung Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Application granted granted Critical
Publication of ES2906182T3 publication Critical patent/ES2906182T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

Un método para decodificar un vídeo multivista, comprendiendo el método: determinar esquemas de predicción de movimiento realizados para que se decodifique un bloque actual y un bloque coubicado correspondiente al bloque actual, se determina que los esquemas de predicción de movimiento son una predicción a largo plazo, una predicción a corto plazo y una predicción intervista; y generar un vector de movimiento del bloque actual utilizando un vector de movimiento del bloque coubicado según los esquemas de predicción de movimiento determinados, en donde cuando la predicción intervista se realiza para uno del bloque actual y el bloque coubicado y luego se realiza la predicción a largo plazo o la predicción a corto plazo para el otro bloque, se genera el vector de movimiento del bloque actual utilizando un vector predeterminado o el vector de movimiento del bloque coubicado, en donde el bloque coubicado incluye un bloque temporal coubicado.

Description

DESCRIPCIÓN
Método para decodificar vídeo multivista
Campo técnico
La presente divulgación se refiere a codificar/descodificar un vídeo multivista y, más particularmente, a métodos y aparatos para realizar predicción de vector de movimiento y predicción de residuo para un vídeo multivista.
Antecedentes de la técnica
La codificación de vídeo de alta eficiencia (HEVC), que se sabe que tiene aproximadamente el doble de eficiencia de compresión que la codificación de vídeo avanzada/H.264 heredada (H.264/AVC), se ha estandarizado recientemente. HEVC define una unidad de codificación (CU), una unidad de predicción (PU) y una unidad de transformación (TU) en una estructura de árbol cuádruple, y adopta un desplazamiento adaptativo de muestra (SAO) y un filtro en bucle, como un filtro de desbloqueo. HEVC también aumenta la eficiencia de codificación de compresión al mejorar la intrapredicción y la interpredicción convencionales.
Mientras tanto, la codificación de vídeo escalable (SVC) se está estandarizando como una extensión de HEVC, y la codificación de vídeo tridimensional (3DVC) basada en H.264/AV o HEVC también se está estandarizando a través de la mejora de la codificación multivista convencional (MVC).
El grupo de expertos en vídeo, MPEG de la organización internacional de estandarización, ISO/IEC, comenzó recientemente a trabajar en la estandarización de 3DVC. La estandarización de 3DVC se basa en una técnica de codificación existente para vídeo bidimensional (2D) de única vista (H.264/AVC), una técnica de codificación para vídeo multivista 2D (MVC) y HEVC que recientemente ha sido estandarizado por el Equipo Colaborativo Conjunto sobre Codificación de Vídeo (JCT-VC).
Específicamente, el MPEG y el ITU-T han decidido estandarizar 3DVC de manera conjunta y organizaron un nuevo grupo colaborativo de estandarización llamado Equipo de colaboración conjunta sobre extensiones de codificación de vídeo 3D (JCT-3V, Joint Collaborative Team on 3D Video Coding Extensions). El JCT-3V está definiendo una sintaxis avanzada para la codificación/decodificación de profundidad en el MVC convencional y estandarizando una técnica de codificación/decodificación para una nueva imagen en color e imagen de profundidad basada en H.264/AVC y una técnica de codificación/decodificación para un imagen en color multivista e imagen de profundidad basada en 3D-HEVC.
Se está discutiendo una variedad de técnicas para la estandarización de 3DVC. Por lo general, incluyen un esquema de codificación/descodificación basado en la predicción intervista. En otras palabras, debido a que la cantidad de datos de un vídeo multivista para codificar y transmitir aumenta en proporción al número de vistas, existe la necesidad de desarrollar una técnica eficiente para codificar/decodificar un vídeo multivista basado en la dependencia entre vistas. ZHANG L ET AL: "Test Model 6 of 3D-HEVC and MV-HEVC", 6. REUNIÓN JCT-3V; 25-10-2013 - 1-11-2013; GINEBRA; (EL EQUIPO DE COLABORACIÓN CONJUNTA EN DESARROLLO DE EXTENSIÓN DE CODIFICACIÓN DE VÍDEO 3D DE ISO/IEC JTC1/SC29/WG11 Y ITU-T SG.16); N.° JCT3V-F1005 divulga la codificación de vistas dependientes.
TECH G ET AL: "3D-HEVC Draft Text 2", 6. REUNIÓN JCT-3V; 25-10-2013 - 1-11-2013; GINEBRA; (EL EQUIPO DE COLABORACIÓN CONJUNTA EN DESARROLLO DE EXTENSIÓN DE CODIFICACIÓN DE VÍDEO 3D DE ISO/IEC JTC1/SC29/WG11 Y ITU-T SG.16); N.° JCT3V-F1001, especifica la codificación de vídeo multivista y profundidad, denominada codificación de vídeo de alta eficiencia 3D (3D-HEVC).
ZHANG L ET AL: "CE4: Further improvements on advanced residual prediction", 6. REUNIÓN JCT-3V; 25-10-2013 -1-11-2013; GINEBRA; (EL EQUIPO DE COLABORACIÓN CONJUNTA EN DESARROLLO DE EXTENSIÓN DE CODIFICACIÓN DE VÍDEO 3D DE ISO/IEC JTC1/SC29/WG11 Y ITU-T SG.16); N.° JCT3V-F0123 divulga una propuesta que es un seguimiento de JCT3V-E0124 y mejora la eficiencia de codificación de ARP.
ZHANG K ET AL: "3D-CE4: Results on improved advanced residual prediction", 6. REUNIÓN JCT-3V; 25-10-2013 -1-11-2013; GINEBRA; (EL EQUIPO DE COLABORACIÓN CONJUNTA EN DESARROLLO DE EXTENSIÓN DE CODIFICACIÓN DE VÍDEO 3D DE ISO/IEC JTC1/SC29/WG11 Y ITU-T SG.16); N.° JCT3V-F0108 presenta un método de derivación del vector de disparidad adaptativo para la predicción de residuo avanzada.
Divulgación
Problema técnico
Para superar el problema anterior, un aspecto de la presente divulgación es proporcionar un método y un aparato para codificar y decodificar un vector de movimiento para un vídeo multivista a través de la predicción de vector de movimiento.
Otro aspecto de la presente divulgación es proporcionar un método y un aparato para codificar y decodificar un residuo para un vídeo multivista a través de la predicción de residuo.
Solución técnica
La invención está definida por las reivindicaciones adjuntas. En un aspecto de la presente divulgación, un método para decodificar un vídeo multivista incluye determinar esquemas de predicción de movimiento realizados para decodificar un bloque actual y un bloque correspondiente que corresponde al bloque actual, y generar un predictor de vector de movimiento del bloque actual usando un vector de movimiento del bloque correspondiente según los esquemas de predicción de movimiento determinados.
La determinación de los esquemas de predicción de movimiento puede incluir la adquisición de datos para la decodificación de vídeo mediante la decodificación de un flujo de bits recibido y la determinación de los esquemas de predicción de movimiento realizados para el bloque actual y el bloque correspondiente utilizando los datos para la decodificación de vídeo.
La adquisición de datos para la decodificación de vídeo puede incluir la realización de decodificación de entropía, descuantificación y transformación inversa en el flujo de bits recibido.
La determinación de los esquemas de predicción de movimiento puede incluir la identificación de los esquemas de predicción de movimiento usando al menos una de la información de Identificación (ID) de vista, información de orden de vista e información de bandera para identificar un esquema de predicción de movimiento, incluido en los datos para la decodificación de vídeo.
La determinación de esquemas de predicción de movimiento puede incluir realizar una entre predicción a largo plazo, predicción a corto plazo o predicción intervista para cada bloque actual y el bloque correspondiente, utilizando los datos para la decodificación de vídeo.
La generación de un predictor de vector de movimiento del bloque actual puede incluir, cuando se realiza una predicción a largo plazo para el bloque actual y el bloque correspondiente, generar el predictor de vector de movimiento del bloque actual como el vector de movimiento del bloque correspondiente.
La generación de un predictor de vector de movimiento del bloque actual puede incluir, cuando se realiza una predicción a corto plazo para el bloque actual y el bloque correspondiente, generar el predictor de vector de movimiento del bloque actual escalando el vector de movimiento del bloque correspondiente utilizando una relación entre una distancia de referencia interimágenes del bloque actual y una distancia de referencia interimágenes del bloque correspondiente.
La generación de un predictor de vector de movimiento del bloque actual puede incluir, cuando se realiza una predicción intervista para el bloque actual y el bloque correspondiente, generar el predictor de vector de movimiento del bloque actual escalando el vector de movimiento del bloque correspondiente utilizando una relación entre una distancia de referencia intervista del bloque actual y una distancia de referencia intervista del bloque correspondiente. La generación de un predictor de vector de movimiento del bloque actual puede incluir, cuando se realizan diferentes esquemas de predicción de movimiento para el bloque actual y el bloque correspondiente, no usar el vector de movimiento del bloque correspondiente.
La generación de un predictor de vector de movimiento del bloque actual puede incluir además, cuando el vector de movimiento del bloque correspondiente no se usa debido a diferentes esquemas de predicción de movimiento usados para el bloque actual y el bloque correspondiente, generar el predictor de vector de movimiento del bloque actual basado en un vector predeterminado.
El vector predeterminado puede ser (0, 0).
La generación de un predictor de vector de movimiento del bloque actual puede incluir, cuando se realiza una predicción intervista para uno del bloque actual y el bloque correspondiente y se realiza una predicción a largo plazo o una predicción a corto plazo para el otro bloque, no usar el vector de movimiento del bloque correspondiente. La generación de un predictor de vector de movimiento del bloque actual puede incluir, cuando se realiza una predicción a largo plazo para uno del bloque actual y el bloque correspondiente y se realiza una predicción a corto plazo para el otro bloque, o cuando se realiza una predicción a corto plazo para uno del bloque actual y el bloque correspondiente y la predicción a largo plazo se realiza para el otro bloque, sin utilizar el vector de movimiento del bloque correspondiente.
El método puede incluir además recuperar un vector de movimiento del bloque actual añadiendo el predictor de vector de movimiento del bloque actual a una diferencia de vector de movimiento del bloque actual incluida en los datos para la decodificación de vídeo.
En otro aspecto de la presente divulgación, un método para decodificar un vídeo multivista incluye determinar un esquema de predicción de movimiento realizado para un primer bloque de referencia al que se hace referencia para la predicción intervista de un bloque actual a decodificar, y generar una residuo de predicción para el bloque actual según el esquema de predicción de movimiento del primer bloque de referencia.
La determinación de un esquema de predicción de movimiento realizado para un primer bloque de referencia puede incluir la adquisición de datos para la decodificación de vídeo mediante la decodificación de un flujo de bits recibido y la determinación del esquema de predicción de movimiento realizado para el primer bloque de referencia, utilizando los datos para la decodificación de vídeo.
La adquisición de datos para la decodificación de vídeo puede incluir la realización de decodificación de entropía, descuantificación y transformación inversa en el flujo de bits recibido.
La determinación de un esquema de predicción de movimiento realizado para un primer bloque de referencia puede incluir la identificación del esquema de predicción de movimiento utilizando al menos una de la información de ID de Vista, información de orden de vista e información de bandera para identificar un esquema de predicción de movimiento, incluido en los datos para la decodificación de vídeo.
La determinación de un esquema de predicción de movimiento realizado para un primer bloque de referencia puede incluir determinar si se realiza una predicción temporal o una predicción intervista para el primer bloque de referencia utilizando los datos para la decodificación de vídeo.
La generación de un residuo de predicción para el bloque actual puede incluir generar, como residuo de predicción, una diferencia entre un segundo bloque de referencia al que se hace referencia para la predicción de movimiento temporal del bloque actual y un tercer bloque de referencia al que se hace referencia para el primer bloque de referencia.
El segundo bloque de referencia puede pertenecer a una imagen más cercana en una dirección temporal en una lista de referencia para una imagen actual a la que pertenece el bloque actual.
La generación de un residuo de predicción para el bloque actual puede incluir, cuando se determina que la predicción de movimiento temporal se realiza para el primer bloque de referencia, generar un vector de movimiento escalado mediante la aplicación de un factor de escala a un vector de movimiento utilizado para buscar el tercer bloque de referencia, y determinando el segundo bloque de referencia usando el vector de movimiento escalado.
El factor de escala se puede generar en función de una diferencia entre un número de una imagen de referencia a la que pertenece el primer bloque de referencia y un número de una imagen a la que pertenece el tercer bloque de referencia, al que se hace referencia para la predicción de movimiento temporal del primer bloque de referencia, y una diferencia entre un número de una imagen a la que pertenece el bloque actual y un número de una imagen a la que pertenece el segundo bloque de referencia.
La generación de un residuo de predicción para el bloque actual puede incluir, cuando se determina que la predicción intervista se realiza para el primer bloque de referencia, determinar el segundo bloque de referencia aplicando (0, 0) como vector de movimiento utilizado para buscar el segundo bloque de referencia.
El método puede incluir además la recuperación de un residuo del bloque actual añadiendo el residuo de predicción a una diferencia de residuo del bloque actual incluido en los datos para la decodificación de vídeo.
En otro aspecto de la presente divulgación, un aparato para decodificar un vídeo multivista incluye un procesador configurado para determinar un esquema de predicción de movimiento realizado para un primer bloque de referencia al que se hace referencia para la predicción intervista de un bloque actual a decodificar, y generar un residuo de predicción para el bloque actual según el esquema de predicción de movimiento del primer bloque de referencia. Efectos ventajosos
Según una realización de la presente divulgación, el método para realizar la predicción de vector de movimiento para un vídeo multivista permite la codificación/descodificación efectiva de un vector de movimiento durante la codificación/descodificación de un vídeo multivista. Es decir, un vector de movimiento temporal se puede predecir adaptativamente según los esquemas de predicción de vectores de movimiento usados para un bloque actual y un bloque correspondiente.
Según otra realización (no cubierta por la invención reivindicada) de la presente divulgación, el método para realizar la predicción de residuo para un vídeo multivista permite la codificación/descodificación efectiva de un residuo durante la codificación/descodificación de un vídeo multivista. Es decir, se puede evitar que ocurra un error en el cálculo de un factor de escala usado para escalar un vector de movimiento durante la generación de un residuo de predicción, evitando así un error en la predicción de residuo para un vídeo multivista.
Breve descripción de los dibujos
La Figura 1 es una vista conceptual que ilustra un método de predicción de vector de movimiento según una realización de la presente divulgación.
La Figura 2 es una vista conceptual que ilustra un método de predicción de vector de movimiento según otra realización de la presente divulgación.
La Figura 3 es una vista conceptual que ilustra un método de predicción de vector de movimiento según otra realización de la presente divulgación.
La Figura 4 es una vista conceptual que ilustra un método de predicción de vector de movimiento según otra realización de la presente divulgación.
La Figura 5 es una vista conceptual que ilustra un método de predicción de vector de movimiento según otra realización de la presente divulgación.
La Figura 6 es un diagrama de flujo que ilustra un método de predicción de vector de movimiento según una realización de la presente divulgación.
La Figura 7 es una vista conceptual que ilustra un método de predicción de residuo según una realización de la presente divulgación.
La Figura 8 es una vista conceptual que ilustra un método de predicción de residuo según otra realización de la presente divulgación.
La Figura 9 es una vista conceptual que ilustra un método de predicción de residuo según otra realización de la presente divulgación.
La Figura 10 es un diagrama de bloques de aparatos para codificar y decodificar un vídeo multivista según una realización de la presente divulgación.
La Figura 11 es un diagrama de bloques de un aparato para codificar un vídeo multivista según una realización de la presente divulgación.
La Figura 12 es un diagrama de bloques de un aparato para decodificar un vídeo multivista según una realización de la presente divulgación.
Modo para llevar a cabo la invención
Se pueden realizar diversas modificaciones a la presente divulgación, y la presente divulgación se puede implementar en diversas realizaciones. Diversas realizaciones de la presente divulgación se describen con referencia a los dibujos adjuntos. Sin embargo, el alcance de la presente divulgación no pretende limitarse a las realizaciones particulares y debe entenderse que la presente divulgación cubre todas las modificaciones, equivalentes y/o alternativas que caen dentro del alcance de la presente divulgación. En relación con una descripción de los dibujos, los mismos números de referencia indican los mismos componentes.
El término, tal como se usa en la presente divulgación, primero, segundo, A, B y similares se puede usar para describir diversos componentes, sin limitar los componentes. Estas expresiones se utilizan para distinguir un componente de otro componente. Por ejemplo, un primer componente puede denominarse como segundo componente y viceversa sin salirse del alcance de la presente divulgación. El término y/o incluye una combinación de una pluralidad de elementos relacionados o cualquiera de la pluralidad de elementos relacionados.
Cuando se dice que un componente se "acopla con/a" o se "conecta a" otro componente, debe entenderse que un componente se acopla o se conecta al otro componente directamente o a través de cualquier otro componente intermedio. Por otro lado, cuando se dice que un componente se "acopla directamente con/a" o se "conecta directamente a" otro componente, debe entenderse que un componente se acopla o se conecta directamente al otro componente sin ningún otro componente entremedio.
Los términos utilizados en la presente divulgación se proporcionan para describir simplemente realizaciones específicas, sin pretender limitar el alcance de otras realizaciones. Debe entenderse que las formas singulares incluyen referentes plurales a menos que el contexto dicte claramente lo contrario. En la presente divulgación, el término "incluye" o "tiene" significa la presencia de una característica, un número, una etapa, una operación, un componente, una parte o una combinación de dos o más de ellos como se describe en la presente divulgación, sin excluir la presencia de una o más características, números, etapas, operaciones, componentes, partes o una combinación de dos o más de ellos.
A menos que se defina de otro modo, los términos y palabras que incluyen términos técnicos o científicos usados en la siguiente descripción y reivindicaciones pueden tener los mismos significados que los entendidos en general por los expertos en la técnica. Los términos, tal como se definen generalmente en los diccionarios, pueden interpretarse con significados iguales o similares a los significados contextuales de la tecnología relacionada. A menos que se defina lo contrario, los términos no deben interpretarse como significados ideales o excesivamente formales.
Un aparato de codificación de vídeo y un aparato de decodificación de vídeo como se describe a continuación puede ser un ordenador personal (PC), un ordenador portátil, un asistente digital personal (PDA), un reproductor multimedia portátil (PMP), una PlayStation Portable (PSP), un terminal de comunicación inalámbrica, un teléfono inteligente y un terminal de servidor, como un servidor de aplicaciones de TV y un servidor de servicios, y puede cubrir una amplia gama de dispositivos, cada uno de los cuales incluye un dispositivo de comunicación, como un módem de comunicación, para realizar la comunicación con un terminal de usuario como diversos dispositivos o una red de comunicación alámbrica/inalámbrica, una memoria para almacenar programas y datos para codificar o decodificar un vídeo o realizar interpredicción o intrapredicción para codificar o decodificar, y un microprocesador para realizar computación y control mediante la ejecución de los programas.
Además, un vídeo codificado en un flujo de bits por el aparato de codificación de vídeo puede transmitirse al aparato de decodificación de vídeo en tiempo real o en tiempo no real a través de una red alámbrica/inalámbrica como internet, una red de comunicación inalámbrica de corto alcance, un Red de área local inalámbrica (WLAN), una red de banda ancha inalámbrica (WiBro), una red de comunicación móvil o diversas interfaces de comunicación, como un cable y un bus serie universal (USB). El aparato de decodificación de vídeo puede recuperar y reproducir el vídeo al decodificar el vídeo recibido.
En general, un vídeo se puede componer de una serie de imágenes, y cada imagen se puede dividir en áreas predeterminadas, como cuadros o bloques. Si una imagen se divide en bloques, los bloques divididos pueden clasificarse en gran medida en intrabloques e interbloques dependiendo de un esquema de codificación. Un intrabloque se refiere a un bloque codificado mediante codificación de intrapredicción, y la codificación de intrapredicción es un esquema para generar un bloque de predicción al predecir píxeles de un bloque actual utilizando píxeles de bloques anteriores recuperados a través de codificación y decodificación en una imagen actual que está siendo codificada, y codificar las diferencias entre los píxeles del bloque de predicción y los del bloque actual. Un interbloque se refiere a un bloque codificado mediante codificación interpredicción. La codificación interpredicción es un esquema para generar un bloque de predicción al predecir de un bloque actual de una imagen actual haciendo referencia a una o más imágenes anteriores o futuras y codificar la diferencia entre el bloque de predicción y el bloque actual. Un cuadro al que se hace referencia para codificar o decodificar una imagen actual se denomina cuadro de referencia. Además, los expertos en la técnica pueden entender que el término, como se usa en esta memoria, "imagen" es intercambiable con otros términos equivalentes, imagen, marco o similares. Además, los expertos en la técnica pueden entender que una imagen de referencia es una imagen recuperada.
Además, el término bloque cubre conceptualmente una unidad de codificación (CU), una unidad de predicción (PU) y una unidad de transformación (TU) definidas en la codificación de vídeo de alta eficiencia (HEVC). En particular, la estimación de movimiento se puede realizar sobre una base de PU.
Específicamente, un proceso de búsqueda de un bloque similar a una PU en un cuadro codificado anterior se denomina Estimación de Movimiento (ME). ME puede ser un proceso de búsqueda de un bloque que tenga el error más pequeño con un bloque actual, sin significar un movimiento real de un bloque.
Además, la presente divulgación se refiere a una técnica de códec de vídeo para un vídeo multivista, y ME puede aplicarse a un proceso de referencia a una imagen de una vista diferente. En esta memoria, el proceso de hacer referencia a una imagen de una vista diferente puede denominarse predicción intervista.
Ahora, se describirán en detalle realizaciones preferidas de la presente divulgación con referencia a los dibujos adjuntos.
Primero se da una descripción de una realización de codificación y decodificación de un vector de movimiento por predicción de vector de movimiento, y luego una realización de codificación y decodificación de un residuo por predicción de residuo.
Realización 1 - Método para codificar y decodificar el vector de movimiento a través de predicción de vector de movimiento
La predicción de vector de movimiento puede significar un proceso de calcular un Predictor de Vector de Movimiento Temporal (TMVP) usando una correlación entre vectores de movimiento temporal, o calcular un Predictor de Vector de Movimiento Espacial (SMVP) usando una correlación entre vectores de movimiento espacial. Un valor calculado al restar un Predictor de Vector de Movimiento (MVP) de un vector de movimiento de un bloque actual puede denominarse Diferencia de Vector de Movimiento (MVD).
La Figura 1 es una vista conceptual que ilustra un método de predicción de vector de movimiento según una realización de la presente divulgación.
Con referencia a la Figura 1, se puede construir un vídeo tridimensional (3D) usando imágenes capturadas de una pluralidad de vistas en un vídeo multivista. Una vista se puede distinguir o identificar mediante un ID de Vista.
Específicamente, un vídeo multivista puede incluir un vídeo de una vista base y al menos un vídeo de una vista mejorada o una vista de extensión.
En la Figura 1, ID de Vista 0 puede identificar una imagen en una vista de referencia, ID de Vista 1 puede incluir una imagen (una imagen actual) de una vista que se codificará o decodificará actualmente, e ID de Vista 2 puede incluir una imagen (una imagen correspondiente) de una vista que ha sido codificada o decodificada antes de codificar y decodificar la imagen actual. Un bloque correspondiente, PUcol puede referirse a un bloque ubicado en correspondencia con la posición de un bloque actual PUcurr en una imagen diferente a la imagen actual Piccurr que incluye el bloque actual PUcurr. Por ejemplo, el bloque correspondiente PUcol puede referirse a un bloque coubicado con el bloque actual PUcurr en una imagen diferente de la imagen actual Piccurr. Además, una imagen correspondiente Piccol puede hacer referencia a una imagen que incluye el bloque correspondiente PUcol.
La estimación de movimiento se puede realizar en la imagen actual Piccurr para referirse a una imagen de una vista diferente u otra imagen de la misma vista.
En la presente divulgación, la predicción a largo plazo puede significar referirse a una imagen de la misma vista aparte de una imagen actual por una diferencia de tiempo predeterminada o más lejos. En consecuencia, a hacer referencia a una imagen de la misma vista aparte de una imagen actual con una diferencia de tiempo menor que la diferencia de tiempo predeterminada se le puede hacer referencia como predicción a corto plazo.
Un resultado de escalar un vector de movimiento del bloque correspondiente PUcol ubicado en correspondencia con el bloque actual PUcurr en la imagen correspondiente Piccol puede usarse como predictor de vector de movimiento (MVP) del bloque actual PUcurr. La imagen correspondiente Piccol es diferente de la imagen actual Piccurr que incluye el bloque actual PU curr.
La Figura 1 ilustra un caso en el que a una imagen de una vista diferente se le hace referencia para el bloque actual PUcurr y a una imagen de una vista diferente también se le hace referencia para el bloque correspondiente PUcol. Es decir, la predicción intervista se puede realizar tanto para el bloque actual PUcurr y para el bloque correspondiente PUcol.
En este caso, la distancia de referencia intervista del bloque actual PUcurr puede ser diferente de la distancia de referencia intervista del bloque correspondiente PUcol. En esta memoria, una distancia de referencia intervista puede ser la diferencia entre los ID de Vista.
Haciendo referencia a la Figura 1, el bloque actual PUcurr pertenece a ID de Vista 1 y se refiere a una imagen de referencia PicRef perteneciente al ID de Vista 0. Es decir, la distancia de referencia intervista del bloque actual PUcurr es la diferencia entre los ID de Vista, 1.
El bloque correspondiente PUcol pertenece al ID de Vista 2 y se refiere a una imagen de referencia PicRef perteneciente al ID de Vista 0. Es decir, la distancia de referencia intervista del bloque correspondiente PUcol es la diferencia entre los ID de Vista, 2.
Debido a que la distancia de referencia intervista del bloque actual PUcurr es diferente de la distancia de referencia intervista del bloque correspondiente PUcol, es necesario escalar el vector de movimiento del bloque correspondiente PUcol.
A continuación se describirá con más detalle una operación para escalar el vector de movimiento del bloque correspondiente PUcol.
En el caso ilustrado de la Figura 1, el MVP del bloque actual PUcurr para codificar o decodificar un vector de movimiento MVcurr del bloque actual PUcurr puede adquirirse escalando el vector de movimiento MVcol del bloque correspondiente PUcol.
La operación para escalar el vector de movimiento MVcol del bloque correspondiente PUcol se detalla a continuación. Ecuación 1
Diffcurr = ViewIDcurr - ViewIDref
Diffcol = ViewIDcol - ViewIDcolref
En la Ecuación 1, la distancia de referencia intervista Diffcurr del bloque actual PUcurr es la diferencia entre el ID de Vista ViewIDcurr del bloque actual PUcurr y el ID de Vista ViewIDRef del bloque de referencia del bloque actual PUcurr.
La distancia de referencia intervista Diffcoi del bloque correspondiente PUcoi es la diferencia entre el ID de Vista ViewlDcoi del bloque correspondiente PUcol y el ID de Vista ViewlDcolref del bloque de referencia del bloque correspondiente PUcol.
Por lo tanto, un factor de escala (ScaleFactor) a aplicar al vector de movimiento MVcol del bloque correspondiente PUcol se puede calcular por la siguiente Ecuación 2.
Ecuación 2
S c a le F a c to r = Diffcurr
Diffcoi
En consecuencia, el predictor de vector de movimiento MVPcurr del bloque actual PUcurr se puede calcular multiplicando el vector de movimiento MVcol del bloque correspondiente PUcol por el factor de escala.
Ecuación 3
MVPcurr = ScaleFactor x MVcol
Es decir, el predictor de vector de movimiento MVPcurr del bloque actual PUcurr se puede expresar como la Ecuación 3 anterior.
La Figura 2 es una vista conceptual que ilustra un método de predicción de vector de movimiento según otra realización de la presente divulgación.
La Figura 2 ilustra un caso en el que se realiza predicción a corto plazo para el bloque actual PUcurr y el bloque correspondiente PUcol. La predicción a corto plazo puede significar referirse a una imagen de la misma vista aparte de una imagen actual con una diferencia temporal menor que una diferencia temporal predeterminada.
En el caso ilustrado de la Figura 2, el predictor de vector de movimiento MVPcurr del bloque actual PUcurr se puede generar escalando el vector de movimiento MVcol del bloque correspondiente PUcol utilizando una relación entre la distancia de referencia interimágenes del bloque actual PUcurr y la distancia de referencia interimágenes del bloque correspondiente PUcol. Una distancia de referencia interimágenes puede ser una diferencia de Recuento de Orden de Imágenes (POC) según un orden de tiempo.
La operación para escalar el vector de movimiento MVcol del bloque correspondiente PUcol se describe a continuación con mayor detalle.
Ecuación 4
Diffcurr = POCcurr - POCref
Diffcol = POCcol - POCcolref
En la Ecuación 4, la distancia de referencia interimágenes Diffcurr del bloque actual PUcurr es la diferencia entre el POC POCcurr de la imagen actual a la que pertenece el bloque actual PUcurr y el POC POCRef de una imagen de referencia a la que pertenece un bloque de referencia al que se hace referencia para el bloque actual PUcurr.
La distancia de referencia intervista Diffcol del bloque correspondiente PUcol es la diferencia entre el POC POCcol de la imagen correspondiente a la que pertenece el bloque correspondiente PUcol y el POC POCcolref de una imagen de referencia a la que pertenece un bloque de referencia al que se hace referencia para el bloque correspondiente PUcol. Un factor de escala que se aplicará al vector de movimiento MVcol del bloque correspondiente PUcol se puede calcular por la siguiente Ecuación 5.
Ecuación 5
S c a le F a c to r = Diffcurr
Diffcol
En consecuencia, el predictor de vector de movimiento MVPcurr del bloque actual PUcurr se puede calcular multiplicando el vector de movimiento MVcol del bloque correspondiente PUcol por el factor de escala.
Ecuación 6
MVPcurr = ScaleFactor x MVcol
Es decir, el MVP MVPcurr del bloque actual PUcurr se puede expresar como la Ecuación 6 anterior.
La Figura 3 es una vista conceptual que ilustra un método de predicción de vector de movimiento según otra realización de la presente divulgación.
La Figura 3 ilustra un caso en el que se realiza una predicción a largo plazo para el bloque actual PUcurr y el bloque correspondiente PUcol. La predicción a largo plazo puede significar referirse a una imagen de la misma vista aparte de una imagen actual con una diferencia temporal igual o mayor que una diferencia temporal predeterminada.
Cuando se realiza una predicción a largo plazo para el bloque actual PUcurr y el bloque correspondiente PUcol, el vector de movimiento MVcol del bloque correspondiente PUcol se puede generar como el predictor de vector de movimiento MVPcurr del bloque actual PU curr.
Ecuación 7
MVPcurr = MVcol
Es decir, el predictor de vector de movimiento MVPcurr del bloque actual PUcurr puede ser igual al vector de movimiento MVcol del bloque correspondiente PUcol, como se muestra en la Ecuación 7.
Se puede concluir que una vez que se determina el predictor de vector de movimiento MVPcurr del bloque actual PUcurr según las Figuras 1, 2 y 3, se puede determinar una diferencia de vector de movimiento (MVD) MVDcurr del bloque actual PU curr.
Ecuación 8
MVDcurr = MVcurr - MVPcurr
Es decir, el MVD MVDcurr del bloque actual PUcurr se puede determinar mediante la Ecuación 8. Por lo tanto, el vector de movimiento del bloque actual se puede recuperar sumando el MVP del bloque actual al MVD del bloque actual. Las Figuras 4 y 5 son vistas conceptuales que ilustran métodos de predicción de vectores de movimiento según otras realizaciones de la presente divulgación.
La Figura 4 ilustra un caso en el que se realiza una predicción a corto plazo para el bloque actual PUcurr, y se realiza una predicción a largo plazo para el bloque correspondiente PUcol.
La Figura 5 ilustra un caso en el que se realiza una predicción intervista para el bloque actual PUcurr, y se realiza una predicción a largo plazo para el bloque correspondiente PUcol.
Si se realizan diferentes esquemas de predicción para el bloque actual PUcurr y el bloque correspondiente PUcol como se ilustra en las Figuras 4 y 5, el vector de movimiento MVcol del bloque correspondiente PUcol no se puede utilizar para generar el MVP MVPcurr del bloque actual PUcurr.
La Figura 6 es un diagrama de flujo que ilustra un método de predicción de vector de movimiento según una realización de la presente divulgación.
Haciendo referencia a la Figura 6, el método de predicción de vector de movimiento según la realización de la presente divulgación incluye determinar esquemas de predicción de movimiento realizados para un bloque actual y un bloque correspondiente que corresponde al bloque actual, y generar un MVP del bloque actual basado en un vector de movimiento del bloque correspondiente según el método de predicción de vector de movimiento determinado.
Se puede determinar que para cada bloque actual y el bloque correspondiente se realiza una de predicción a largo plazo, predicción a corto plazo y predicción intervista.
Es decir, pueden generarse datos para la decodificación de vídeo al decodificar un flujo de bits recibido, y se pueden determinar los esquemas de predicción de movimiento realizados para el bloque actual y el bloque correspondiente usando los datos para la decodificación de vídeo. Por ejemplo, los esquemas de predicción de movimiento pueden determinarse usando al menos una información de ID de Vista, información de orden de vista e información de bandera para identificar un esquema de predicción de movimiento, incluido en los datos para la decodificación de vídeo. Los datos para la decodificación de vídeo pueden adquirirse realizando decodificación de entropía, descuantificación y transformación inversa en el flujo de bits recibido.
Si se realiza una predicción a largo plazo para el bloque actual y el bloque correspondiente, el vector de movimiento del bloque correspondiente se puede generar como el MVP del bloque actual.
Además, si se realiza una predicción a corto plazo para el bloque actual y el bloque correspondiente, el MVP del bloque actual se puede generar escalando el vector de movimiento del bloque correspondiente usando una relación entre la distancia de referencia interimágenes del bloque actual y la distancia de referencia interimágenes del bloque correspondiente.
Si se realiza una predicción intervista para el bloque actual y el bloque correspondiente, el MVP del bloque actual se puede generar escalando el vector de movimiento del bloque correspondiente utilizando una relación entre la distancia de referencia intervista del bloque actual y la distancia de referencia intervista del bloque correspondiente.
Por otro lado, si se realiza una predicción intervista para uno del bloque actual y el bloque correspondiente y se realiza una predicción a largo plazo o una predicción a corto plazo para el otro bloque, o si se realiza una predicción a largo plazo para uno del bloque actual y el bloque correspondiente y se realiza una predicción a corto plazo para el otro bloque, el vector de movimiento del bloque correspondiente no se puede usar para calcular el MVP del bloque actual.
En caso de que no se utilice el vector de movimiento del bloque correspondiente dado que los esquemas de predicción de movimiento para el bloque actual y el bloque correspondiente son diferentes entre sí, se puede generar un vector predeterminado como el MVP del bloque actual. Por ejemplo, el vector predeterminado puede establecerse igual a (0, 0).
En consecuencia, los predictores de vector de movimiento temporal (TMVP) del bloque actual se enumeran en la [Tabla 1] a continuación según la correlación entre el esquema de predicción de movimiento para el bloque actual y el esquema de predicción de movimiento para el bloque correspondiente.
[Tabla 1]
Figure imgf000010_0001
Antes de una descripción del diagrama de flujo ilustrado en la Figura 6, cada parámetro se define como se indica en la [Tabla 2].
[Tabla 2]
Figure imgf000011_0001
El método de predicción de vector de movimiento para un vídeo multivista según la realización de la presente divulgación se describirá con mayor detalle con referencia a la Figura 6.
Si LTcurr es diferente de LTcol en la etapa S610, esto implica que la imagen de referencia indicada por MVcurr está marcada de manera diferente a la imagen de referencia indicada por MVcol. Por ejemplo, se hace referencia a una imagen de referencia a corto plazo para MVcurr y se hace referencia a una imagen de referencia a largo plazo para MVcol. En este caso, no se puede utilizar un TMVP (S690).
Si IVcurr es diferente de IVcol en la etapa S610, esto implica que MVcurr y MVcol tienen diferentes propiedades. Por ejemplo, MVcurr es un vector de movimiento intervista, y MVcol es un vector de movimiento temporal. En este caso, no se puede utilizar un TMVP (S690).
Si IVcurr es '1' en la etapa S620, esto implica que tanto MVcurr como MVcol son vectores de movimiento intervista, y es posible escalar con la diferencia entre los ID de Vista (S640).
Si IVcurr es '0' en la etapa S620, esto implica que tanto MVcurr como MVcol son vectores de movimiento temporal, y la escala es posible con la diferencia entre los p Oc (S630).
En esta memoria, si BaseViewFlagcurr es '0', esto puede significar que Piccurr no es una vista base.
Si Diffcurr es diferente de Diffcol, y IVcurr es '1' o LTcurr es '0' en la etapa S650, MVcol se escala para TMVPcurr (S670). Si Diffcurr es igual a Diffcol en la etapa S650, TMVPcurr se puede configurar a MVcol (S660).
Si se hace referencia a imágenes de referencia a largo plazo tanto para el bloque actual PUcurr como para el bloque correspondiente PUcol y no se usa la predicción intervista para el bloque actual PUcurr y el bloque correspondiente PUcol en la etapa S650, TMVPcurr se puede configurar a MVcol (S660).
Realización 2 (no cubierta por la invención reivindicada) - Método para codificar y decodificar residuo a través de Predicción de residuo
Un vídeo multivista puede codificarse y decodificarse a través de la predicción de residuo. La Predicción Avanzada de Residuo (ARP) para un vídeo multivista puede significar un proceso de generación de un residuo a través de la predicción de movimiento de un bloque actual y la generación de una residuo de predicción realizando una predicción sobre el residuo generado.
En consecuencia, un método para codificar y decodificar un residuo a través de la predicción de residuo puede significar codificar y decodificar una diferencia de residuo generada restando un residuo de predicción de un residuo de un bloque actual.
La Figura 7 es una vista conceptual que ilustra un método de predicción de residuo según una realización de la presente divulgación.
Haciendo referencia a la Figura 7, una vista a la que pertenece un bloque actual Curr se denomina vista actual, y una vista a la que se hace referencia para la vista actual se denomina vista de referencia.
Si un bloque de referencia de la misma vista, al que se hace referencia para el bloque actual Curr, se denota por CurrRef, una señal de residuo R se puede calcular mediante la Ecuación 9. En esta memoria, el vector de movimiento del bloque actual Curr se puede denotar por Mvcurr.
Es decir, la señal de residuo R se puede calcular restando el bloque de referencia CurrRef del bloque actual Curr, según la Ecuación 9.
Ecuación 9
R(i, j) = Curr(i, j) - CurrRef(i, j)
La señal de residuo R puede eliminar aún más la redundancia utilizando una similitud entre las vistas. Una Base de bloque correspondiente que corresponde al bloque actual Curr puede detectarse usando un vector de disparidad DVderived en una vista de referencia.
Un bloque de referencia BaseRef al que se hace referencia para la Base de bloque correspondiente en la dirección temporal puede detectarse utilizando MVScaled generado al escalar el vector de movimiento MVcurr del bloque actual Curr.
En este caso, una imagen a la que pertenece el bloque de referencia BaseRef al que se hace referencia para la Base de bloque correspondiente puede ser una imagen que tenga la diferencia de POC más pequeña con respecto a una imagen a la que pertenece la Base de bloque correspondiente, en una lista de imágenes de referencia para la imagen a la que pertenece la Base de bloque correspondiente, excepto para una imagen que tenga el mismo POC que la imagen a la que pertenece la Base de bloque correspondiente.
MVScaled se puede calcular mediante la Ecuación 10 y la Ecuación 11.
Ecuación 10
DiffPOCcurr = POCCurr - POCCurrRef
DiffPOCBase = POCBase = POCBaseRef
D i f f P O C B a s e
ScaleFactor
D i f f P O C c u r r
En la Ecuación 10, una distancia de referencia temporal del bloque actual Curr puede indicarse por DiffPOCcurr, y DiffPOCcurr se puede calcular como la diferencia entre el POC POCcurr del bloque actual Curr y el POC POCcurrref del bloque de referencia CurrRef al que se hace referencia para el bloque actual Curr en la dirección temporal.
Además, una distancia de referencia temporal de la Base de bloque correspondiente puede indicarse por DiffPOCBase y DiffPOCBase se puede calcular como la diferencia entre el POC POCBase de la Base de bloque correspondiente y el POC POCbaseref del bloque de referencia BaseRef al que se hace referencia para la Base de bloque correspondiente en la dirección temporal.
Un factor de escala con el que escalar el vector de movimiento MVcurr del bloque actual Curr se puede expresar como una relación entre la distancia de referencia temporal del bloque actual Curr y la distancia de referencia temporal de la Base de bloque correspondiente.
Ecuación 11
MVScaled = ScaleFactor x MVcurr
Por lo tanto, MVScaled se puede generar escalando el vector de movimiento MVcurr del bloque actual Curr con el factor de escala, y el bloque de referencia BaseRef al que se hace referencia para la Base de bloque correspondiente en la dirección temporal puede detectarse usando MVScaled.
Ecuación 12
R'(i, j) = [Base(i, j) — BaseRef (i, j)]
Una señal de residuo de predicción R' del bloque actual Curr se puede calcular mediante la Ecuación 12. Es decir, la señal de residuo de predicción R' se puede calcular restando el bloque de referencia BaseRef al que se hace referencia para la Base de bloque correspondiente en la dirección temporal desde la Base de bloque correspondiente.
Además, la señal de residuo de predicción R' se puede calcular aplicando un peso w a la Base de bloque correspondiente o al bloque de referencia BaseRef, o la señal de residuo de predicción R' de la Ecuación 12 puede establecerse para que sea mayor que un umbral predeterminado w.
Ecuación 13
RFinal(i, j) = R(i, j) - R'(i, j)
Por lo tanto, se puede calcular una diferencia de residuo restando la señal de residuo de predicción R' del bloque actual Curr de la Ecuación 12 de la señal de residuo R del bloque actual Curr de la Ecuación 9.
Además, la predicción de residuo representada en la Figura 7 y la Ecuación 9 a la Ecuación 13 puede denominarse ARP Temporal (Predicción Avanzada de Residuo).
La Figura 8 es una vista conceptual que ilustra un método de predicción de residuo según otra realización de la presente divulgación.
Haciendo referencia a la Figura 8, denótese por IvRef a un bloque de referencia de una vista diferente al que se hace referencia para el bloque actual Curr. Entonces, la señal de residuo R se puede calcular mediante la Ecuación 14. El vector de movimiento del bloque actual Curr se puede indicar mediante MVcurr, y la predicción intervista se puede realizar usando MVcurr.
Es decir, según la Ecuación 14 siguiente, la señal de residuo R del bloque actual Curr se puede calcular restando el bloque de referencia IvRef del bloque actual Curr.
Ecuación 14
R(i, j) = Curr(i, j) — IvRef(i, j)
Haciendo referencia a la Ecuación 14, la señal de residuo R puede eliminar aún más la redundancia utilizando una similitud entre las vistas. El bloque de referencia IvRef al que se hace referencia en intervista para el bloque actual Curr puede detectarse utilizando el vector de movimiento MVcurr del bloque actual Curr en una vista de referencia. Un bloque de referencia IvTRef al que se hace referencia para el bloque de referencia IvRef del bloque actual Curr en la dirección temporal puede detectarse usando dTMVBase.
Además, un bloque de referencia TRef al que se hace referencia para el bloque actual Curr en la dirección temporal puede detectarse usando dMVScaled generado al escalar dTMVBase utilizado para el bloque de referencia IvRef del bloque actual Curr.
En este caso, una imagen del bloque de referencia TRef al que se hace referencia para el bloque actual Curr en la dirección temporal puede tener la diferencia de POC más pequeña con respecto a una imagen del bloque actual Curr en una lista de imágenes de referencia para la imagen del bloque actual Curr, excepto por una imagen que tiene el mismo POC que la imagen del bloque actual Curr.
MVScaled se puede calcular mediante la Ecuación 15 y la Ecuación 16.
Ecuación 15
DiffPOCcurr = POCcurr - POCTRef
DiffPOCBase = POClvRef - POClvTRef
ScaleFactor = D l f f P O C c u r r
D'ffPOCBase
En la Ecuación 15, la distancia de referencia temporal del bloque actual Curr puede denotarse por DiffPOCcurr, y DiffPOCcurr se puede calcular como la diferencia entre el POC POCcurr del bloque actual Curr y el POC POCTRef del bloque de referencia TRef al que se hace referencia para el bloque actual Curr en la dirección temporal.
Además, la distancia de referencia temporal del bloque de referencia IvRef puede indicarse por DiffPOCBase, y DiffPOCBase se puede calcular como la diferencia entre el POC POCIvRef del bloque de referencia IvRef y el POC POCIvTRef del bloque de referencia IvTRef al que se hace referencia para el bloque de referencia IvRef en la dirección temporal.
Un factor de escala con el que escalar el vector de movimiento dTMVBase del bloque de referencia IvRef se puede expresar como una relación entre la distancia de referencia temporal del bloque actual Curr y la distancia de referencia temporal de la Base de bloque correspondiente.
Ecuación 16
dTMVScaled = ScaleFactor x dTMVBase
Por lo tanto, dTMVScaled se puede generar escalando el vector de movimiento dTMVBase del bloque de referencia IvRef con el factor de escala, como se expresa en la Ecuación 16, y el bloque de referencia TRef al que se hace referencia para el bloque actual Curr en la dirección temporal puede detectarse utilizando dTMVScaled.
Ecuación 17
R'(i, j) = [TRef(i, j) - IvTRef(i, j)]
La señal de residuo de predicción R' del bloque actual Curr se puede calcular mediante la Ecuación 17. Es decir, la señal de residuo de predicción R' se puede calcular restando el bloque de referencia IvTRef al que se hace referencia para el bloque de referencia IvRef del bloque actual Curr en el dirección temporal desde el bloque de referencia TRef al que se hace referencia para el bloque actual Curr en la dirección temporal.
Además, la señal de residuo de predicción R' se puede calcular aplicando el peso w al bloque de referencia TRef o IvTRef, o la señal de residuo de predicción R' de la Ecuación 17 puede establecerse para que sea mayor que el umbral predeterminado w.
Ecuación 18
RFinal(i, j) = R(i, j) - R'(i, j)
Por lo tanto, la diferencia de residuo se puede calcular restando la señal de residuo de predicción R' del bloque actual Curr de la Ecuación 17 de la señal de residuo R del bloque actual Curr de la Ecuación 14. Esta diferencia de residuo se puede denominar residuo final RFinal como en la Ecuación 18.
Además, a la predicción de residuo representada en la Figura 8 y la Ecuación 14 a la Ecuación 18 se le puede hacer referencia como Intervista ARP.
La Figura 9 es una vista conceptual que ilustra un método de predicción de residuo según otra realización de la presente divulgación.
Haciendo referencia a la Figura 9, se puede detectar un bloque de referencia IvRef de ID de Vista 1 al que se hace referencia en la intervista para el bloque actual Curr usando el vector de movimiento MVcurr.
En comparación con el caso de la Figura 8, un bloque de referencia IvTRef de una vista diferente a la que se hace referencia para el bloque de referencia IvRef del bloque actual Curr puede detectarse utilizando un vector de movimiento MVRef en el caso ilustrado de la Figura 9.
En este caso, se produce un problema en la generación de MVscaled escalando MVRef utilizado para el bloque de referencia IvRef del bloque actual Curr. Es decir, esto es porque MVRef es un vector de movimiento utilizado para la predicción intervista, mientras que MVscaled es un vector utilizado para la predicción de movimiento temporal.
Más específicamente, dado que MVRef es un vector de movimiento utilizado para la predicción intervista, un denominador representado en la Ecuación 15 se convierte en 0 y, como resultado, el factor de escala se calcula como un valor infinito.
Ecuación 19
MVscaled = ScaleFactor X MVRef
Por lo tanto, dado que puede ocurrir un error durante el cálculo de MVScaled por la Ecuación 19, el error se puede prevenir configurando MVScaled a (0, 0).
Las Figuras 8 y 9 se describirán a continuación suponiendo que el bloque de referencia IvRef es un primer bloque de referencia, el bloque de referencia TRef es un segundo bloque de referencia y el bloque de referencia IvTRef es un tercer bloque de referencia.
El método de predicción de residuo incluye determinar un esquema de predicción de movimiento realizado para el primer bloque de referencia al que se hace referencia para la predicción intervista del bloque actual, y generar un residuo de predicción para el bloque actual según el esquema de predicción de movimiento del primer bloque de referencia.
Se puede determinar cuál de la predicción de movimiento temporal y la predicción intervista se realiza para el primer bloque de referencia.
La diferencia entre el segundo bloque de referencia al que se hace referencia para la predicción de movimiento temporal del bloque actual y el tercer bloque de referencia al que se hace referencia para el primer bloque de referencia se puede generar como residuo de predicción. En esta memoria, el segundo bloque de referencia puede pertenecer a una imagen más cercana en la dirección temporal en una lista de referencia para una imagen actual a la que pertenece el bloque actual.
Si se determina que la predicción de movimiento temporal se realiza para el primer bloque de referencia, se puede generar un vector de movimiento escalado aplicando un vector de escala a un vector de movimiento usado para buscar el tercer bloque de referencia, y el segundo bloque de referencia se puede determinar usando el vector de movimiento escalado. El factor de escala se puede generar en función de la diferencia entre el número de una imagen de referencia a la que pertenece el primer bloque de referencia y el número de una imagen a la que pertenece el tercer bloque de referencia al que se hace referencia para la predicción de movimiento temporal del primer bloque de referencia, y la diferencia entre el número de una imagen a la que pertenece el bloque actual y el número de una imagen a la que pertenece el segundo bloque de referencia.
Por otro lado, si se determina que la predicción intervista se realiza para el primer bloque de referencia, el segundo bloque de referencia se puede determinar aplicando (0, 0) como vector de movimiento usado para buscar el segundo bloque de referencia.
La Figura 10 es un diagrama de bloques de un aparato para codificar un vídeo multivista y un aparato para decodificar un vídeo multivista según una realización de la presente divulgación.
Con referencia a la Figura 10, un sistema para codificar/decodificar un vídeo multivista según una realización de la presente divulgación incluye un aparato de codificación de vídeo multivista 10 y un aparato de decodificación de vídeo multivista 20.
El aparato de codificación de vídeo multivista 10 puede incluir un codificador de vídeo de vista base 11 para codificar un vídeo de vista base y codificadores de vídeo de vista de extensión 12 y 13 para codificar un vídeo de vista de extensión. Un vídeo de vista base puede ser un vídeo para proporcionar un vídeo de única vista en 2D, y un vídeo de vista de extensión puede ser un vídeo para proporcionar un vídeo de una vista de extensión como 3D.
Por ejemplo, el aparato de codificación de vídeo multivista 10 puede incluir el codificador de vídeo de vista base 11, un primer codificador de vídeo de vista de extensión 12 y un segundo codificador de vídeo de vista de extensión 13. Los codificadores de vídeo de vista de extensión no están limitados a los codificadores de vídeo de vista de extensión primero y segundo 12 y 13. Más bien, el número de codificadores de vídeo de vista de extensión puede aumentar con el número de vistas. Además, el codificador de vídeo de vista base 11 y los codificadores de vídeo de vista de extensión 12 y 13 pueden codificar una imagen en color y una imagen de profundidad (mapa de profundidad) por separado. El aparato de codificación de vídeo multivista 10 puede transmitir un flujo de bits obtenido al codificar un vídeo multivista al aparato de decodificación de vídeo multivista 20.
El aparato de decodificación de vídeo multivista 20 puede incluir un extractor de flujo de bits 29, un decodificador de vídeo de vista base 21 y decodificadores de vídeo de vista de extensión 22 y 23.
Por ejemplo, el aparato de decodificación de vídeo multivista 20 puede incluir el decodificador de vídeo de vista base 21, un primer decodificador de vídeo de vista de extensión 22 y un segundo decodificador de vídeo de vista de extensión 23. Obviamente, el número de decodificadores de vídeo de vista de extensión puede aumentar con el número de vistas.
Específicamente, el extractor de flujo de bits 29 puede separar un flujo de bits según las vistas y proporcionar los flujos de bits separados al decodificador de vídeo de vista base 21 y a los decodificadores de vídeo de vista de extensión 22 y 23, respectivamente.
Según una realización de la presente divulgación, un vídeo de vista base decodificado puede exponerse en una pantalla 2D heredada, con compatibilidad con versiones anteriores. Además, el vídeo de vista base decodificado y al menos un vídeo de vista de extensión decodificado puede exponerse en una pantalla estéreo o una pantalla de multivista.
Mientras tanto, puede transmitirse información de posición la cámara de entrada como información secundaria en un flujo de bits a la pantalla estéreo o la pantalla multivista.
La Figura 11 es un diagrama de bloques de un aparato para codificar un vídeo multivista según una realización de la presente divulgación.
Con referencia a la Figura 11, el aparato de codificación de vídeo multivista 10 según la realización de la presente divulgación puede incluir el codificador de vídeo de vista base 11 y el codificador de vídeo de vista de extensión 12.
Sin embargo, el aparato de codificación de vídeo multivista 10 puede incluir además otro codificador de vídeo de vista de extensión según una vista.
Cada uno del codificador de vídeo de vista base 11 y el codificador de vídeo de vista de extensión 12 incluye un restador 110 o 110-1, un transformador 120 o 120-1, un cuantificador 130 o 130-1, un descuantificador 131 o 131-1, un transformador inverso 121 o 121-1, un codificador de entropía 140 o 140-1, un sumador 150 o 150-1, una unidad de filtro en bucle 160 o 160-1, una memoria de cuadro 170 o 170-1, un intrapredictor 180 o 180-1, y un compensador de movimiento 190 o 190-1.
El restador 110 o 110-1 genera una imagen de residuo entre una imagen recibida a codificar (una imagen actual) y una imagen de predicción generada mediante intrapredicción o interpredicción restando la imagen de predicción de la imagen actual.
El transformador 120 o 120-1 transforma la imagen de residuo generada por el restador 110 o 110-1 desde el dominio espacial al dominio de la frecuencia. El transformador 120 o 120-1 puede transformar la imagen de residuo al dominio de la frecuencia mediante una técnica de transformación de una señal de vídeo espacial en una señal de vídeo de frecuencia, tal como transformada de Hadamard, transformada de coseno discreta o transformada de seno discreta. El cuantificador 130 o 130-1 cuantifica los datos transformados (coeficientes de frecuencia) recibidos del transformador 120 o 120-1. Es decir, el cuantificador 130 o 130-1 cuantifica los coeficientes de frecuencia siendo los datos transformados por el transformador 120 o 120-1 dividiendo los coeficientes de frecuencia por un tamaño de etapa de cuantificación, y así obtiene valores de resultado de cuantificación.
El codificador de entropía 140 o 140-1 genera un flujo de bits mediante la codificación de entropía de los valores de resultado de cuantificación calculados por el cuantificador 130 o 130-1. Además, el codificador de entropía 140 o 140­ 1 puede codificar por entropía los valores de resultado de cuantificación calculados por el cuantificador 130 o 130-1 utilizando la codificación de longitud variable adaptable al contexto (CAVLC) o la codificación aritmética binaria adaptativa al contexto (CABAC), y se puede requerir más información de codificación de entropía para la decodificación de vídeo además de los valores de resultado de cuantificación.
El descuantificador 131 o 131-1 descuantifica los valores de resultado de cuantificación calculados por el cuantificador 130 o 130-1. Es decir, el descuantificador 131 o 13-1 recupera valores de dominio de frecuencia (coeficientes de frecuencia) a partir de los valores de resultado de cuantificación.
El descuantificador 121 o 121-1 recupera la imagen de residuo transformando los valores del dominio de frecuencia (coeficientes de frecuencia) recibidos del descuantificador 131 o 131-1 al dominio espacial. El sumador 150 o 150-1 genera una imagen recuperada de la imagen de entrada sumando la imagen de residuo recuperada por el descuantificador 121 o 121-1 a la imagen de predicción generada mediante intrapredicción o interpredicción, y almacena la imagen recuperada en el memoria 170 o 170-1.
El intrapredictor 180 o 180-1 realiza intrapredicción, y el compensador de movimiento 190 o 190-1 compensa un vector de movimiento para interpredicción. El intrapredictor 180 o 180-1 y el compensador de movimiento 190 o 190-1 pueden denominarse colectivamente unidad de predicción.
Según una realización de la presente divulgación, los predictores 180-1 y 190-1 incluidos en el codificador de vídeo de vista de extensión 12 pueden realizar predicciones para un bloque actual de una vista de extensión usando información de predicción sobre un bloque de referencia de una vista de referencia. La vista de referencia se refiere a una vista a la que se hace referencia para la vista de extensión y puede ser una vista base. Además, la información de predicción puede incluir información de modo de predicción e información de movimiento sobre un bloque de referencia.
La unidad de filtro en bucle 160 o 160-1 filtra la imagen recuperada. La unidad de filtro en bucle 160 o 160-1 puede incluir un filtro de desbloqueo (DF) y un desplazamiento adaptativo de muestra (SAO).
Un multiplexor 330 puede recibir un flujo de bits del vídeo de vista base codificado y un flujo de bits del vídeo de vista de extensión codificado y, por lo tanto, emitir un flujo de bits extendido.
Particularmente, el aparato de codificación de vídeo multivista 10 según la realización de la presente divulgación puede incluir además un predictor de intervista 310 y un predictor de residuo 320.
Si bien el predictor de intervista 310 y el predictor de residuo 320 se muestran en la Figura 11 residiendo entre el codificador de vídeo de vista base 11 y el codificador de vídeo de vista de extensión 12, la presente divulgación no se limita a esta estructura o posición.
El predictor de intervista 310 puede interactuar con el compensador de movimiento 190 o 190-1 y codificar un vector de movimiento para un vídeo multivista a través de la predicción de vector de movimiento según la primera realización descrita anteriormente de la presente divulgación.
El predictor de residuo 320 puede interactuar con el compensador de movimiento 190 o 190-1 y el intrapredictor 180 o 180-1, y codificar un residuo para un vídeo multivista a través de la predicción de residuo según la segunda realización descrita anteriormente de la presente divulgación.
La Figura 12 es un diagrama de bloques de un aparato de decodificación de vídeo multivista según una realización de la presente divulgación.
Con referencia a la Figura 12, el aparato de decodificación de vídeo multivista 20 puede incluir el extractor de flujo de bits 29, el decodificador de vídeo de vista base 21 y los decodificadores de vídeo de vista de extensión 22 y 23. El extractor de flujo de bits 29 puede separar un flujo de bits según las vistas y proporcionar los flujos de bits separados al decodificador de vídeo de vista base 21 y a los decodificadores de vídeo de vista de extensión 22 y 23, respectivamente.
Cada uno de los decodificadores de vídeo de vista base 21 y los decodificadores de vídeo de vista de extensión 22 y 23 pueden incluir un decodificador de entropía 210 o 210-1, un descuantificador 220 o 220-1, un transformador inverso 230 o 230-2, un sumador 240 o 240-1, una unidad de filtro en bucle 250 o 250-1, una memoria de cuadros 260 o 260­ 1, un intrapredictor 270 o 270-1 y un compensador de movimiento 280 o 280-1. El intrapredictor 270 o 270-1 y el compensador de movimiento 280 o 280-1 pueden denominarse colectivamente unidad de predicción.
El aparato de decodificación de vídeo multivista 20 según la realización de la presente divulgación puede incluir además un predictor de intervista 410 y un predictor de residuo 420.
Si bien el predictor de intervista 410 y el predictor de residuo 420 se muestran en la Figura 12 residiendo entre el decodificador de vídeo de vista base 21 y el decodificador de vídeo de vista de extensión 22, la presente divulgación no se limita a esta estructura o posición.
El predictor de intervista 410 puede interactuar con el compensador de movimiento 290 o 290-1 y decodificar un vector de movimiento para un vídeo multivista a través de la predicción de vector de movimiento según la primera realización descrita anteriormente de la presente divulgación.
El predictor de residuo 420 puede interactuar con el compensador de movimiento 290 o 290-1 y el intrapredictor 280 o 280-1, y decodificar un residuo para un vídeo multivista a través de la predicción de residuo según la segunda realización descrita anteriormente de la presente divulgación.
Mientras tanto, cada componente del aparato de decodificación de vídeo multivista 20 puede entenderse a partir de su equivalente del aparato de codificación de vídeo multivista 10 ilustrado en la Figura 11 y, por lo tanto, no se describirá en esta memoria en detalle.
Además, cada componente del aparato de codificación de vídeo multivista 10 y el aparato de decodificación de vídeo multivista 20 según las realizaciones de la presente divulgación se ha descrito como configurado como un componente separado, por conveniencia de la descripción. Sin embargo, al menos dos de los componentes pueden incorporarse en un único procesador o un componente se puede dividir en una pluralidad de procesadores, para ejecutar una función. Las realizaciones para incorporar componentes o separar un solo componente también caen dentro de las reivindicaciones adjuntas sin salirse del alcance de la presente divulgación.
El aparato de codificación de vídeo multivista 10 y el aparato de decodificación de vídeo multivista 20 según la presente divulgación pueden implementarse como un programa o código legible por ordenador en un medio de grabación legible por ordenador. El medio de grabación legible por ordenador incluye cualquier tipo de dispositivo de grabación que almacene datos legibles por un sistema informático. Además, el medio de grabación legible por ordenador puede distribuirse a sistemas informáticos conectados a través de una red y almacenar y ejecutar un programa o código legibles por un ordenador de manera distribuida.
El método para realizar la predicción de vector de movimiento para un vídeo multivista según la primera realización de la presente divulgación permite la codificación/descodificación efectiva de un vector de movimiento durante la codificación/descodificación de un vídeo multivista. Es decir, según la presente divulgación, un vector de movimiento temporal puede predecirse de forma adaptativa según los esquemas de predicción de vectores de movimiento usados para un bloque actual y un bloque correspondiente.
El método para realizar la predicción de residuo para un vídeo multivista según la segunda realización de la presente divulgación permite la codificación/descodificación efectiva de un residuo durante la codificación/descodificación de un vídeo multivista. Es decir, se puede evitar que ocurra un error en el cálculo de un factor de escala usado para escalar un vector de movimiento durante la generación de un residuo de predicción, evitando así un error en la predicción de residuo para un vídeo multivista.
Aunque la presente divulgación se ha descrito con referencia a las realizaciones preferidas, los expertos en la técnica apreciarán que se pueden realizar diversas modificaciones y variaciones en la presente divulgación sin apartarse del alcance de la presente divulgación descrita en las reivindicaciones adjuntas.

Claims (5)

REIVINDICACIONES
1. Un método para decodificar un vídeo multivista, comprendiendo el método:
determinar esquemas de predicción de movimiento realizados para que se decodifique un bloque actual y un bloque coubicado correspondiente al bloque actual, se determina que los esquemas de predicción de movimiento son una predicción a largo plazo, una predicción a corto plazo y una predicción intervista; y
generar un vector de movimiento del bloque actual utilizando un vector de movimiento del bloque coubicado según los esquemas de predicción de movimiento determinados,
en donde cuando la predicción intervista se realiza para uno del bloque actual y el bloque coubicado y luego se realiza la predicción a largo plazo o la predicción a corto plazo para el otro bloque, se genera el vector de movimiento del bloque actual utilizando un vector predeterminado o el vector de movimiento del bloque coubicado,
en donde el bloque coubicado incluye un bloque temporal coubicado.
2. El método según la reivindicación 1, en donde generar el vector de movimiento del bloque actual comprende, cuando se realiza la predicción a largo plazo para el bloque actual y el bloque coubicado, generar el vector de movimiento del bloque actual como el vector de movimiento del bloque coubicado.
3. El método según la reivindicación 1, en donde generar el vector de movimiento del bloque actual comprende, cuando se realiza la predicción a corto plazo para el bloque actual y el bloque coubicado, generar el vector de movimiento del bloque actual escalando el vector de movimiento del bloque coubicado usando una relación entre una distancia de referencia interimágenes del bloque actual y una distancia de referencia interimágenes del bloque coubicado.
4. El método según la reivindicación 1, en donde generar el vector de movimiento del bloque actual comprende, cuando la predicción intervista se realiza para el bloque actual y el bloque coubicado, generar el vector de movimiento del bloque actual escalando el vector de movimiento del bloque coubicado utilizando una relación entre una distancia de referencia de intervista del bloque actual y una distancia de referencia de intervista del bloque coubicado.
5. El método según la reivindicación 1, en donde el vector predeterminado es (0, 0).
ES14876960T 2014-01-02 2014-12-30 Método para decodificar vídeo multivista Active ES2906182T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140000187 2014-01-02
PCT/KR2014/013034 WO2015102367A1 (ko) 2014-01-02 2014-12-30 다시점 비디오를 부호화하는 방법 및 그 장치, 다시점 비디오를 복호화하는 방법 및 그 장치

Publications (1)

Publication Number Publication Date
ES2906182T3 true ES2906182T3 (es) 2022-04-13

Family

ID=53493649

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14876960T Active ES2906182T3 (es) 2014-01-02 2014-12-30 Método para decodificar vídeo multivista

Country Status (11)

Country Link
US (1) US20160330472A1 (es)
EP (2) EP3958572B1 (es)
JP (1) JP6615777B2 (es)
KR (8) KR101658192B1 (es)
CN (1) CN106063272B (es)
DK (2) DK3091741T3 (es)
ES (1) ES2906182T3 (es)
FI (1) FI3958572T3 (es)
HU (1) HUE057890T2 (es)
PL (1) PL3091741T3 (es)
WO (1) WO2015102367A1 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015000108A1 (en) * 2013-07-01 2015-01-08 Mediatek Singapore Pte. Ltd. An improved texture merging candidate in 3dvc
JP6615777B2 (ja) * 2014-01-02 2019-12-04 インダストリー−アカデミア、コーオペレイション、グループ、オブ、セジョン、ユニバーシティー 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置
EP3254465A1 (en) * 2015-02-05 2017-12-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view video codec supporting residual prediction
CN117135346A (zh) * 2018-04-02 2023-11-28 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
US11575935B2 (en) 2019-06-14 2023-02-07 Electronics And Telecommunications Research Institute Video encoding method and video decoding method
CA3145240A1 (en) * 2019-06-24 2020-12-30 Lg Electronics Inc. Inter prediction-based image coding method and apparatus
CN112261409A (zh) * 2019-07-22 2021-01-22 中兴通讯股份有限公司 残差编码、解码方法及装置、存储介质及电子装置
CN111651268B (zh) * 2020-05-14 2023-01-31 武汉兰丁智能医学股份有限公司 显微图像快速处理系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101023672A (zh) * 2004-07-12 2007-08-22 诺基亚公司 在可调整视频编码中用于运动预测的系统和方法
KR101039204B1 (ko) * 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
EP2123042A4 (en) * 2007-01-24 2010-03-10 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
RU2602794C2 (ru) * 2011-06-30 2016-11-20 Сони Корпорейшн Устройство обработки изображений и способ обработки изображений
US10567786B2 (en) * 2011-08-19 2020-02-18 Telefonaktiebolaget Lm Ericsson (Publ) Motion vector processing
TWI532370B (zh) * 2011-11-08 2016-05-01 三星電子股份有限公司 解碼影像的方法
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US20130329800A1 (en) * 2012-06-07 2013-12-12 Samsung Electronics Co., Ltd. Method of performing prediction for multiview video processing
US9357195B2 (en) * 2012-08-16 2016-05-31 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
US9781442B2 (en) * 2012-09-17 2017-10-03 Lg Electronics Inc. Method and apparatus for processing video signal
US9497439B2 (en) * 2013-07-15 2016-11-15 Ati Technologies Ulc Apparatus and method for fast multiview video coding
WO2015006951A1 (en) * 2013-07-18 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for fast encoder decision
JP6615777B2 (ja) * 2014-01-02 2019-12-04 インダストリー−アカデミア、コーオペレイション、グループ、オブ、セジョン、ユニバーシティー 多視点ビデオを符号化する方法及びその装置、並びに多視点ビデオを復号化する方法及びその装置
US10110925B2 (en) * 2014-01-03 2018-10-23 Hfi Innovation Inc. Method of reference picture selection and signaling in 3D and multi-view video coding

Also Published As

Publication number Publication date
EP3958572A1 (en) 2022-02-23
FI3958572T3 (fi) 2024-03-13
KR101778710B1 (ko) 2017-09-14
KR20230104560A (ko) 2023-07-10
JP6615777B2 (ja) 2019-12-04
CN106063272B (zh) 2019-11-15
EP3091741B1 (en) 2021-10-27
KR20160100896A (ko) 2016-08-24
KR20170003513A (ko) 2017-01-09
WO2015102367A1 (ko) 2015-07-09
KR101662662B1 (ko) 2016-10-05
KR102201591B1 (ko) 2021-01-12
KR102344088B1 (ko) 2021-12-29
KR20210007007A (ko) 2021-01-19
KR20150080905A (ko) 2015-07-10
EP3958572B1 (en) 2024-02-07
KR102550448B1 (ko) 2023-07-03
KR20160116326A (ko) 2016-10-07
JP2017510219A (ja) 2017-04-06
KR101658192B1 (ko) 2016-09-20
DK3091741T3 (da) 2022-01-31
EP3091741A1 (en) 2016-11-09
PL3091741T3 (pl) 2022-03-28
EP3091741A4 (en) 2017-08-16
KR101692744B1 (ko) 2017-01-04
KR20150080906A (ko) 2015-07-10
CN106063272A (zh) 2016-10-26
HUE057890T2 (hu) 2022-06-28
DK3958572T3 (da) 2024-03-04
KR20210158843A (ko) 2021-12-31
KR102643840B1 (ko) 2024-03-06
US20160330472A1 (en) 2016-11-10

Similar Documents

Publication Publication Date Title
ES2906182T3 (es) Método para decodificar vídeo multivista
ES2755573T3 (es) Predicción de vector de movimiento temporal avanzada basada en unidades de subpredicción
JP6535673B2 (ja) 非対称動き分割を使用するビデオコーディング技法
JP6339116B2 (ja) マルチビュー又は3次元ビデオコード化におけるビュー間残差予測
KR101951087B1 (ko) 비디오 코딩에서의 진보된 잔차 예측을 위한 필터들
ES2900751T3 (es) Extensiones de sintaxis de alto nivel para codificación de vídeo de alta eficacia
JP5992640B2 (ja) ビデオコード化における参照ピクチャリストのためのビュー間予測の無効化
JP6446488B2 (ja) ビデオデータデコーディング方法及びビデオデータデコーディング装置
KR102227279B1 (ko) 비디오 부호화/복호화 방법 및 장치
JP2017510127A (ja) 3dビデオコード化のためのブロックベースの高度残差予測
KR20160024960A (ko) 심도 지향 인터-뷰 모션 벡터 예측
KR20070098437A (ko) 비디오 신호의 디코딩/인코딩 방법 및 장치