ES2967494T3 - Inter predicción - Google Patents

Inter predicción Download PDF

Info

Publication number
ES2967494T3
ES2967494T3 ES21175983T ES21175983T ES2967494T3 ES 2967494 T3 ES2967494 T3 ES 2967494T3 ES 21175983 T ES21175983 T ES 21175983T ES 21175983 T ES21175983 T ES 21175983T ES 2967494 T3 ES2967494 T3 ES 2967494T3
Authority
ES
Spain
Prior art keywords
mode
block
current block
candidate
amvp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21175983T
Other languages
English (en)
Inventor
Jaehyun Lim
Jungsun Kim
Seungwook Park
Jaewon Sung
Byeongmoon Jeon
Joonyoung Park
Yongjoon Jeon
Younghee Choi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45773417&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2967494(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2967494T3 publication Critical patent/ES2967494T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Se proporcionan un método y un dispositivo de interpredicción. El método incluye determinar un modo de predicción de un bloque actual y, cuando el modo de predicción determinado es un modo de salto, transmitir información que especifica una dirección de predicción entre una dirección hacia adelante, una dirección hacia atrás o una bidireccional. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Inter predicción
Campo técnico
La presente invención se refiere a codificación y decodificación de video.
Antecedentes de la técnica
Recientemente, se ha incrementado la demanda de imágenes de alta resolución y alta calidad en una variedad de campos de aplicación. No obstante, en la medida que las imágenes tienen una resolución más alta y calidad más alta, la cantidad de información en las imágenes correspondientes se incrementa aún más. Por consiguiente, si la información de imagen se transmite usando medios tales como líneas de banda ancha cableadas o inalámbricas típicas o la información de imagen se almacena usando medios de almacenamiento típicos, se aumentan los costes de transferencia de información y los costes de almacenamiento.
Con el fin de transmitir, almacenar o reproducir información de manera eficaz en imágenes de alta resolución y alta calidad, se puede usar una técnica de compresión de imágenes altamente eficiente.
Con el fin de mejorar la eficiencia de la compresión de imágenes, se pueden usar inter predicción e intra predicción. Los valores de píxeles de una imagen actual se predicen con referencia a la información en otra imagen en el método de inter predicción, y los valores de píxeles usando una relación entre píxeles en la misma imagen en el método de intra predicción.
El documento JCTVC-B205 “Test Model under Consideration”, Equipo Colaborativo Conjunto en Codificación de Video (JCT-VC) de WP3 de SG16 de la ITU-T e ISO/IEC JTC1/SC29/WG11,2a Reunión: Ginebra, CH, 21-28 de julio de 2010, describe un proceso de decodificación de video de inter predicción que se realiza en un bloque actual utilizando información recibida en un modo de predicción para determinar el modo de predicción a partir de la información recibida. Los conjuntos de bloques disponibles que tienen hasta dos elementos para un proceso de fusión de bloques se derivan de un conjunto de todos los bloques de predicción que se codifican antes del bloque actual.
Descripción
Problema técnico
La presente invención proporciona un método de predicción para aumentar la eficacia de la compresión de imágenes.
La presente invención también proporciona un método para proporcionar inter predicción de manera eficaz.
La presente invención también proporciona un método para aumentar la eficiencia de compresión de la información de imagen y mantener la calidad de imagen simultáneamente.
La presente invención también proporciona un método para reducir la cantidad de información procesada durante la codificación/decodificación de información de imagen.
La presente invención también proporciona un método para reducir la complejidad de la codificación/decodificación de información de imagen.
Solución técnica
En un aspecto, se proporciona un método de decodificación de video como se define por la reivindicación 1 independiente.
En un aspecto adicional, se proporciona un método de codificación de video como se define por la reivindicación 5 independiente.
En otro aspecto, se proporciona un medio de almacenamiento legible por decodificador no transitorio que almacena un flujo de bits, como se define en la reivindicación 8.
Efectos ventajosos
Según la presente invención, la eficiencia de compresión de información de imagen se aumenta y la calidad de imagen se mantiene simultáneamente.
Según la presente invención, se reduce la cantidad de información procesada durante la codificación/decodificación de información de imagen y se mejora la eficiencia de procesamiento de información de imagen.
Según la presente invención, se reduce la complejidad de la codificación/decodificación de información de imagen y se mejora la eficacia de procesamiento de información de imagen.
Descripción de los dibujos
La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes según un ejemplo. La FIG. 2 es un diagrama conceptual que ilustra una unidad de predicción según un ejemplo.
La FIG. 3 es una vista que ilustra una estructura de árbol cuádruple de una unidad de procesamiento en un sistema según un ejemplo.
La FIG. 4 es un diagrama de bloques que ilustra una unidad de decodificación de imágenes según un ejemplo. La FIG. 5 es un diagrama conceptual que ilustra una unidad de predicción de un dispositivo de decodificación de imágenes según un ejemplo.
La FIG. 6 es una vista que ilustra un modo de AMVP en un sistema según un ejemplo.
La FIG. 7 es una vista cuando se aplica un modo de fusión en un sistema según un ejemplo.
La FIG. 8 es una vista que ilustra un método de configuración de información de modo de predicción y transmitirla en un codificador según un ejemplo.
La FIG. 9 es un diagrama de flujo que ilustra un método de cálculo de costes para candidatos de predicción en un codificador según un ejemplo.
La FIG. 10 es un diagrama de flujo que ilustra un método de realización de fusión en un decodificador según un ejemplo.
La FIG. 11 es un diagrama de flujo que ilustra una operación de cambio de un candidato de AMVP en un codificador según un ejemplo.
La FIG. 12 es una vista que ilustra un método de realización de predicción sobre la base de una lista de AMVP cambiada en un decodificador según un ejemplo.
La FIG. 13 es un diagrama de flujo que ilustra un método de señalización de selección de un modo directo y un modo de fusión según un ejemplo.
La FIG. 14 es una vista que ilustra una señalización a través de la integración de un modo directo y un modo de fusión según un ejemplo.
La FIG. 15 es una vista que ilustra una señalización de si se ha de aplicar un modo directo o si se ha de aplicar una fusión de bloques de codificación a través de una marca según un ejemplo.
La FIG. 16 es una vista que ilustra un método de derivación de una determinación sobre si aplicar un modo directo o una fusión de bloques de codificación según un ejemplo.
La FIG. 17 es un diagrama de flujo que ilustra una señalización cuando se aplica un modo integrado según una realización de la presente invención.
La FIG. 18 es una vista que ilustra un área donde se seleccionan bloques candidatos de un modo integrado según una realización de la presente invención.
La FIG. 19 es un diagrama de flujo que ilustra un método de generación de un candidato de predicción aplicando un modo integrado y transmitiendo la información correspondiente en un codificador según un ejemplo.
La FIG. 20 es un diagrama de flujo que ilustra un método de realización de predicción aplicando un modo integrado en un decodificador según un ejemplo.
Modo para la invención
Cada componente en los dibujos descritos en la presente memoria se proporciona por separado por conveniencia de la descripción de diferentes funciones de características en un dispositivo de codificación/decodificación de imágenes, y no se limita a ser implementado con hardware o software separado. Por ejemplo, al menos dos componentes se pueden combinar para constituir un componente, o un componente se puede dividir en varios componentes.
En lo sucesivo, con referencia a los dibujos que se acompañan, se describirán con más detalle ejemplos preferidos de la presente invención. En lo sucesivo, números de referencia iguales se refieren a elementos iguales en todas partes, y se omitirán sus descripciones superpuestas.
La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes según un ejemplo. Con referencia a la FIG. 1, el dispositivo de codificación de imágenes 100 incluye un módulo de división de imágenes 105, un módulo de predicción 110, un módulo de transformación 115, un módulo de cuantificación 120, un módulo de reordenación 125, un módulo de codificación de entropía 130, un módulo de cuantificación inversa 135, un módulo de transformación inversa 140, un módulo de filtro 145 y una memoria 150.
El módulo de división de imágenes 105 puede dividir una imagen introducida por al menos una unidad de procesamiento. En este punto, la unidad de procesamiento puede ser una Unidad de Predicción (PU), una Unidad de Transformación (TU) o una Unidad de Codificación (CU).
El módulo de predicción 110, como se describe más adelante, incluye un módulo de inter predicción para realizar inter predicción y un módulo de intra predicción para realizar intra predicción. El módulo de predicción 110 realiza la predicción en la unidad de procesamiento de una imagen dividida en el módulo de división de imágenes 105 con el fin de generar un bloque de predicción. La unidad de procesamiento de una imagen en el módulo de predicción 110 puede ser una CU, TU o PU. Además, después de que se hace una determinación sobre si la predicción realizada en una unidad de procesamiento correspondiente es inter predicción o intra predicción, se pueden determinar los detalles específicos de cada método de predicción (por ejemplo, un modo de predicción). En este punto, la unidad de procesamiento para realizar la predicción puede ser diferente de la que se usa para determinar un método de predicción y detalles específicos. Por ejemplo, un método de predicción y un modo de predicción se pueden determinar por PU y la predicción se puede realizar por TU.
Un residual (por ejemplo, un bloque residual o una señal residual) entre un bloque de predicción generado y un bloque original se introduce en el módulo de transformación 115. Además, la información de modo de predicción y la información de vector de movimiento usadas para la predicción se codifican junto con el residual en el módulo de codificación de entropía 130, y luego se entregan a un decodificador.
El módulo de transformación 115 realiza la transformación en un bloque residual por TU y genera coeficientes de transformación. El módulo de transformación 115 puede usar una TU para la transformación y la TU puede tener una estructura de árbol cuádruple. En este punto, el tamaño de TU se puede determinar dentro de un intervalo de un tamaño máximo y mínimo predeterminado. El módulo de transformación 115 puede transformar un bloque residual a través de una Transformada de Coseno Discreta (DCT) y/o una Transformada de Seno Discreta (DST).
El módulo de cuantificación 120 puede generar coeficientes de cuantificación cuantificando los residuales transformados por el módulo de transformación 115. El valor obtenido por el módulo de cuantificación 120 se proporciona al módulo de descuantificación 135 y al módulo de reordenación 125.
El módulo de reordenación 125 reordena los coeficientes de cuantificación proporcionados desde el módulo de cuantificación 120. Reordenando los coeficientes de cuantificación, se puede mejorar la eficiencia de codificación en el módulo de codificación de entropía 130. El módulo de reordenación 125 puede reordenar los coeficientes de cuantificación de una forma de bloque bidimensional en una forma de vector unidimensional a través de un método de escaneado de coeficientes. El módulo de reordenación 125 puede cambiar el orden de escaneado de coeficientes sobre la base de estadísticas estocásticas para los coeficientes entregados desde el módulo de cuantificación 120, mejorando por ello la eficiencia de codificación de entropía en el módulo de codificación de entropía 130.
El módulo de codificación de entropía 130 puede realizar codificación de entropía en los coeficientes de cuantificación reordenados por el módulo de reordenación 125. La codificación de entropía puede usar un método de codificación tal como Golomb exponencial, Codificación de Longitud Variable de Contexto Adaptativo (CAVLC) y Codificación Aritmética Binaria de Contexto Adaptativo. (CABAC). El módulo de codificación de entropía 130 puede encajar diversa información, tal como información de coeficientes de cuantificación e información de tipo de bloque, información de modo de predicción, información de unidad de partición, información de unidad de predicción e información de unidad de transmisión, información de vector de movimiento, información de imagen de referencia, información de interpolación de un bloque, e información de filtrado, entregada desde el módulo de reordenación 125 y el módulo de predicción 110.
La unidad de descuantificación 135 descuantifica los valores cuantificados por el módulo de cuantificación 120, y el módulo de transformación inversa 140 transforma inversamente el valor descuantificado por el módulo de descuantificación 135. El residual generado por el módulo de descuantificación 135 y el módulo de transformación inversa 140 se puede combinar con el bloque de predicción predicho por el módulo de predicción 110 con el fin de generar un bloque reconstruido.
El módulo de filtro 145 puede aplicar un filtro de desbloqueo y/o un Filtro de Bucle Adaptativo (ALF) a una imagen reconstruida.
El filtro de desbloqueo puede eliminar la distorsión de bloque que ocurre en el límite entre bloques en la imagen reconstruida. El ALF puede realizar un filtrado sobre la base de un valor obtenido comparando una imagen reconstruida con una imagen original después de que un bloque se filtra a través del filtro de desbloqueo. El ALF se puede usar solamente cuando se aplica una alta eficiencia.
Además, el módulo de filtro 145 puede no aplicar filtrado en un bloque reconstruido usado para inter predicción. La memoria 150 puede almacenar el bloque reconstruido o la imagen calculada por el módulo de filtro 145. El bloque reconstruido o la imagen almacenada en la memoria 150 se puede proporcionar al módulo de predicción 110 para realizar inter predicción.
La CU es una unidad mediante la cual se realiza la codificación/decodificación de una imagen, tiene una profundidad sobre la base de una estructura de árbol cuádruple y se puede dividir. La CU puede tener varios tamaños tales como 64x64, 32x32, 16x16 y 8x8.
Un codificador puede transmitir información sobre una Unidad de Codificación Más Grande (LCU) y una Unidad de Codificación Más Pequeña (SCU) a un decodificador. Además de la información sobre una LCU y una SCU, la información sobre el número de divisiones disponibles (es decir, información de profundidad) se puede transmitir a un decodificador. La información sobre si la Cu se divide sobre la base de una estructura de árbol cuádruple se puede transmitir desde un codificador a un decodificador a través de una información de marca tal como una marca de división. En lo sucesivo, a menos que se describa de otro modo, “transmisión” en esta especificación significa entrega de información desde un codificador a un decodificador.
La FIG. 2 es un diagrama conceptual que ilustra un módulo de predicción según un ejemplo.
Con referencia a la FIG. 2, el módulo de predicción 200 puede incluir un módulo de inter predicción 210 y un módulo de intra predicción 220.
El módulo de inter predicción 210 puede realizar predicción sobre la base de información en al menos una imagen entre imágenes anteriores y/o imágenes siguientes de una imagen actual con el fin de generar un bloque de predicción. Además, el módulo de intra predicción 220 puede realizar predicción sobre la base de información de píxeles en una imagen actual con el fin de generar un bloque de predicción. El módulo de inter predicción 210 puede seleccionar una imagen de referencia para una unidad de predicción, y puede seleccionar un bloque de referencia que puede tener el mismo tamaño que una unidad de predicción, como unidad de muestra de píxeles enteros. Entonces, el módulo de inter predicción 210 genera un bloque de predicción en el que se minimiza una señal residual con respecto a una unidad de predicción actual y también se minimiza el tamaño o magnitud de un vector de movimiento. El bloque de predicción se puede generar por una unidad de muestra de menos de un entero, tal como una unidad de muestra de 1/2 píxel y una unidad de muestra de 1/4 de píxel.
En este punto, un vector de movimiento se puede expresar con una unidad menor que un píxel entero y, por ejemplo, se puede expresar con una unidad de 1/4 de píxel con respecto a un píxel de luminancia y expresar con una unidad de 1/8 de píxel con respecto a un píxel de croma.
Se codifica y entrega a un decodificador información sobre el índice de una imagen de referencia, un vector de movimiento (por ejemplo, un predictor de vector de movimiento), y una señal residual que se seleccionan por el módulo de inter predicción 210.
La FIG. 3 es una vista que ilustra una estructura de árbol cuádruple de una unidad de procesamiento en un sistema según un ejemplo.
Una LCU 300 puede tener una estructura jerárquica que consta de unidades de codificación más pequeñas 310 a través de divisiones y el tamaño de una estructura jerárquica de una unidad de codificación se puede especificar en base a la información de tamaño, la información de profundidad y la información de marca de división, etc. La información de tamaño en una LCU, la información de profundidad de división y la información sobre si una unidad de codificación actual está dividida se puede incluir en un Conjunto de Parámetros de Secuencia (SPS) en el flujo de bits y se transmite a una unidad de decodificación de imágenes. No obstante, dado que una SCU ya no se divide en una unidad de codificación más pequeña, no se puede transmitir una marca de división de una unidad de codificación con respecto a una SCU.
Además, se puede hacer una determinación sobre cuál de una inter predicción y una intra predicción de imagen se realiza por una unidad de CU. Cuando se realiza una inter predicción, se puede realizar una inter predicción por una PU. Cuando se realiza una intra predicción de imagen, un modo de predicción se puede determinar por una PU de modo que la predicción se pueda realizar por una PU. En este punto, un modo de predicción se puede determinar por una PU y una intra predicción de imagen se puede realizar por una TU.
Con referencia a la FIG. 3, en el caso de una intra predicción de imagen, la PU 320 puede tener el tamaño de 2Nx2N o NxN (N es un número entero) y en el caso de una inter predicción, la PU 330 puede tener el tamaño de 2Nx2N, 2NxN, Nx2N o NxN (N es un número entero). En este punto, en el caso de NxN, por ejemplo, se puede determinar que se aplica solamente a un caso específico tal como una SCU o intra predicción de imagen. Aún más, además del tamaño de un bloque de predicción, se pueden definir y usar además NxmN, mNxN, 2NxmN o mNx2N (m < 1).
La FIG. 4 es un diagrama de bloques que ilustra un dispositivo de decodificación de imágenes según un ejemplo. Con referencia a la FIG. 4, el dispositivo de decodificación de imágenes 400 incluye un módulo de decodificación de entropía 410, un módulo de reordenación 415, un módulo de descuantificación 420, un módulo de transformación inversa 425, un módulo de predicción 430, un módulo de filtro 435 y una memoria 440.
Cuando se introduce un flujo de bits de imagen en un dispositivo de decodificación de imágenes, se puede decodificar según un procedimiento de procesamiento de imágenes que se aplica en el dispositivo de codificación de imágenes.
Por ejemplo, cuando se usa Codificación de Longitud Variable (VLC) tal como CAVLC con el fin de realizar codificación de entropía en un dispositivo de codificación de imágenes, el módulo de decodificación de entropía 410 puede realizar decodificación de entropía con la misma tabla de VLC que se usa en un dispositivo de codificación de imágenes. Cuando se usa CABAC con el fin de realizar la codificación de entropía en un dispositivo de codificación de imágenes, el módulo de decodificación de entropía 410 puede realizar la decodificación de entropía a través de CABAC en correspondencia con el mismo.
El módulo de decodificación de entropía 410 decodifica por entropía información en el flujo de bits codificado por entropía transmitido. La información para generar un bloque de predicción entre la información decodificada en el módulo de decodificación de entropía 410 se puede proporcionar al módulo de predicción 430, y los residuales obtenidos a través de la decodificación de entropía en el módulo de decodificación de entropía 410 se pueden introducir en el módulo de reordenación 415.
El módulo de reordenación 415 puede reordenar el flujo de bits decodificado por entropía mediante el módulo de decodificación de entropía 410 en base a un método de reordenación de un dispositivo de codificación de imágenes. El módulo de reordenación 415 puede reordenar coeficientes en una forma de vector unidireccional en aquellos en una forma de bloque de segunda dimensión. El módulo de reordenación 315 realiza la disposición a través de un método que recibe información con relación al escaneado de coeficientes realizado por un codificador y realiza un escaneado inverso sobre la base del orden de escaneado realizado por una unidad de codificación correspondiente. El módulo de descuantificación 420 puede realizar la descuantificación sobre la base de un parámetro de cuantificación proporcionado desde un codificador y un valor de coeficiente de un bloque reordenado.
El módulo de transformación inversa 425 puede realizar una DCT inversa y/o DST inversa con respecto a una DCT y DST que realiza una unidad de transformación de un codificador, en un resultado de cuantificación de un dispositivo de codificación de imágenes. La transformación inversa se puede realizar mediante una unidad de transmisión o una unidad de división de imagen determinada por un codificador. La DCT y/o DST en un módulo de transformación de un codificador se pueden realizar de manera selectiva según la información sobre el tamaño o la dirección de predicción de un bloque actual, y el módulo de transformación inversa 425 de un decodificador puede realizar una transformación inversa sobre la base de la información de transformación de un módulo de transformación de un codificador.
El módulo de predicción 430 puede generar un bloque de predicción sobre la base de la información relacionada con la generación de bloques de predicción proporcionada desde el módulo de decodificación de entropía 410 y el bloque decodificado anteriormente y/o la información de imagen proporcionada desde la memoria 440. Un bloque reconstruido se puede generar usando un bloque de predicción generado por el módulo de predicción 430 y un bloque residual proporcionado desde el módulo de transformación inversa 425.
El bloque y/o la imagen reconstruidos se pueden proporcionar al módulo de filtro 435. El módulo de filtro 435 aplica filtrado de desbloqueo, Desplazamiento Adaptativo de Muestras (SAO) y/o filtrado de bucle adaptativo sobre el bloque y/o imagen reconstruidos.
La memoria 440 puede almacenar la imagen o el bloque reconstruido con el fin de usarla como imagen de referencia o bloque de referencia, o puede proporcionar la imagen reconstruida a una unidad de salida.
La FIG. 5 es un diagrama conceptual que ilustra un módulo de predicción de un dispositivo de decodificación de imágenes según un ejemplo.
Con referencia a la FIG. 5, el módulo de predicción 500 puede incluir un módulo de intra predicción de imagen 510 y un módulo de inter predicción 510.
Cuando un modo de predicción para una unidad de predicción correspondiente es un modo de intra predicción (es decir, un modo de intra predicción de imagen), el módulo de intra predicción de imagen 510 puede generar un bloque de predicción sobre la base de la información de píxeles en una imagen actual.
Cuando un modo de predicción para una unidad de predicción correspondiente es un modo de inter predicción (es decir, un modo de inter predicción), el módulo de inter predicción 520 realiza una inter predicción en una unidad de predicción actual usando información de movimiento necesaria para la inter predicción de una unidad de predicción actual proporcionada desde un dispositivo de codificación de imágenes, por ejemplo, información sobre un vector de movimiento y un índice de imagen de referencia, etc., sobre la base de información en al menos una imagen entre las imágenes anteriores o las imágenes siguientes de una imagen actual que incluye una unidad de predicción actual. En este punto, después de que se confirmen la marca de salto y la marca de fusión de una unidad de codificación recibida, la información de movimiento se puede derivar según las mismas.
Aunque se describe el caso de que el módulo de predicción 500 incluye cada componente de función, por conveniencia de la descripción, el módulo de predicción 500 puede incluir un único componente para realizar las funciones anteriores.
En el caso de un modo de inter predicción, un método de derivación de información de movimiento en un dispositivo de codificación y un dispositivo de decodificación incluye un modo de salto, un modo directo y un modo de fusión, etc. El modo de salto y el modo directo usan información de movimiento derivada de los Predictores de Vector de Movimiento (MVP) candidatos en un Predictor de Vector de Movimiento Avanzado (AMVP). Por conveniencia de la descripción, se hace referencia al modo de salto y al modo directo juntos como modo de AMVP. Por ejemplo, en el modo de AMVP, un vector de movimiento de un bloque actual con respecto a una imagen de referencia se puede derivar usando la suma de una Diferencia de Vector de Movimiento (MVD) de un bloque actual y un bloque vecino con respecto a la imagen de referencia y un Predictor de Vector de Movimiento (MVP) de un bloque vecino con respecto a la imagen de referencia.
En relación con un bloque que tiene aplicado el modo directo, se pueden transmitir un bloque residual correspondiente a un valor de diferencia de un bloque de predicción, generado en base a un bloque de referencia que indica el vector de movimiento del bloque del modo directo, y un bloque actual. En relación con un bloque que tiene aplicado el modo de salto (por ejemplo, una unidad de predicción), una señal residual no se puede transmitir desde un codificador a un decodificador. En el caso del modo de salto, se puede usar un valor de un bloque de predicción como valor de un bloque actual.
En el caso del modo de fusión aplicado, se puede determinar un candidato de fusión entre bloques vecinos de un bloque actual (es decir, un bloque objetivo de predicción) y se puede usar la información de movimiento de uno de los candidatos de fusión como información de movimiento de un bloque actual. Se puede transmitir una señal residual con respecto a un bloque actual que tiene aplicado un modo de fusión.
La FIG. 6 es una vista que ilustra un modo de AMVP en un sistema según un ejemplo.
Cuando se aplica un AMVP, se puede seleccionar el mejor MVP aplicando Competencia de Vectores de Movimiento (MVC) en los MVP de unos bloques candidatos disponibles alrededor de un bloque actual y/o un bloque disponible entre particiones de cada imagen de referencia que se ubican conjuntamente con un bloque actual. Aquí, se puede hacer referencia al bloque disponible entre las particiones de cada imagen de referencia que están situadas conjuntamente con un bloque actual como bloque coubicado y se puede hacer referencia a la imagen de referencia como imagen objetivo. Un vector de movimiento de un bloque actual se puede derivar en base al mejor MVP. Además, cuando un bloque vecino de un bloque actual es un modo de inter predicción, puede no ser un bloque disponible.
Con referencia al ejemplo de la FIG. 6, mientras que se hace la búsqueda en la dirección de la flecha en el área izquierda 610 de un bloque actual, un MVP del primer bloque A se puede seleccionar como uno de un candidato de AMVP. Aquí, el primer bloque es el bloque que se encuentra al principio como bloque que está disponible y que tiene un índice de referencia idéntico que indica la imagen de referencia con la imagen actual.
Aunque se describe el caso en el que se hace la búsqueda desde la parte superior hacia la parte inferior a lo largo de la dirección de la flecha en la FIG. 6, que es un ejemplo de un método de selección de un candidato de AMVP en el área izquierda del bloque actual, la búsqueda se puede hacer desde la parte inferior hacia la parte superior a diferencia de la FIG. 6.
Además, en lugar de buscar el área izquierda completa del bloque actual en orden, un bloque específico en el área izquierda se puede usar de manera constante como candidato de AMVP. Por ejemplo, el MVP del bloque inferior en el área izquierda que se encuentra con el bloque de esquina C 630 se puede usar como el candidato de AMVP del área izquierda.
Se puede seleccionar un candidato de AMVP desde la parte superior del bloque actual. Con referencia al ejemplo de la FIG. 6, durante la búsqueda en la dirección de la flecha en el área superior 620 del bloque actual, un MVP del primer bloque B que tiene el mismo índice de referencia que el bloque actual y está disponible se puede seleccionar como candidato de AMVP para el área superior.
Aunque se describe el caso en el que se hace la búsqueda de izquierda a derecha del bloque actual, que es un ejemplo de un método de selección de un candidato de AMVP en el área superior del bloque actual, la búsqueda se puede hacer de derecha a izquierda, a diferencia de la FIG. 6.
Además, en lugar de buscar el área superior completa del bloque actual en orden, un bloque específico se puede usar de manera constante como candidato de AMVP con respecto al área superior del bloque actual. Por ejemplo, el MVP del bloque derecho en el área superior que se encuentra con el bloque de esquina C 640 se puede usar como el candidato de AMVP para el área superior del bloque actual.
Un candidato de AMVP se puede seleccionar de los bloques de esquina 630, 640 y 650 del bloque actual. Con referencia a la FIG. 6, mientras que la búsqueda se hace en el orden del bloque de esquina de la parte superior derecha 640 ^ el bloque de esquina de la parte superior izquierda 650 ^ el bloque de esquina de la parte inferior izquierda 630, el MVP del primer bloque que tiene el mismo índice de referencia que el bloque actual y está disponible se puede seleccionar con respecto a los bloques de esquina C.
Aunque la búsqueda del bloque de esquina en el orden de la parte superior derecha ^ la parte superior izquierda ^ la parte inferior izquierda se describe con referencia a la FIG. 6, que es un ejemplo de un método de selección de un candidato de AMVp a partir de bloques de esquina, a diferencia de la FIG. 6, la búsqueda se puede hacer en el orden de la parte inferior izquierda ^ la parte superior izquierda ^ la parte superior derecha, o en el orden de la parte superior izquierda ^ la parte superior derecha ^ la parte inferior izquierda o la parte superior izquierda ^ la parte inferior izquierda ^ la parte superior derecha.
Además, en lugar de buscar cada bloque de esquina en orden, todos los MVP de cada bloque de esquina se pueden seleccionar como candidato de AMVP.
Además de los candidatos de AMVP para cada área (el área izquierda/superior/de esquina del bloque actual) descritos anteriormente, se puede seleccionar una combinación de los candidatos de AMVP para cada área como uno de los candidatos de AMVP. Por ejemplo, un valor mediano de cada información de movimiento en los MVP seleccionados del área izquierda, área superior y área de esquina del bloque actual se puede tomar como uno de los candidatos de AMVP.
Además de un método de selección de un candidato de AMVP de bloques espacialmente adyacentes al bloque actual, se puede seleccionar un MVP de un bloque coubicado como candidato de AMVP.
El mejor MVP se selecciona a través de MVC con los candidatos de AMVP seleccionados, y la información de movimiento en un bloque actual se puede representar en base al MVP óptico seleccionado.
Por ejemplo, cuando los candidatos de AMVP se seleccionan por una unidad de predicción de un dispositivo de codificación/dispositivo de decodificación, los MVP redundantes se pueden excluir con el fin de reducir la redundancia y, luego, se puede crear una lista de candidatos de AMVP. En otras palabras, después de dejar solamente un MVP entre los n MVP redundantes, el n-1 MVP restante se pueden excluir de la lista de candidatos de AMVP.
Se puede especificar el número y el orden de los MVP que constituyen la lista de candidatos de AMVP. Por ejemplo, después de seleccionar un número predeterminado de candidatos a partir de los candidatos alrededor de un bloque actual y seleccionar un candidato a partir de los bloques coubicados, se puede crear una lista de candidatos de AMVP. En este punto, se puede especificar un orden para determinar la disponibilidad de candidatos que constituyen una lista de candidatos de AMVP y, luego, los candidatos que se determine que están disponibles primero según el orden pueden constituir una lista. Cuando un bloque candidato está en un modo de intra predicción de imagen, se considera como MVP no disponible y se excluye de los candidatos de AMVP.
El módulo de predicción puede calcular los costes para los candidatos en la lista de candidatos de AMVP con el fin de seleccionar el mejor MVP. En este caso, comparando el coste del MVP seleccionado de la lista de candidatos de AMVP con el de un MVP en una posición específica o un MVP obtenido a través de un resultado de cálculo específico, solamente se puede determinar un MVP.
Como se ha descrito anteriormente, cuando el mejor MVP se deriva a través del AMVP, el modo de salto o el modo directo pueden ser aplicables usando el mejor MVP.
La FIG. 7 es una vista cuando se aplica un modo de fusión en un sistema según un ejemplo.
Cuando se aplica el modo de fusión, la información de movimiento en un bloque actual se puede representar usando una información de movimiento en bloques alrededor del bloque actual. Por ejemplo, un vector de movimiento para un bloque de referencia (imagen) entre bloques alrededor del bloque actual se puede usar como el del bloque actual. En este punto, una señal residual se puede transmitir junto con información de movimiento, y cuando el valor de píxel de un bloque de predicción se usa como el del bloque actual, puede no ser transmitida una señal residual. Aquí, los bloques alrededor del bloque actual incluyen un bloque coubicado. Por ejemplo, como se muestra en el ejemplo de la FIG. 7, el bloque 710 seleccionado en el área izquierda del bloque actual y el bloque 720 seleccionado en el área superior del bloque actual se pueden usar como candidatos de fusión. En este punto, como se muestra en la FIG. 7, el bloque seleccionado en el área izquierda del bloque actual puede ser un bloque en la parte superior izquierda y el bloque seleccionado en el área superior del bloque actual puede ser un bloque en la parte superior izquierda.
Además, cuando se aplica el modo de fusión, de una forma similar al modo de AMVP, se puede usar un bloque coubicado como uno de los candidatos y los bloques en la esquina del bloque actual se pueden usar como candidatos.
De esta forma, se pueden seleccionar candidatos de fusión y se puede seleccionar un candidato a partir de los candidatos de fusión. Entonces, la información de movimiento en el bloque actual se puede representar usando el vector de movimiento del candidato seleccionado. Por ejemplo, cuando los candidatos de fusión se seleccionan por un módulo de predicción de un dispositivo de codificación/dispositivo de decodificación, los candidatos redundantes se pueden excluir con el fin de reducir la redundancia y, luego, se puede crear una lista de candidatos de fusión. Se puede especificar el número y orden de candidatos que constituyen la lista de candidatos de fusión. Por ejemplo, se puede seleccionar un número predeterminado de candidatos de los bloques alrededor del bloque actual y se puede seleccionar un candidato a partir de los bloques coubicados. En este punto, se puede especificar un orden para determinar la disponibilidad de candidatos. Luego, después de la determinación de la disponibilidad de candidatos según el orden, los candidatos que se determine que están disponibles primero pueden constituir una lista. Un bloque en un modo de intra predicción de imagen se puede determinar como bloque no disponible.
El módulo de predicción puede calcular los costes de los candidatos en una lista de candidatos de fusión con el fin de seleccionar el mejor bloque candidato. Como se ha mencionado anteriormente, una vez que se selecciona un bloque candidato de la lista de candidatos de fusión, el bloque actual se puede fundir en el bloque candidato seleccionado. Cuando el bloque actual se funde con el bloque candidato seleccionado, la información de movimiento en el bloque candidato seleccionado se puede usar como información de movimiento en el bloque actual.
Además, comparando el coste de usar el MVP seleccionado por el AMVP con el coste de aplicar un modo de fusión, un dispositivo de codificación puede realizar la inter predicción del bloque actual usando uno de un modo de AMVP y un modo de fusión.
<Indicación de dirección del modo de predicción>
Cuando los métodos mencionados anteriormente de derivación de información de movimiento se usan para un dispositivo de codificación, el dispositivo de codificación puede transmitir información para derivar información de movimiento de un bloque actual a un dispositivo de decodificación.
La información transmitida notifica en primer lugar que se aplica un modo de salto según si hay una señal residual, y cuando se aplica el modo de salto, permite que se realice la predicción según el mismo. La información sobre si se ha de aplicar el modo de salto se puede entregar a través de una marca para la aplicación del modo de salto (en lo sucesivo, al que se hace referencia como skip_flag).
Cuando skip_flag indica que no se aplica un modo de salto, puede indicar que se aplica un modo directo. En este punto, designando un índice para el modo de predicción y transmitiendo un índice designado para un modo directo (por ejemplo, pred_mode == 0), se puede entregar información de que el modo directo se aplica a un bloque actual. Cuando se aplica el modo de fusión, un dispositivo de codificación puede transmitir información sobre el modo de fusión a un dispositivo de decodificación. Por ejemplo, con una marca (en lo sucesivo, a la que se hace referencia como merge_flag) que indica información sobre si se aplica un modo de fusión, se puede notificar a un dispositivo de decodificación si el modo de fusión se ha de aplicar a un bloque correspondiente.
La Tabla 1 ilustra una estructura de sintaxis usada para transmitir información sobre un método de derivación de información de movimiento según un ejemplo.
Tabla 1
Aquí, skip_flag es una marca que indica si se aplica un modo de salto e indica que el modo de salto se aplica cuando un valor de skip_flag es 1. Además, merge_flag es una marca que indica si se aplica un modo de fusión e indica que el modo de fusión se aplica cuando un valor de merge_flag es 1. No obstante, la Tabla 1 es un ejemplo de aplicación de los contenidos anteriores. La Tabla 1 también se puede definir para aplicar un modo de salto cuando un valor de skip_flag es 0 o aplicar un modo de fusión cuando un valor de merge_flag es 0.
En la Tabla 1, pred_mode es una sintaxis que indica qué modo de predicción se aplica y pred_mode == 0 es un valor que indica que se aplica un modo directo.
merge_left_flag es una marca que indica que un bloque actual se funde en qué lado de un candidato de fusión. Por ejemplo, cuando merge_left_flag == 1, indica que un bloque actual se funde en un candidato de fusión seleccionado de la izquierda del bloque actual y cuando merge_left_flag == 0, indica que un bloque actual se funde en un candidato de fusión seleccionado de la parte superior del bloque actual.
Aunque se describió anteriormente que un pred_mode que indica si se aplica un modo directo se confirma primero y luego se confirma un merge_flag, también es posible que el merge_flag se confirme primero y luego se pueda confirmar el pred_mode.
Además, a diferencia de la Tabla 1, cuando se aplica un modo de salto que no transmite una señal residual o se aplica un modo de fusión sin la transmisión de una señal residual, un conjunto de parámetros de nivel superior, no un conjunto de parámetros de un nivel de unidad de predicción, puede notificar información relacionada en relación con si se transmite una señal residual.
Además, cuando se aplica un modo de salto, añadiendo una sintaxis que indica una dirección de predicción a un conjunto de parámetros, se pueden realizar de manera eficaz una predicción unidireccional y una predicción bidireccional.
Por ejemplo, aplicando un modo de salto a un segmento B decodificado a través de una intra predicción o una inter predicción usando una pluralidad de índices de referencia y una pluralidad de vectores de movimiento e indicando una dirección de predicción, una predicción unidireccional, por ejemplo, una predicción de la dirección L0 o una predicción de la dirección L1, se puede realizar de manera eficaz en el segmento B. Aquí, L0 y L1, son listas de imágenes de referencia. L0 es una lista que tiene un índice asignado que es más bajo en la medida que una imagen de referencia correspondiente está más cerca de una imagen actual en una dirección hacia adelante (es decir, la dirección pasada en un eje de tiempo), y L1 es una lista que tiene un índice asignado que es más bajo en la medida que una imagen de referencia correspondiente está más cerca de una imagen actual en una dirección inversa (es decir, la dirección futura en un eje de tiempo). Por consiguiente, en el caso del segmento B, a medida que se aplica el modo de salto, una de las tres direcciones de predicción (por ejemplo, la dirección L0, la dirección L1 y la bidireccional) se puede designar como dirección de predicción.
Cuando se aplica el modo de salto, un indicador de dirección de predicción (por ejemplo, inter_pred_idc) que indica una dirección de predicción se puede introducir como sintaxis que notifica una dirección de predicción.
La Tabla 2 ilustra un ejemplo de sintaxis cuando se usa inter_pred_idc.
Tabla 2
En la Tabla 2, cuando se aplica el modo de salto (skip_flag = 1), como se ha mencionado anteriormente, inter_pred_idc puede indicar una dirección de tres direcciones de predicción (la dirección L0, la dirección L1 y la bidireccional). Por ejemplo, (1) cuando inter_pred_idc == 0, puede indicar una predicción direccional L0, (2) cuando inter_pred_idc == 1, puede indicar una predicción direccional L1, y (3) cuando inter_pred_idc == 2, puede indicar una predicción bidireccional.
La FIG. 8 es una vista que ilustra un método de configuración de la información del modo de predicción y transmitirla en un dispositivo de codificación según un ejemplo.
Con referencia a la FIG. 8, un dispositivo de codificación puede configurar un conjunto de parámetros primero en la operación S810. El conjunto de parámetros se configura según una estructura de sintaxis predeterminada e incluye información específica a ser transmitida a un decodificador. Se puede hacer referencia al conjunto de parámetros puede como sintaxis para la información correspondiente. Cuando se aplica un modo de salto, un dispositivo de codificación puede configurar un parámetro con el fin de incluir un indicador que indique una lista de imágenes de referencia que usan un vector de movimiento a través del modo de salto.
En este punto, un dispositivo de codificación puede configurar un conjunto de parámetros con el fin de incluir un indicador que no indique simplemente una lista de imágenes de referencia, sino que indique una imagen de referencia o un bloque de referencia específico. La imagen de referencia puede ser una imagen específica en una lista de imágenes de referencia, y el bloque de referencia puede ser uno de los bloques alrededor de un bloque actual o un bloque coubicado.
El dispositivo de codificación transmite el conjunto de parámetros configurados a un dispositivo de decodificación en la operación S820. La información sobre el conjunto de parámetros se codifica y entrega al dispositivo de decodificación a través del flujo de bits.
El dispositivo de decodificación que recibe el conjunto de parámetros puede obtener información para decodificar el bloque actual. El conjunto de parámetros recibido puede incluir información que indique una dirección de predicción en un modo de salto. Cuando se aplica el modo de salto, el dispositivo de decodificación puede obtener información de movimiento en un bloque actual usando una dirección de predicción indicada, es decir, usando un MVP con una lista de imágenes de referencia indicada.
Cuando la información transmitida indica directamente un bloque de referencia al que se ha de aplicar un modo de salto, el vector de movimiento de un bloque actual se puede derivar usando el vector de movimiento de un bloque de referencia correspondiente. Dado que se aplica el modo de salto, un bloque de predicción generado a través del bloque de referencia que indica un vector de movimiento correspondiente se puede usar como bloque de valores de píxeles para un bloque actual.
<Integración del modo de AMVP y el modo de fusión - estimación de costes y cambio de lista de candidatos de AMVP>
Además, dos modos de derivación de información de movimiento, el modo de AMVP y el modo de fusión, son similares entre sí en el sentido de que la información de píxeles en un bloque actual se obtiene a través de información de movimiento derivada de bloques alrededor del bloque actual y una señal residual (incluyendo el caso de que no se entregue ninguna señal residual debido a que no hay residual). Por consiguiente, se puede considerar usar un modo en el que estén integrados el modo de AMV<p>y el modo de fusión.
En el modo de AMVP y el modo de fusión, los bloques candidatos usados para derivar información de movimiento en un bloque actual pueden ser diferentes. Por ejemplo, en el modo de AMVP, los vectores de movimiento de varios bloques candidatos se pueden usar como MVP candidatos y, usando uno de los MVP candidatos, se puede derivar información de movimiento sobre el bloque actual. En el modo de fusión, usando el vector de movimiento de un bloque candidato seleccionado a partir de los bloques candidatos a la izquierda del bloque actual y los bloques candidatos en la parte superior del bloque actual, se puede derivar la información de movimiento en el bloque actual. No obstante, incluso si los bloques candidatos del modo de AMVP y los bloques candidatos del modo de fusión son diferentes unos de otros, un área buscada para seleccionar bloques candidatos (es decir, unos MVP candidatos) en el modo de AMVP incluye candidatos de fusión. Por ejemplo, en el caso de la FIG. 6 donde se aplica el modo de AMVP, las áreas 610 y 620 buscadas para seleccionar los bloques candidatos A y B pueden incluir los bloques candidatos 710 y 720 que se seleccionan para el modo de fusión en el caso de la FIG. 7 donde se aplica el modo de fusión.
Además, como método de derivación de información de movimiento en el bloque actual, el modo de AMVP y el modo de fusión se pueden aplicar secuencialmente. La cantidad de información transmitida se puede reducir derivando la información necesaria para que el modo se use más tarde del primer modo aplicado. Por ejemplo, se supone que se aplica el modo de AMVP, y se usa el modo de fusión si se determina que no se ha de usar el modo de AMVP. Luego, la información usada para el modo de AMVP (por ejemplo, información sobre un bloque candidato, tal como un MVP candidato) se combina con el fin de derivar la información necesaria para aplicar el modo de fusión. Por ejemplo, la información sobre una marca de salto usada en el modo de AMP, la información sobre una sintaxis que representa un modo de predicción y la información sobre candidatos de AMVP se pueden combinar con el fin de reducir la cantidad de información usada para representar el modo de fusión.
Más en detalle, se puede considerar un candidato del modo de fusión durante el cálculo de costes para seleccionar el mejor candidato de los candidatos de AMVP.
En lo sucesivo, un aspecto de un dispositivo de codificación y un aspecto de un dispositivo de decodificación se describirán por separado.
(1) Aspecto de codificación
Como se ha mencionado anteriormente, si se consideran candidatos de fusión durante el cálculo de los costes para los candidatos de AMVP, el cálculo de los costes para el modo de AMVP y el modo de fusión se pueden simplificar en el lado de un dispositivo de codificación. Por lo tanto, se puede reducir la complejidad de la codificación.
Más en detalle, un dispositivo de codificación puede comprobar los costes cuando se aplica el modo de AMVP al bloque actual. En este punto, el dispositivo de codificación puede comprobar por separado los costes para el modo de salto y los costes para el modo directo, respectivamente.
Si los costes para el modo de salto son menores que aquellos para el modo directo, usando al menos una de las dos condiciones 1) y 2) como a continuación, se puede pasar un proceso para calcular los costes para el modo de fusión. Si los costes para el modo de salto son menores que aquellos para el modo directo, después de comparar los costes para un candidato para el modo de salto y un candidato para el modo directo, se determina que se ha de aplicar el modo de salto. Los costes para el modo de fusión que transmite una señal residual mientras que se usa un vector de movimiento de un bloque vecino de una forma similar al modo directo pueden ser similares a aquellos para el modo directo. Si un bloque candidato de AMVP es un bloque candidato ya revisado durante la comparación de costes para el modo de salto y el modo directo, el cálculo de costes para el modo de fusión puede no ser realizado en un bloque candidato correspondiente.
1) Si un bloque candidato de AMVP o un MVP candidato, que se selecciona del área superior y del área izquierda del bloque actual, es idéntico a un bloque candidato o un vector de movimiento candidato del modo de fusión. (En lo sucesivo, por conveniencia de la descripción, se hace referencia a un bloque candidato de AMVP o un MVP candidato como candidato de AMVP, y se hace referencia a un bloque candidato o un vector de movimiento candidato del modo de fusión como candidato de fusión.
2) Si el mejor MVP determinado a través de AMVP es idéntico a un candidato de fusión.
Cuando solamente se usa la condición 1),
(a) Cuando el candidato de AMVP seleccionado del área izquierda del bloque actual (consulte 610 de la FIG. 6) es idéntico a un candidato de fusión seleccionado del área izquierda del bloque actual, el cálculo de costes en el caso de que el bloque actual se funda en el candidato de fusión que se selecciona del área izquierda del bloque actual se excluye durante el cálculo de costes para el modo de fusión.
(b) Cuando un candidato de AMVP seleccionado del área superior del bloque actual (consulte 620 de la FIG. 6) es idéntico a un candidato de fusión seleccionado del área superior del bloque actual, el cálculo de costes en el caso de que el bloque actual se funda en el candidato de fusión que se selecciona del área superior del bloque actual se excluye durante el cálculo de costes para el modo de fusión.
(c) Si es necesario, se puede aplicar una combinación de (a) y (b). Por ejemplo, cuando (a) y (b) se satisfacen simultáneamente, el cálculo de costes en un candidato de fusión seleccionado del área izquierda o superior del bloque actual se puede excluir o un proceso completo para calcular los costes para el modo de fusión se puede excluir durante cálculo de costes para el modo de fusión.
Cuando se usan las condiciones 1) y 2),
(a) Cuando el mejor MVP determinado a través de AMVP está en el área izquierda del bloque actual (consulte 610 de la FIG. 6) y es idéntico a un candidato de fusión seleccionado del área izquierda del bloque actual, el cálculo de costes en el caso de que el bloque actual se funda en el candidato de fusión seleccionado se excluye durante el cálculo de costes para el modo de fusión.
(b) Cuando el mejor MVP determinado a través de AMVP está en el área superior del bloque actual (consulte el área B de la FIG. 6) y es idéntico a un candidato de fusión seleccionado del área superior del bloque actual, el cálculo de costes en el caso de que el bloque actual se funda en el candidato de fusión seleccionado se excluye durante el cálculo de costes para el modo de fusión.
(c) Si es necesario, se puede aplicar una combinación de (a) y (b). Por ejemplo, cuando (a) y (b) se satisfacen simultáneamente, se puede excluir el cálculo de costes de un candidato de fusión seleccionado del área izquierda o superior del bloque actual o se puede excluir un proceso completo para calcular costes para el modo de fusión durante el cálculo de costes para el modo de fusión.
La FIG. 9 es un diagrama de flujo que ilustra un método de cálculo de costes para candidatos de predicción en un dispositivo de codificación según un ejemplo.
Con referencia a la FIG. 9, un dispositivo de codificación (por ejemplo, un módulo de predicción) calcula los costes para los candidatos de AMVP en la operación S910.
El dispositivo de codificación determina si un candidato de fusión está incluido en el candidato de AMVP en la operación S920. En este punto, si el candidato de fusión está incluido en el candidato de AMVP incluye determinar si uno de los candidatos de AMVP completos es idéntico al candidato de fusión y determinar si el mejor candidato de AMVP es idéntico al candidato de fusión. La descripción detallada para cada caso es idéntica a la descripción anterior.
Cuando el candidato de fusión se incluye en el candidato de AMVP (es decir, el candidato de fusión es idéntico a uno de los candidatos de AMVP), el cálculo de costes en el caso de que el bloque actual se funda en un candidato de fusión correspondiente se excluye en la operación S930. Si el candidato de fusión no está incluido en el candidato de AMVP, los costes en el caso de que el candidato de fusión se funda en un candidato de fusión correspondiente se calculan en la operación S940.
(2) Aspecto del dispositivo de decodificación
Cuando no se aplica el modo de salto (skip_flag == 0) y se aplica una inter predicción (pred_mode == MODE_INTER), incluso si tanto una marca de fusión (por ejemplo, merge_flag) como/o una marca que indica una dirección/objetivo de fusión (por ejemplo, merge_left_flag) no se transmiten, un dispositivo de decodificación puede derivar información de movimiento en un bloque actual. En este punto, se puede usar la siguiente condición.
Condición: Si un candidato de AMVP y un candidato de fusión seleccionados para el área izquierda y el área superior de un bloque actual (por ejemplo, las áreas A y B de la FIG. 6) son idénticos
Cuando se aplica la condición anterior,
(a) Cuando un candidato de AMVP seleccionado del área izquierda del bloque actual (consulte el área A de la FIG.
6) es idéntico a un candidato de fusión seleccionado del área izquierda del bloque actual, si se aplica el modo de fusión (merge_flag == 1), el bloque actual se puede fundir en el candidato de fusión seleccionado. Por consiguiente, una marca que indica que el bloque actual se funde en un candidato de fusión de qué lado (por ejemplo, merge_left_flag) no se puede transmitir desde un dispositivo de codificación.
(b) Cuando un candidato de AMVP seleccionado del área superior del bloque actual (consulte el área B de la FIG. 6) es idéntico a un candidato de fusión seleccionado del área superior del bloque actual, si se aplica el modo de fusión (merge_flag == 1), el bloque actual se puede fundir en el candidato de fusión seleccionado. Por consiguiente, una marca que indica con qué candidato de fusión en qué lado del bloque actual se ha de fundir el bloque actual (por ejemplo, merge_left_flag) no se puede transmitir desde el dispositivo de codificación.
(c) Si es necesario, se puede aplicar una combinación de (a) y (b). Por ejemplo, cuando un candidato de AMVP seleccionado del área izquierda del bloque actual y un candidato de AMVP seleccionado del área superior del bloque actual son idénticos a un candidato de fusión seleccionado del área izquierda del bloque actual y un candidato de fusión seleccionado del área superior del bloque actual, respectivamente, no se puede aplicar el modo de fusión. Por consiguiente, una marca que indica si se ha de aplicar el modo de fusión (por ejemplo, merge_flag) y una marca que indica con qué candidato de fusión en qué lado del bloque actual se ha de fundir el bloque actual (por ejemplo, merge_left_flag) no se puede transmitir desde un dispositivo de codificación.
La FIG. 10 es un diagrama de flujo que ilustra un método de realización del modo de fusión en un dispositivo de decodificación según un ejemplo. Con referencia a la Fig. 10, el dispositivo de decodificación puede determinar si el modo de fusión se aplica en la operación S1010.
Cuando se aplica el modo de fusión, se determina si al menos uno de los candidatos de fusión se incluye en los candidatos de AMVP. En este punto, si el candidato de fusión se incluye en el candidato de AMVP incluye determinar si uno de los candidatos de AMVP completos es idéntico al candidato de fusión y determinar si el mejor candidato de AMVP es idéntico al candidato de fusión. La descripción detallada para cada caso es idéntica a la descripción anterior.
Si los candidatos de fusión no son idénticos a los candidatos de AMVP, una marca que indica con qué candidato de fusión en qué lado del bloque actual se funde el bloque actual se decodifica en la operación S1030, y la fusión se realiza según la marca en la operación S1050. Si uno de los candidatos de fusión es idéntico a cualquier candidato de AMVP, una marca que indica con qué candidato de fusión en qué lado del bloque actual se funde el candidato de AMVP no se decodifica en la operación S1040, y el bloque actual se funde en un candidato de fusión que es diferente con el candidato de AMVP en la operación S1050. Aquí, no decodificar el plano que indica con qué candidato de fusión en qué lado del bloque actual se funde el reloj actual incluye no realizar la decodificación con la razón de que un plano correspondiente no se transmite desde un dispositivo de codificación.
Se puede proponer otro método de integración de un método de uso de AMVP (modo de AMVP) y un modo de fusión. En este método, se puede considerar un candidato de fusión durante la generación de un candidato de AMVP. Es decir, cuando cada candidato de AMVP es diferente de un candidato de fusión, el candidato de fusión se puede añadir como candidato de AMVP y se puede aplicar un modo de AMVP. En este punto, considerando la similitud entre el modo de AMVP y el modo de fusión, un dispositivo de codificación puede señalar a un dispositivo de decodificación que use solamente uno del modo de AMVP y del modo de fusión. Aquí, “señalar” significa transmitir información y/o instrucción relacionada.
Primero, el dispositivo de codificación compara una lista de candidatos de AMVP con una lista de candidatos de fusión con el fin de comprobar si un candidato de AMVP y un candidato de fusión son idénticos con respecto a un área vecina del bloque actual (por ejemplo, el área izquierda y/o superior del bloque actual 610 o 620 de la FIG. 6). Cuando algunos o todos los candidatos de fusión no están en la lista de AMVP (es decir, hay un candidato de fusión no incluido en el candidato de AMVP) con respecto a un área vecina del bloque actual, se puede añadir el candidato de fusión en lugar del candidato de AMVP a la lista de candidatos de AMVP. Por consiguiente, los candidatos de AMVP se pueden ampliar.
En este punto, sin la señalización del modo de fusión, se puede hacer la señalización para aplicar la lista de candidatos de AMVP ampliados y el modo de AMVP. Por ejemplo, cuando se transmite una señal residual, se puede realizar una señalización con el fin de realizar el modo directo que usan los candidatos de AMVP ampliados.
Como se ha mencionado anteriormente, además del método de ampliación de los candidatos de AMVP añadiendo un candidato de fusión a una lista de candidatos de AMVP, compitiendo algunos o todos los candidatos de AMVP con un candidato de fusión, algunos o todos los candidatos de AMVP se pueden sustituir/modificar con/en el candidato de fusión. En este caso, un dispositivo de codificación puede señalar a un dispositivo de decodificación con el fin de aplicar el modo de AMVP sobre la base de la lista de candidatos de AMVP cambiada.
La FIG. 11 es un diagrama de flujo que ilustra una operación de cambio de un candidato de AMVP según un ejemplo.
Con referencia a la FIG. 11, un dispositivo de codificación (por ejemplo, un módulo de predicción) crea una lista de candidatos de AMVP y una lista de candidatos de fusión para un bloque actual en la operación S1110.
El dispositivo de codificación determina si un candidato de AMVP y un candidato de fusión son idénticos sobre la base de la lista de candidatos de AMVP y la lista de candidatos de fusión en la operación S1120. Por ejemplo, el dispositivo de codificación puede confirmar si hay unos candidatos de fusión no incluidos en los candidatos de AMVP.
El dispositivo de codificación puede cambiar la lista de candidatos de AMVP usando un candidato de fusión no incluido en la lista de candidatos de AMVP en la operación S1130. En este punto, el dispositivo de codificación puede añadir un candidato de fusión no incluido en la lista de candidatos de AMVP a la lista de candidatos de AMVP, y puede cambiar parte de la lista de candidatos de AMVP en un candidato o candidatos de fusión.
El dispositivo de codificación puede señalar la lista de candidatos de AMVP cambiada al dispositivo de decodificación en la operación S1140. En este punto, la señalización del dispositivo de codificación puede incluir señalización para transmitir la lista de candidatos de AMVP cambiada o señalización para cambiar la lista de candidatos de AMVP.
La FIG. 12 es una vista que ilustra un método de realización de predicción sobre la base de una lista de AMVP cambiada en un dispositivo de decodificación según un ejemplo. Con referencia a la Fig. 12, el dispositivo de decodificación recibe la señalización de un dispositivo de codificación en la operación S1210.
La señalización del dispositivo de decodificación incluye una lista de candidatos de AMVP. Además, la señalización del dispositivo de codificación puede ser una señalización que es para cambiar la lista de candidatos de AMVP. Cuando se recibe la lista de candidatos de AMVP cambiada, el dispositivo de decodificación sustituye la lista de candidatos de AMVP existente y cuando se recibe la señalización para cambiar la lista de candidatos de AMVP, el dispositivo de decodificación cambia la lista de candidatos de AMVP según la señalización.
El dispositivo de decodificación selecciona el mejor MVP sobre la base de la lista de candidatos de AMVP cambiada y realiza la predicción con el mejor MVP en la operación S1220.
<Integración de AMVP usando método y modo de fusión - modo de integración y señalización>
En el caso del modo de fusión, la información de movimiento en un bloque actual se deriva de los bloques vecinos. El modo de fusión en el que se transmite un signo residual es similar al modo directo mencionado anteriormente. Por consiguiente, se puede considerar la aplicación de un modo de fusión (que transmite una señal residual) y un modo directo integrado.
Por ejemplo, cuando el modo directo se aplica por una unidad de bloque de codificación (es decir, una unidad de codificación), si el modo de fusión se puede aplicar por la unidad de bloque de codificación y una unidad de partición de un bloque de codificación dividido, el modo de fusión se puede integrar con el modo directo en la misma unidad que el modo directo.
De manera idéntica, si una unidad de un modo directo aplicado y una unidad de procesamiento de un modo de fusión aplicado son idénticas entre las unidades de procesamiento, tales como un bloque de codificación, un bloque de predicción, un bloque de transformación, el modo directo y el modo de fusión se pueden integrar y aplicar con respecto a una unidad de procesamiento correspondiente.
Aquí, aunque se describe como ejemplo la integración del modo de fusión en el que se entrega una señal residual y el modo directo en el que se transmite una señal residual y se usa un AMVP, un modo similar, por ejemplo, un modo de fusión que no transmite una señal residual o un modo de salto que no transmite una señal residual a través de un AMVP se puede integrar usando el mismo método.
Por consiguiente, el modo de fusión y el modo de AMVP se pueden integrar y aplicar a través de un método descrito a continuación. Un método específico de la integración puede incluir un método de generación/derivación de un bloque candidato vecino o un vector de movimiento candidato (en lo sucesivo, al que se hace referencia como candidato), que se puede usar para derivar información de movimiento en un bloque actual. Esto se describirá más adelante.
En relación con el método de integración del modo de AMVP y el modo de fusión y la aplicación del modo integrado, se describirá una estructura de sintaxis necesaria. La integración del modo de fusión y del modo directo en el modo de AMVP se describirá a continuación como ejemplo.
Cuando la fusión se realiza mediante una unidad de partición de un bloque de codificación dividido (un bloque de codificación puede ser una unidad de codificación), se puede hacer una señalización para seleccionar y aplicar uno del modo de fusión y del modo directo, con respecto a una partición correspondiente.
La FIG. 13 es un diagrama de flujo que ilustra un método de señalización de selección de un modo directo y un modo de fusión según un ejemplo.
Con referencia a la FIG. 13, después de que se determina primero si se aplican el modo de salto y el modo directo, se clasifican una inter predicción (es decir, un modo inter) y una intra predicción (es decir, un modo intra). En el caso del modo de inter predicción, el modo de fusión se puede aplicar según merge_flag.
Primero, como se ha mencionado anteriormente, se determina si el modo de salto se ha de aplicar según skip_flag en la operación S1310. Cuando skip_flag indica un modo de salto, el modo de salto se aplica en la operación S1320, y cuando skip_flag no indica un modo de salto, se determina de nuevo qué modo de predicción se ha de aplicar en la operación S1330. En este punto, se puede transmitir una sintaxis que indica un modo de predicción (por ejemplo, Pred_mode).
Si se indica el modo directo en la operación S1330, el modo directo se aplica en la operación S1340, y si no se indica el modo directo, se puede indicar de nuevo un modo de predicción con pred_mode en la operación S1350. En la operación S1350, pred_mode puede indicar un modo intra y un modo inter.
Cuando se indica el modo intra en la operación S1350, se aplica una intra predicción a un bloque actual en la operación S1370, y cuando se indica el modo inter en la operación S1360, se puede determinar si el modo de fusión se ha de aplicar al bloque actual en la operación S1380. En este punto, con el fin de indicar/determinar si se ha de aplicar el modo de fusión, se puede usar merge_flag. Cuando merge_flag indica un modo de fusión, el modo de fusión se aplica con el fin de derivar información de movimiento en un bloque actual en la operación S1390.
Si aplicar el modo de fusión se puede determinar por cada partición. Por ejemplo, cuando un bloque de codificación completo (el bloque de codificación puede ser una unidad de codificación) es una partición, se determina si aplicar el modo de fusión en el bloque de codificación completo y cuando el bloque de codificación está dividido en una pluralidad de particiones, se determina si aplicar el modo de fusión por cada unidad de partición. La partición de un bloque de codificación dividido puede ser un bloque de codificación, un bloque de predicción o un bloque de transformación.
Cuando el bloque de codificación se determina como una partición, el modo directo o el modo de fusión se puede aplicar a un bloque de codificación correspondiente. No obstante, dado que la información sobre el modo directo y el modo de fusión se transmite a través de diferentes partes de señalización, es decir, diferentes conjuntos de parámetros en el método existente, a pesar de las similitudes entre los dos modos, la información tiende a ser transmitida de manera redundante (es decir, ocurre una redundancia).
No obstante, si se determina por una unidad de partición si aplicar el modo de fusión, el modo de fusión y el modo de AMVP (por ejemplo, un modo directo) se pueden aplicar a la misma unidad de partición. Por consiguiente, la información sobre el modo de AMVP (por ejemplo, un modo directo) y el modo de fusión se puede transmitir a través de la misma parte de señalización, es decir, el mismo conjunto de parámetros.
Por ejemplo, se puede considerar un método de integración de un modo de fusión (a) y un modo directo (b). El modo de fusión (a) se aplica cuando un bloque de codificación completo es una partición entre los modos de fusión tratados en la parte de señalización (a continuación de la operación S1360) para el modo inter de la FIG. 13. El modo directo (b) se trata en la parte de señalización (operación S1340) para el modo directo de la FIG. 13. En este punto, los candidatos del modo directo, es decir, los candidatos de AMVP, y los candidatos de fusión se integran, y usando un candidato seleccionado a partir de los candidatos integrados, se puede aplicar el modo de AMVP (por ejemplo, el modo directo) o el modo de fusión.
La FIG. 14 es una vista que ilustra la señalización a través de la integración de un modo directo y un modo de fusión según un ejemplo. En lo sucesivo, por conveniencia de la descripción, se hace referencia a la fusión aplicada cuando un bloque de codificación completo se determina como una partición como fusión de bloques de codificación y se hace referencia a la fusión aplicada por una unidad de partición cuando un bloque de codificación se divide en una pluralidad de particiones como fusión de particiones.
Con referencia a la FIG. 14, el caso en que el modo directo se aplica por la unidad de bloque de codificación se describe como ejemplo. Por consiguiente, el modo integrado del modo de fusión y del modo directo, que se puede aplicar por una unidad de partición para usar un bloque de codificación completo como una partición, se describe con referencia a la FIG. 14.
Con referencia a la FIG. 14, se determina si se ha de aplicar el modo de salto según skip_flag en la operación S1410. Cuando skip_flag indica un modo de salto, el modo de salto se aplica en la operación S1420, y cuando skip_flag no indica un modo de salto, se determina de nuevo qué modo de predicción se ha de aplicar en la operación S1430. En este punto, se puede transmitir una sintaxis que indica un modo de predicción (por ejemplo, Pred_mode).
A diferencia de la FIG. 13, se puede señalar una sintaxis (es decir, un modo previo) en base a la integración del modo directo y del modo de fusión en la operación S1440. En relación con la unidad de bloque de codificación, en consideración de la similitud entre el modo directo y el modo de fusión, como se ha mencionado anteriormente, la señalización para aplicar el modo integrado de la fusión de bloques de codificación y el modo directo se puede hacer en la operación S1440.
Cuando el modo integrado del modo de fusión y del modo directo no se aplica mediante una unidad de bloque de codificación, el modo de predicción se puede indicar con pred_mode de nuevo en la operación S1450. En este punto, pred_mode puede indicar si el modo de predicción es un modo intra o un modo inter.
Cuando se indica el modo intra en la operación S1450, se aplica una intra predicción a un bloque actual en la operación S1470, y cuando se indica el modo inter en la operación S1460, se determina si el modo de fusión se ha de aplicar al bloque actual en la operación S1480. En este punto, con el fin de indicar/determinar si se aplica el modo de fusión, se puede usar merge_flag. Cuando merge_flag indica un modo de fusión, el modo de fusión se ha de aplicar al bloque actual en la operación S1490. Con referencia a la FIG. 14, la fusión de bloques de codificación se puede aplicar en la operación S1440, y se puede aplicar una fusión de particiones en la operación S1490.
Además, con referencia a la FIG. 14, con el fin de indicar cuál del modo directo y del modo de fusión se ha de aplicar, se puede usar una marca en la operación S1440. Se describirá un método específico de manejo del caso en que uno de los dos modos se indica con una marca junto con un candidato de cuando se integran un modo directo y una fusión de bloques de codificación.
La FIG. 15 es una vista que ilustra un ejemplo de señalización de si se ha de aplicar un modo directo o si se ha de aplicar una fusión de bloques de codificación a través de una marca.
Con referencia a la FIG. 15, cuando se usa la marca, se determina si se ha de aplicar el modo directo o si se ha de aplicar la fusión de bloques de codificación según la indicación de la marca en la operación S1500. Por ejemplo, cuando el valor de la marca es 0, el modo directo se aplica en la operación S1510, y cuando el valor de la marca es 1, la fusión de bloques de codificación se aplica en la operación S1520.
Además, cuando se hace la señalización sobre si aplicar el modo directo o la fusión de bloques de codificación en la operación S1440 de la FIG. 14, el modo no se puede indicar explícitamente usando una marca y se puede derivar si aplicar el modo directo o la fusión de bloques de codificación.
La FIG. 16 es una vista que ilustra un método de derivación de una determinación sobre si aplicar un modo directo o una fusión de bloques de codificación según un ejemplo.
Con referencia a la FIG. 16, a través de derivación en lugar de indicación o señalización explícita, se puede determinar si aplicar el modo directo o la fusión de bloques de codificación en la operación S1600. Con el fin de que un dispositivo de decodificación derive una determinación sobre qué modo sea aplicado, se puede usar información sobre un bloque de codificación vecino, por ejemplo, un bloque vecino espacial y/o un bloque vecino temporal. Además, se puede usar información estadística sobre una imagen a la que pertenece el bloque de codificación actual o información estadística sobre una imagen decodificada antes que una imagen a la que pertenece el bloque de codificación actual.
Según el resultado derivado, el modo directo se aplica en la operación S1610 o la fusión de bloques de codificación se aplica en la operación S1620.
Mientras tanto, como se describe con referencia a las FIGS. 6 y 7, el modo directo y el modo de fusión tienen una diferencia en el método de obtención de un candidato. No obstante, los dos modos están integrados y la información de movimiento en el bloque actual se determina en el modo integrado.
En el modo integrado, se puede determinar la información de movimiento en el bloque actual a partir de los cinco siguientes bloques candidatos. Es decir, se pueden integrar un bloque candidato de AMVP usado en el modo directo y un bloque candidato del modo de fusión.
Bloques candidatos del modo integrado
(1) Un bloque seleccionado del área izquierda del bloque actual
Por ejemplo, un bloque seleccionado de 610 de la FIG. 6, se puede seleccionar como bloque candidato de un modo integrado.
Como método de selección de un bloque candidato del área izquierda del bloque actual, se puede usar un método de selección de un candidato a través de un AMVP. Por ejemplo, mientras que la búsqueda se hace desde el área izquierda hasta la dirección inferior o superior, se puede seleccionar un primer bloque disponible. Un bloque en un modo intra se puede considerar como bloque no disponible y se puede excluir de un candidato de AMVP.
Un bloque específico entre los bloques en el área izquierda del bloque actual se puede seleccionar como bloque candidato de un modo integrado. Por ejemplo, un bloque que se encuentra en el bloque de esquina en la parte inferior izquierda se puede especificar como candidato de un modo integrado seleccionado del área izquierda del bloque actual y luego se puede usar.
(2) Un bloque seleccionado del área superior del bloque actual
Por ejemplo, un bloque seleccionado de 620 de FIG. 6, se puede seleccionar como bloque candidato de un modo integrado.
Como método de selección de un bloque candidato del área superior del bloque actual, se puede usar un método de selección de un candidato a través de un AMVP. Por ejemplo, mientras que la búsqueda se hace desde el área superior hacia la dirección izquierda o derecha, se puede seleccionar un primer bloque disponible. Un bloque en un modo intra se puede considerar como bloque no disponible y se puede excluir de un candidato de AMVP.
Un bloque específico entre bloques en el área superior del bloque actual se puede seleccionar como bloque candidato de un modo integrado. Por ejemplo, un bloque que se encuentra con el bloque de esquina en la parte superior derecha se puede especificar como candidato de un modo integrado seleccionado del área superior del bloque actual y luego se puede usar.
(3) Bloque o bloques seleccionados de las áreas de esquina del bloque actual
Por ejemplo, los bloques seleccionados de 630, 640 o 650 de la FIG. 6, se puede seleccionar como bloque candidato de un modo integrado.
Como método de selección de un bloque candidato del área izquierda del bloque actual, se puede usar un método de selección de un candidato a través de un AMVP. Por ejemplo, mientras que la búsqueda se hace en bloques en las áreas de esquina del bloque actual, se puede seleccionar un primer bloque disponible. Un bloque en un modo intra se puede considerar como bloque no disponible y se puede excluir de un candidato de AMVP.
Se pueden seleccionar bloques específicos en las áreas de esquina del bloque actual como bloques candidatos de un modo integrado. Por ejemplo, los bloques en cada esquina del bloque actual (por ejemplo, 630, 640 o 650 de la FIG. 6) se pueden especificar como bloques candidatos de un modo integrado seleccionado en las áreas de esquina del bloque actual, y se pueden usar.
(4) Un bloque coubicado del bloque actual
Además de un bloque vecino espacial, se puede usar como candidato un bloque vecino temporal para el bloque actual. Por ejemplo, un bloque coubicado con respecto al bloque actual se puede usar como candidato de un modo integrado. Un método de selección de un candidato de AMV<p>se puede aplicar de manera idéntica a un bloque coubicado, o se puede usar como candidato un bloque coubicado de una imagen de referencia específica.
(5) Un candidato derivado a través de una combinación de los candidatos anteriores
Por ejemplo, un valor mediano de los candidatos derivados de (1), (2) y (3), se puede usar como candidato de un modo integrado. Además, un vector de movimiento seleccionado del mismo o diferente marco de referencia en la lista (L0 o L1) que es el mismo que el de un bloque coubicado se puede derivar como candidato. O, un vector de movimiento seleccionado del mismo o diferente marco de referencia en la lista (L0 o L1) que es diferente que el de un bloque coubicado se puede derivar como candidato adicional.
Cuando la predicción se realiza usando información de movimiento sobre candidatos para el modo integrado descrito como anteriormente (1) a (5), las condiciones en una dirección de predicción se pueden aplicar juntas y se puede transmitir información sobre las mismas. Las condiciones pueden ser
(1) Usar información de movimiento en una dirección L0
(2) Usar información de movimiento en una dirección L1
(3) Usar información de movimiento en una lista combinada de L0 y L1 (por ejemplo, usar una lista combinada de L0 y L1 o usar información promedio de los movimientos de L0 y L1)
Además, por ejemplo, con el fin de reflejar las dos características del modo directo y del modo de fusión, la información de movimiento en el bloque actual se puede determinar a partir de un conjunto de bloques candidatos cuyo número de bloques candidatos es menor que el número de bloques candidatos usados para el modo directo y mayor que el número de bloques candidatos usados para la fusión de bloques de codificación. En este punto, el bloque actual puede ser un bloque de codificación, un bloque de predicción o un bloque de transformación.
La FIG. 17 es un diagrama de flujo que ilustra la señalización cuando se aplica un modo integrado según la presente invención. Con referencia a la FIG. 17, con el fin de aplicar el modo integrado, se determina primero a través de una marca de AMVP/fusión (merge_flag) si se ha de aplicar un modo de fusión en la operación S1710. La marca de AMVP/fusión es una marca que indica si aplicar un modo de fusión o un modo de AMVP. Sobre la base de la marca de AMVP/fusión que transmite un dispositivo de codificación, un dispositivo de decodificación puede determinar si aplicar un modo de fusión o un modo de AMVP. Por ejemplo, cuando el valor de la marca es 0, se aplica el modo de AMVP y cuando el valor de la marca es 1, se aplica el modo de fusión. En este punto, en lugar de la marca de AMVP/fusión, se puede transmitir una marca de fusión convencional. En este caso, puede ser posible que cuando el valor de la marca de fusión sea 1, se aplique el modo de fusión, y cuando el valor de la marca de fusión sea 0, se aplique el modo de AMVP.
Luego, se transmite un índice de candidato de modo integrado en la operación S1710. Un dispositivo de decodificación puede confirmar el mejor candidato para un modo (por ejemplo, un modo de fusión o un modo de AMVP) que se indica por la marca de AMVP/fusión o la marca de fusión, a través del índice de candidato de modo integrado transmitido desde un dispositivo de codificación.
Incluso cuando se aplica el modo de fusión, el índice de candidatos de modo integrado puede indicar qué candidato entre los candidatos del modo integrado, incluyendo los candidatos en la esquina, además de fundir los candidatos en las áreas izquierda y superior del bloque actual y el bloque coubicado del bloque actual en una imagen de referencia se usa para fundir. Por consiguiente, se puede utilizar información de movimiento sobre diversos candidatos adicionales.
Un dispositivo de decodificación puede aplicar un modo que la marca de AMVP/fusión o la marca de fusión indica en un candidato que el índice de candidato de modo integrado indica con el fin de derivar información de movimiento en el bloque actual.
Además, cuando se determina a través de la marca de AMVP/fusión o la marca de fusión (merge_flag) que se ha de aplicar el modo de fusión, se pueden determinar un candidato de fusión y una dirección de predicción. El candidato de fusión y la dirección de predicción se pueden transmitir como un índice de candidato/dirección. El índice de candidato/dirección puede indicar si la predicción se realiza en una dirección unidireccional (por ejemplo, una dirección L0 o una dirección L1) o bidireccional, además de indicar qué candidato se usa para la fusión. En este punto, un candidato que indica el índice de candidato/dirección puede ser uno de los candidatos del modo integrado. Además, al menos uno del candidato de fusión y la dirección de predicción se puede derivar según un método predeterminado o se puede determinar según una regla predeterminada. La información no derivada o predeterminada se puede transmitir desde un dispositivo de codificación a un dispositivo de decodificación.
En este punto, se puede transmitir por separado un índice que indica qué candidato se usa para aplicar el modo de fusión y un índice que indica una dirección de predicción. Cuando el índice indica con qué candidato se aplica un modo de fusión/un modo directo, como se ha mencionado anteriormente, el índice puede indicar qué candidato entre los candidatos, incluyendo los candidatos en las esquinas del bloque actual y los candidatos de bloques coubicados, así como los candidatos en las áreas izquierda y superior de un área actual.
Además, cuando el índice indica una dirección de predicción, el índice puede indicar una dirección unidireccional o bidireccional y también puede indicar una de las direcciones L0 y L1 cuando se indica la unidireccional.
Dado que el índice puede indicar un candidato del modo integrado y también una dirección de predicción, se puede realizar una predicción en el bloque actual usando información de movimiento detallada.
Aquí, aunque se describe el método de uso del modo de fusión del modo integrado, el método de la descripción mencionada anteriormente se puede aplicar de manera idéntica al modo de AMVP del modo integrado.
En lo sucesivo, se describirá un método de selección del mejor candidato en un modo integrado.
La FIG. 18 es una vista que ilustra un área donde los bloques candidatos de un modo integrado se seleccionan según una realización de la presente invención.
Como se ha mencionado anteriormente, los bloques candidatos de un modo integrado se pueden seleccionar de (1) el área izquierda A 1810 del bloque actual 1800, (2) el área superior B 1820 del bloque actual 1800, (3) las áreas de esquina C 1830, 1840 y 1850 del bloque actual 1800, (4) una combinación de (1) a (3), y (5) un bloque T 1860 coubicado en la posición del bloque actual 1800.
Cuando se determina que se ha de aplicar un modo de fusión a través de una marca de fusión, un bloque candidato al que se ha de aplicar el modo de fusión se puede seleccionar de los bloques candidatos de modo integrado de (1) a (5). Además, cuando se determina que se ha de aplicar un modo de AMVP (es decir, un modo de salto/un modo directo) a través de la marca de fusión, se puede seleccionar un bloque candidato para derivar información de movimiento en el bloque actual en el modo de AMVP de los bloques candidatos de modo integrado de (1) a (5). En este punto, cuando se aplica el modo de fusión que usa los candidatos de modo integrado,
1) Se pueden seleccionar dos candidatos como un modo de fusión convencional y luego el bloque actual se puede fundir en uno de los dos bloques candidatos a través de MVC. Como el método de MVC se puede usar un método de cálculo de costes para fundir un vector de movimiento de cada bloque candidato y, en base a esto, seleccionar un bloque candidato. En este punto, los dos bloques candidatos, como el caso de la FIG. 7, pueden ser el bloque candidato en la parte superior izquierda del bloque actual y el bloque candidato arriba a la izquierda del bloque actual, respectivamente. En este punto, además del bloque vecino espacial para el bloque actual, se puede usar como candidato un bloque vecino temporal, por ejemplo, el bloque coubicado T 1860.
2) Los dos bloques candidatos se pueden seleccionar a través de (1) y (2) descritos anteriormente para los bloques candidatos del modo integrado. Por ejemplo, los dos bloques candidatos se pueden seleccionar a través de un método de búsqueda de cada candidato de AMVP del área izquierda 1810 y el área superior 1820 del bloque actual. Además, los bloques específicos colocados en el área izquierda 1810 y el área derecha 1820 del bloque actual pueden ser el bloque A' en la parte inferior izquierda y el bloque B' en la parte superior derecha. El bloque coubicado T 1860 para el bloque actual también se puede usar como candidato.
3) Además, a diferencia de un modo de fusión convencional, todos los bloques espacialmente vecinos al bloque actual se usan como bloques candidatos. Por ejemplo, todos los bloques candidatos (1) a (3) del modo integrado anterior se usan como bloques candidatos. Además, un bloque coubicado con respecto al bloque actual también se puede usar como candidato. En este punto, con la limitación del número de bloques candidatos usados, se puede seleccionar un bloque candidato de los bloques candidatos en un número correspondiente. En este caso, al poner orden en una determinación de disponibilidad, después de que se hace la determinación según el orden, se puede configurar una lista de candidatos según el orden disponible determinado. Por ejemplo, como resultado determinado según el orden, el índice más bajo se asigna al primer candidato disponible determinado. También, como un candidato se determina más tarde, se puede asignar un índice más alto.
Sobre la base de la lista de candidatos configurada, se puede seleccionar un candidato objetivo de fusión que se usa para fundir a través de un proceso de selección del mejor candidato, como se ha mencionado anteriormente.
Por ejemplo, los bloques candidatos disponibles se pueden buscar a partir de los bloques candidatos del modo integrado colocados espacialmente alrededor del bloque actual según el orden descrito (1) a (3) de los bloques candidatos de modo integrado, es decir, el orden del área izquierda 1810 del bloque actual 1800 ^ el área superior 1820 del bloque actual 1800 ^ las áreas de esquina 1830, 1840 y 1850 de el bloque actual 1800. En este punto, en el caso de que se usen bloques específicos en el área izquierda 1810 y el área superior 1820 del bloque actual 1800, se puede configurar una lista de candidatos determinando la disponibilidad en el orden de A' ^ B' ^ los bloques de esquina 1830, 1840 y 1850. Además, para los bloques de esquina también, la disponibilidad se puede determinar por un orden específico. Por ejemplo, iniciando la búsqueda desde el bloque de esquina 1830 con el fin de buscar un bloque de esquina adyacente después de que se busca el área superior, la disponibilidad se puede determinar en el orden del bloque de esquina 1830 ^ el bloque de esquina 1840 ^ el bloque de esquina 1850 o el bloque de esquina 1830 ^ el bloque de esquina 1850 ^ el bloque de esquina 1840.
Si hay un bloque candidato no disponible según el resultado de la búsqueda, como se ha mencionado anteriormente, se selecciona o genera un nuevo candidato usando los bloques candidatos buscados. Además, aunque el número de bloques candidatos se determina con el fin de seleccionar el mejor candidato configurando la lista de candidatos, incluso cuando el número de bloques candidatos disponibles es menor que el número de bloques candidatos que constituyen la lista de candidatos, como se ha mencionado anteriormente, se puede seleccionar o generar un nuevo bloque candidato.
Además, cuando se aplica el modo de AMVP que usa el candidato de modo integrado,
1) Se pueden seleccionar dos candidatos de bloques candidatos colocados espacialmente alrededor del bloque actual como un modo de fusión y luego uno de los dos bloques candidatos se puede seleccionar como el mejor candidato a través de MVC. Como el método de MVC, se puede usar un método de cálculo de costes para usar un MVP de cada bloque candidato y, en base a esto, seleccionar el mejor bloque candidato. En este punto, un bloque vecino temporal, así como bloques vecinos espaciales para el bloque actual, por ejemplo, el bloque coubicado T 1860, pueden usar como candidato.
2) Los dos bloques candidatos se pueden seleccionar a través de (1) y (2) descritos anteriormente para los bloques candidatos del modo integrado. Por ejemplo, los dos bloques candidatos se pueden seleccionar a través de un método de búsqueda de cada candidato de AMVP del área izquierda 1810 y el área superior 1820 del bloque actual. Además, los bloques específicos colocados en el área izquierda 1810 y el área derecha 1820 del bloque actual pueden ser el bloque A' en la parte inferior izquierda y el bloque B' en la parte superior derecha. El bloque coubicado T 1860 para el bloque actual también se puede usar como candidato.
A diferencia del modo de fusión convencional que usa dos bloques candidatos, en el caso del modo de AMVP que usa más bloques candidatos, se puede determinar un orden de búsqueda en orden de dos bloques candidatos disponibles. Por ejemplo, un bloque candidato se puede seleccionar buscando en el área izquierda 1810 del bloque actual 1800 que incluye el bloque de esquina 1850 y un bloque candidato se puede seleccionar buscando el área superior 1820 del bloque actual 1800 que incluye el bloque de esquina 1830. En este punto, el bloque de esquina 1840 se puede incluir en el área izquierda del bloque actual 1800 o se puede incluir en el área superior del bloque actual 1800 en orden de búsqueda. Por consiguiente, se puede seleccionar un bloque candidato de las áreas 1810, 1840 y 1850, y se puede seleccionar un bloque candidato de las áreas 1820 y 1830. También, un bloque candidato se selecciona de las áreas 1810 y 1850 y se puede seleccionar un bloque candidato de las áreas 1820, 1830 y 1840. Cuando se designan bloques específicos del área izquierda 1810 y del área superior 1820 del bloque actual 1800 y se usan, se puede seleccionar un bloque candidato del bloque A' y los bloques de esquina 1840 y 1850, y se puede seleccionar un candidato del bloque B' y el bloque de esquina 1830, o se puede seleccionar un bloque candidato del bloque A' y el bloque de esquina 1850, y un bloque candidato se puede seleccionar del bloque B' y los bloques de esquina 1830 y 1840.
Sin dividir un área sobre la base de un bloque actual para la búsqueda, se puede buscar un área completa como una unidad. Por ejemplo, la búsqueda se puede hacer desde el bloque de esquina 1830 hacia el bloque de esquina 1850 a través del bloque de esquina 1840. Además, la búsqueda se puede hacer alternativamente desde los bloques de esquina en la parte superior y la derecha. Por ejemplo, mientras que la búsqueda se hace en el orden del bloque de esquina 1830 ^ el bloque de esquina 1850 ^ el área izquierda 1810 o el bloque A' ^ el área superior 1820 o el bloque B' ^ el bloque de esquina 1840, se pueden seleccionar dos bloques disponibles por orden de la primera búsqueda.
3) Todos los bloques situados espacialmente alrededor del bloque actual se pueden usar como bloques candidatos. Por ejemplo, todos los bloques candidatos descritos en (1) a (3) del modo integrado anterior (es decir, un bloque candidato seleccionado del área superior del bloque actual, un bloque candidato seleccionado del área izquierda y un bloque o bloques candidatos seleccionados del área de esquina o colocados en el área de esquina) se pueden usar como bloques candidatos. Además, un bloque coubicado con respecto al bloque actual también se puede usar como candidato.
En este punto, con la limitación del número de bloques candidatos usados, se puede seleccionar un bloque candidato de los bloques candidatos en un número correspondiente. En este caso, al poner un orden en una determinación de disponibilidad, después de que se hace la determinación según el orden, se puede configurar una lista de candidatos según el orden disponible determinado. Sobre la base de la lista de candidatos, se puede seleccionar el mejor candidato como se ha mencionado anteriormente.
Por ejemplo, los bloques candidatos disponibles se pueden buscar a partir de los bloques candidatos del modo integrado colocados espacialmente alrededor del bloque actual según el orden descrito (1) a (3) de los bloques candidatos de modo integrado, es decir, el orden del área izquierda 1810 del bloque actual 1800 ^ el área superior 1820 del bloque actual 1800 ^ las áreas de esquina 1830, 1840 y 1850 del bloque actual 1800. En el caso de que se usen bloques específicos en el área izquierda 1810 y el área superior 1820 del bloque actual 1800, se pueden seleccionar determinando la disponibilidad en el orden de A' ^ B' ^ los bloques de esquina 1830, 1840 y 1850. Además, también para los bloques de esquina, la disponibilidad se puede determinar por orden específico. Por ejemplo, comenzando la búsqueda desde el bloque de esquina 1830 en orden para buscar un bloque de esquina adyacente después de que se busca el área superior, la búsqueda se puede hacer en el orden del bloque de esquina 1830 ^ el bloque de esquina 1840 ^ el bloque de esquina 1850 o el bloque de esquina 1830 ^ el bloque de esquina 1850 ^ el bloque de esquina 1840.
Si hay un bloque candidato no disponible según el resultado de la búsqueda, como se ha mencionado anteriormente, se selecciona o genera un nuevo candidato usando los bloques candidatos buscados. Además, aunque el número de bloques candidatos se determina con el fin de seleccionar el mejor candidato configurando la lista de candidatos, incluso cuando el número de bloques candidatos disponibles es menor que el número de bloques candidatos que constituyen la lista de candidatos, como se ha mencionado anteriormente, se puede seleccionar o generar un nuevo bloque candidato.
La FIG. 19 es un diagrama de flujo que ilustra un método de generación de un candidato de predicción aplicando un modo integrado y transmitiendo la información correspondiente en un dispositivo de codificación según un ejemplo. Con referencia a la FIG. 19, el dispositivo de codificación determina un modo a ser aplicado en un bloque actual y determina candidatos usados para realizar predicciones a través de un modo correspondiente en la operación S1910.
Un método de selección de candidatos de un modo integrado se describe anteriormente.
Luego, el dispositivo de codificación configura un conjunto de parámetros en la operación S1920. El conjunto de parámetros se puede configurar según una estructura de sintaxis en la información correspondiente, y se puede configurar para incluir información en un modo integrado usado para la predicción del bloque actual y la información con relación a los candidatos del modo integrado determinado.
El dispositivo de codificación transmite el conjunto de parámetros configurado en la operación S1930. La información sobre el conjunto de parámetros se puede codificar y transmitir al dispositivo de decodificación a través de un flujo de bits.
La FIG. 20 es un diagrama de flujo que ilustra un método de realización de predicción aplicando un modo integrado en un dispositivo de decodificación según un ejemplo.
Con referencia a la Fig. 20, el dispositivo de decodificación recibe el conjunto de parámetros del dispositivo de codificación en la operación S2010. El conjunto de parámetros se codifica y transmite a través de un flujo de bits e incluye información sobre un modo integrado usado para la predicción e información con relación a un candidato del modo integrado. El dispositivo de decodificación puede obtener información con relación a la predicción del bloque actual del conjunto de parámetros recibido en la operación S2020. El dispositivo de decodificación puede determinar un modo de predicción del bloque actual sobre la base de la información transmitida desde el dispositivo de decodificación a través del conjunto de parámetros. El modo de predicción puede ser un modo integrado del modo de fusión y el modo de AMVP. Qué modo del modo de fusión y del modo de AMVP se ha de aplicar se puede determinar a través de una marca en el conjunto de parámetros. El dispositivo de decodificación puede determinar el mejor candidato para un modo de predicción, que se ha de aplicar sobre la base de la información sobre el candidato del modo integrado obtenido del conjunto de parámetros. Un método de determinación de un candidato de un modo integrado se describe anteriormente.
El dispositivo de decodificación aplica un modo de predicción predeterminado, por ejemplo, un modo de fusión o un modo de AMVP, en el bloque actual, y realiza la predicción en el bloque actual usando la información de movimiento determinada en el mejor candidato en la operación S2030.
En la descripción de la presente invención hasta ahora, cuando se hace referencia a un componente como que está “conectado” o “accede” a otro componente, se puede conectar o puede acceder directamente al otro componente o también puede estar presente un componente intermedio. Por el contrario, cuando un componente está “conectado directamente a” o “accede por dirección a” otro componente, se debería entender que no hay ningún componente entre los dos componentes.

Claims (8)

REIVINDICACIONES
1. Un método de decodificación de vídeo, el método que comprenda:
obtener información de índice y marca de fusión para un bloque actual (1800) a partir de un flujo de bits; determinar un modo de fusión que se aplica para el bloque actual (1800) en base a la marca de fusión que indica si el modo de fusión se aplica al bloque actual;
derivar candidatos de fusión para el modo de fusión a partir de bloques candidatos usados para el modo de fusión del bloque actual (1800);
seleccionar uno de los candidatos de fusión para derivar información de movimiento del bloque actual (1800) en base a la información de índice;
derivar la información de movimiento del bloque actual (1800) en base al candidato de fusión seleccionado; derivar muestras de predicción en el bloque actual (1800) en base a la información de movimiento derivada; y generar muestras reconstruidas en el bloque actual (1800) en base a las muestras de predicción,
en donde se buscan los bloques candidatos utilizados para el modo de fusión en una región en la que se buscan los bloques candidatos utilizados para un modo que utiliza un predictor de vector de movimiento, al que se hace referencia en lo sucesivo como modo de AMVP,
en donde el modo de fusión es un modo de inter predicción en el que un vector de movimiento de un bloque candidato para el modo de fusión se utiliza como vector de movimiento del bloque actual,
en donde el modo de AMVP es un modo de inter predicción en el que un vector de movimiento de un bloque candidato para el modo de AMVP se utiliza como el predictor del vector de movimiento para el bloque actual, y en donde los bloques candidatos usados para el modo de fusión y para el modo de AMVP incluyen un primer bloque vecino situado en un lado izquierdo (1810) del bloque actual (1800), un segundo bloque vecino situado en un lado superior (1820) del bloque actual (1800), un tercer bloque vecino situado en la esquina inferior izquierda (1850) del bloque actual (1800), un cuarto bloque vecino situado en la esquina superior derecha (1830) del bloque actual (1800), y un quinto bloque vecino situado en la esquina superior izquierda (1840) del bloque actual (1800).
2. El método de la reivindicación 1, en donde el primer bloque vecino es un bloque más abajo entre los bloques vecinos izquierdos adyacentes a un límite izquierdo del bloque actual (1800), el segundo bloque vecino es un bloque más a la derecha entre bloques vecinos superiores adyacentes a un límite superior del bloque actual (1800).
3. El método de la reivindicación 2, en donde los bloques candidatos usados para el modo de fusión y para el modo de AMVP incluyen un bloque vecino temporal que está situado en una imagen de referencia.
4. El método de cualquiera de las reivindicaciones 2 a 3, en donde se determinan las disponibilidades del primer bloque vecino y del segundo bloque vecino, y luego las disponibilidades del bloque vecino de la esquina inferior izquierda (1850), el bloque vecino de la esquina superior derecha (1830), y se determinan el bloque vecino de la esquina superior izquierda (1840).
5. Un método de codificación de vídeo, el método que comprende:
determinar un modo de fusión que se aplica para el bloque actual (1800);
generar una marca de fusión que indica que el modo de fusión se aplica para el bloque actual (1800); derivar candidatos de fusión para el modo de fusión a partir de bloques candidatos usados para el modo de fusión del bloque actual (1800);
seleccionar uno de los candidatos de fusión para derivar información de movimiento del bloque actual (1800); derivar la información de movimiento del bloque actual (1800) en base al candidato de fusión seleccionado; derivar muestras de predicción en el bloque actual (1800) en base a la información de movimiento derivada; generar muestras residuales en el bloque actual (1800) en base a las muestras de predicción;
generar información de índice que indique uno de los candidatos a fusión; y
codificar información de vídeo que incluye la marca de fusión y la información de índice para el bloque actual (1800),
en donde se buscan los bloques candidatos utilizados para el modo de fusión en una región en la que se buscan los bloques candidatos utilizados para un modo que utiliza un predictor de vector de movimiento, al que se hace referencia en lo sucesivo como modo de AMVP,
en donde el modo de fusión es un modo de inter predicción en el que un vector de movimiento de un bloque candidato para el modo de fusión se utiliza como vector de movimiento del bloque actual,
en donde el modo de AMVP es un modo de inter predicción en el que un vector de movimiento de un bloque candidato para el modo de AMVP se utiliza como predictor del vector de movimiento para el bloque actual, y en donde los bloques candidatos usados para el modo de fusión y para el modo de AMVP incluyen un primer bloque vecino situado en un lado izquierdo (1810) del bloque actual (1800), un segundo bloque vecino situado en un lado superior del bloque actual (1800), un tercer bloque vecino situado en la esquina inferior izquierda (1850) del bloque actual (1800), un cuarto bloque vecino situado en la esquina superior derecha (1830) del bloque actual (1800), y un quinto bloque vecino situado en la esquina superior izquierda (1840) del bloque actual (1800).
6. El método de la reivindicación 5, en donde el primer bloque vecino es un bloque más abajo entre los bloques vecinos izquierdos adyacentes a un límite izquierdo del bloque actual (1800), el segundo bloque vecino es un bloque más a la derecha entre bloques vecinos superiores adyacentes a un límite superior del bloque actual (1800).
7. El método de cualquiera de las reivindicaciones 5 o 6, en donde los bloques candidatos usados para el modo de fusión y para el modo de AMVP incluyen un bloque vecino temporal que está situado en una imagen de referencia.
8. Un medio de almacenamiento legible por decodificador no transitorio que almacena un flujo de bits generado por un método, el método que comprende:
determinar un modo de fusión que se aplica para el bloque actual (1800);
generar una marca de fusión que indica que el modo de fusión se aplica para el bloque actual (1800); derivar candidatos de fusión para el modo de fusión a partir de bloques candidatos usados para el modo de fusión del bloque actual (1800);
seleccionar uno de los candidatos de fusión para derivar información de movimiento del bloque actual (1800); derivar la información de movimiento del bloque actual (1800) en base al candidato de fusión seleccionado; derivar muestras de predicción en el bloque actual (1800) en base a la información de movimiento derivada; generar muestras residuales en el bloque actual (1800) en base a las muestras de predicción;
generar información de índice que indique uno de los candidatos a fusión;
codificar información de vídeo que incluye la marca de fusión y la información de índice para el bloque actual (1800); y
generar el flujo de bits que incluye la información de vídeo,
en donde se buscan los bloques candidatos utilizados para el modo de fusión en una región en la que se buscan los bloques candidatos utilizados para un modo que utiliza un predictor de vector de movimiento, al que se hace referencia en lo sucesivo como modo de AMVP,
en donde el modo de fusión es un modo de inter predicción en el que un vector de movimiento de un bloque candidato para el modo de fusión se utiliza como vector de movimiento del bloque actual,
en donde el modo de AMVP es un modo de inter predicción en el que un vector de movimiento de un bloque candidato para el modo de AMVP se utiliza como predictor del vector de movimiento para el bloque actual, y en donde los bloques candidatos usados para el modo de fusión y para el modo de AMVP incluyen un primer bloque vecino situado en un lado izquierdo (1810) del bloque actual (1800), un segundo bloque vecino situado en un lado superior del bloque actual (1800), un tercer bloque vecino situado en la esquina inferior izquierda (1850) del bloque actual (1800), un cuarto bloque vecino situado en la esquina superior derecha (1830) del bloque actual (1800), y un quinto bloque vecino situado en la esquina superior izquierda (1840) del bloque actual (1800).
ES21175983T 2010-09-02 2011-09-02 Inter predicción Active ES2967494T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US37970810P 2010-09-02 2010-09-02
US41093910P 2010-11-08 2010-11-08
US41280510P 2010-11-12 2010-11-12

Publications (1)

Publication Number Publication Date
ES2967494T3 true ES2967494T3 (es) 2024-04-30

Family

ID=45773417

Family Applications (2)

Application Number Title Priority Date Filing Date
ES21175983T Active ES2967494T3 (es) 2010-09-02 2011-09-02 Inter predicción
ES11822168T Active ES2879366T3 (es) 2010-09-02 2011-09-02 Método de codificación y decodificación de video

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES11822168T Active ES2879366T3 (es) 2010-09-02 2011-09-02 Método de codificación y decodificación de video

Country Status (11)

Country Link
US (8) US9165379B2 (es)
EP (3) EP2613535B1 (es)
KR (6) KR101454133B1 (es)
CN (5) CN106412601B (es)
ES (2) ES2967494T3 (es)
FI (1) FI3907999T3 (es)
HR (1) HRP20231669T1 (es)
HU (2) HUE064692T2 (es)
PL (2) PL2613535T3 (es)
SI (1) SI3907999T1 (es)
WO (1) WO2012030193A2 (es)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101454133B1 (ko) * 2010-09-02 2014-10-23 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
CN105847831B (zh) 2010-11-23 2019-08-09 Lg电子株式会社 视频编码装置和视频解码装置
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
US9635383B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for computing a motion vector
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
US9438906B2 (en) 2011-03-03 2016-09-06 Sun Patent Trust Method of encoding an image into a coded image, method of decoding a coded image, and apparatuses thereof
JP5982734B2 (ja) * 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
EP2687015A4 (en) 2011-03-14 2014-12-17 Mediatek Inc METHOD AND DEVICE FOR OBTAINING PREDICTIONS FOR TEMPORARY MOTION VECTORS
WO2012140821A1 (ja) 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
PL3614665T3 (pl) 2011-05-27 2022-07-04 Sun Patent Trust Sposób kodowania obrazów, urządzenie do kodowania obrazów, sposób dekodowania obrazów, urządzenie do dekodowania obrazów, i urządzenie do kodowania i dekodowania obrazów
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
KR101889582B1 (ko) 2011-05-31 2018-08-20 선 페이턴트 트러스트 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호화 방법, 동화상 복호화 장치, 및, 동화상 부호화 복호화 장치
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
US9313494B2 (en) 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
CN103535039B (zh) 2011-06-30 2018-08-28 太阳专利托管公司 图像解码方法、图像编码方法、图像解码装置、图像编码装置以及图像编解码装置
WO2013005966A2 (ko) 2011-07-01 2013-01-10 한국전자통신연구원 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
KR20130004173A (ko) * 2011-07-01 2013-01-09 한국항공대학교산학협력단 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
EP2741499A4 (en) 2011-08-03 2014-12-10 Panasonic Ip Corp America VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO CODING DEVICE, VIDEO ENCODING DEVICE AND VIDEO ENCODING / DECODING DEVICE
WO2013032073A1 (ko) 2011-08-29 2013-03-07 주식회사 아이벡스피티홀딩스 Amvp 모드에서의 예측 블록 생성 방법
CN102970526B (zh) * 2011-08-31 2016-12-14 华为技术有限公司 一种获得变换块尺寸的方法和模块
CN102957907B (zh) * 2011-08-31 2016-06-29 华为技术有限公司 一种变换块位置信息的获取方法和模块
CN107483925B (zh) 2011-09-09 2020-06-19 株式会社Kt 用于解码视频信号的方法
CN103828373B (zh) 2011-10-05 2018-02-16 太阳专利托管公司 图像解码方法以及图像解码装置
RU2719375C2 (ru) 2011-10-18 2020-04-17 Кт Корпорейшен Способ декодирования видеосигнала
CN103858428B (zh) 2011-10-19 2018-07-03 太阳专利托管公司 图像编码方法、图像编码装置、图像解码方法及图像解码装置
US9729873B2 (en) * 2012-01-24 2017-08-08 Qualcomm Incorporated Video coding using parallel motion estimation
DK3716621T3 (da) * 2012-04-12 2021-12-06 Jvc Kenwood Corp Indretning til kodning af levende billeder, fremgangsmåde til kodning af levende billeder, program til kodning af levende billeder og indretning til afkodning af levende billeder, fremgangsmåde til afkodning af levende billeder, program til afkodning af levende billeder
US10721487B2 (en) 2012-04-17 2020-07-21 Texas Instruments Incorporated Converting a bi-predicted merging candidate in a merging candidate list for a prediction unit of a picture
US9591312B2 (en) * 2012-04-17 2017-03-07 Texas Instruments Incorporated Memory bandwidth reduction for motion compensation in video coding
WO2013157839A1 (ko) * 2012-04-17 2013-10-24 삼성전자 주식회사 인간의 시각 특성을 이용한 오프셋 값 결정 방법 및 장치
US20130301727A1 (en) * 2012-05-14 2013-11-14 Qualcomm Incorporated Programmable and scalable integer search for video encoding
LT2854398T (lt) * 2012-06-11 2018-01-10 Samsung Electronics Co., Ltd. Vaizdo kodavimo būdas, bendrinant sao parametrą pagal spalvio komponentą
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
TWI662831B (zh) 2012-10-12 2019-06-11 韓國電子通信研究院 視訊編碼及解碼方法及使用該方法之裝置
US10158876B2 (en) * 2013-04-10 2018-12-18 Qualcomm Incorporated Backward view synthesis prediction
KR20160045121A (ko) * 2013-10-17 2016-04-26 니폰 덴신 덴와 가부시끼가이샤 영상 부호화 장치 및 방법, 및 영상 복호 장치 및 방법
TWI538487B (zh) * 2013-12-05 2016-06-11 財團法人工業技術研究院 螢幕視訊之預測編碼的方法與系統
CN105874789B (zh) * 2014-01-29 2019-10-29 联发科技股份有限公司 利用自适应运动向量精度的方法
GB2524476B (en) * 2014-03-14 2016-04-27 Canon Kk Method, device and computer program for optimizing transmission of motion vector related information when transmitting a video stream
US10715833B2 (en) * 2014-05-28 2020-07-14 Apple Inc. Adaptive syntax grouping and compression in video data using a default value and an exception value
KR102378459B1 (ko) * 2014-06-30 2022-03-24 한국전자통신연구원 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법
EP3202143B8 (en) * 2014-11-18 2019-09-25 MediaTek Inc. Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate
CN107005696B (zh) * 2014-11-27 2020-06-26 株式会社Kt 视频信号处理方法和设备
US10958927B2 (en) 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
US10721467B2 (en) * 2015-05-05 2020-07-21 Lg Electronics Inc. Method and device for processing coding unit in image coding system
US9883137B2 (en) 2015-11-03 2018-01-30 Qualcomm Incorporated Updating regions for display based on video decoding mode
WO2017107072A1 (en) 2015-12-22 2017-06-29 Realnetworks, Inc. Motion vector selection and prediction in video coding systems and methods
WO2017147765A1 (en) * 2016-03-01 2017-09-08 Mediatek Inc. Methods for affine motion compensation
CN116170585A (zh) * 2017-01-16 2023-05-26 世宗大学校产学协力团 影像编码/解码方法
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
CN115037931A (zh) 2017-10-18 2022-09-09 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
EP3709650A4 (en) * 2017-11-09 2021-07-14 Samsung Electronics Co., Ltd. APPARATUS AND METHOD FOR CODING MOVEMENT INFORMATION, AND APPARATUS AND METHOD FOR DECODING
CN109922340B (zh) * 2017-12-13 2021-10-15 华为技术有限公司 图像编解码方法、装置、系统及存储介质
KR102075208B1 (ko) * 2017-12-14 2020-02-10 전자부품연구원 참조 프레임을 적응적으로 제한하는 영상 부호화 방법 및 장치
CN118200549A (zh) * 2018-03-19 2024-06-14 株式会社Kt 对图像进行解码或编码的方法以及非暂态计算机可读介质
EP4246979A3 (en) * 2018-04-24 2023-11-01 LG Electronics Inc. Method and apparatus for inter prediction in video coding system
US10587885B2 (en) * 2018-06-04 2020-03-10 Tencent America LLC Method and apparatus for merge mode with additional middle candidates in video coding
WO2020004931A1 (ko) * 2018-06-27 2020-01-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 처리 방법 및 장치
WO2020009390A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 처리 방법 및 장치
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
CN110868613B (zh) * 2018-08-28 2021-10-01 华为技术有限公司 基于历史候选列表的图像编码方法、图像解码方法及装置
WO2020055169A1 (ko) * 2018-09-11 2020-03-19 김기백 인터 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2020060317A1 (ko) * 2018-09-21 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN112889284A (zh) * 2018-10-22 2021-06-01 北京字节跳动网络技术有限公司 基于子块的解码器侧运动矢量推导
WO2020096427A1 (ko) * 2018-11-08 2020-05-14 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
US11539940B2 (en) 2018-11-12 2022-12-27 Hfi Innovation Inc. Method and apparatus of multi-hypothesis in video coding
US20220124310A1 (en) * 2019-02-21 2022-04-21 Electronics And Telecommunications Research Institute Method and device for encoding/decoding video, and recording medium for storing bitstream
JP2022538064A (ja) * 2019-06-19 2022-08-31 エルジー エレクトロニクス インコーポレイティド デフォルト(default)マージモードに基づいて予測サンプルを導き出す映像デコーディング方法及びその装置
CN114270821A (zh) * 2019-06-19 2022-04-01 Lg电子株式会社 包括通过应用确定的预测模式来生成预测样本的图像解码方法及其装置
WO2020256454A1 (ko) 2019-06-19 2020-12-24 엘지전자 주식회사 현재 블록에 대하여 최종적으로 예측 모드를 선택하지 못하는 경우 인터 예측을 수행하는 영상 디코딩 방법 및 그 장치
WO2023200255A1 (ko) * 2022-04-12 2023-10-19 엘지전자 주식회사 Amvp(advanced motion vector prediction)-merge 모드에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1131637C (zh) 2000-10-13 2003-12-17 北京算通数字技术研究中心有限公司 数据流索引文件生成及用该文件访问帧和切变镜头的方法
KR100378795B1 (ko) 2001-04-02 2003-04-03 엘지전자 주식회사 동영상에서 b픽쳐의 신축적인 다이렉트 모드 코딩 방법
KR100491530B1 (ko) 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
US7173971B2 (en) * 2002-11-20 2007-02-06 Ub Video Inc. Trailing artifact avoidance system and method
US8824553B2 (en) * 2003-05-12 2014-09-02 Google Inc. Video compression method
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
TWI401957B (zh) * 2004-07-20 2013-07-11 Qualcomm Inc 在短暫的視訊壓縮中運動向量預估之方法、裝置、電腦可讀媒體及處理器
EP1662800A1 (en) * 2004-11-30 2006-05-31 Humax Co., Ltd. Image down-sampling transcoding method and device
US7430238B2 (en) * 2004-12-10 2008-09-30 Micronas Usa, Inc. Shared pipeline architecture for motion vector prediction and residual decoding
CN101682769B (zh) * 2007-04-12 2016-11-09 汤姆森特许公司 用于视频编码和解码的跳过-直接模式的取决于环境的合并的方法和装置
CN101415122B (zh) * 2007-10-15 2011-11-16 华为技术有限公司 一种帧间预测编解码方法及装置
US8213515B2 (en) * 2008-01-11 2012-07-03 Texas Instruments Incorporated Interpolated skip mode decision in video compression
KR101431545B1 (ko) * 2008-03-17 2014-08-20 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
KR100985268B1 (ko) 2008-07-18 2010-10-04 엘지전자 주식회사 모션벡터 결정방법
WO2010041856A2 (en) 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
EP2207356A1 (en) * 2008-10-06 2010-07-14 Lg Electronics Inc. Method and apparatus for video coding using large macroblocks
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
CN101909212B (zh) * 2010-08-05 2012-08-22 上海交通大学 可重构多媒体SoC的多标准宏块预测系统
KR101454133B1 (ko) * 2010-09-02 2014-10-23 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
KR101505755B1 (ko) * 2010-11-25 2015-03-24 엘지전자 주식회사 영상 정보의 시그널링 방법 및 이를 이용한 영상 정보의 복호화 방법
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
CN107105280B (zh) * 2010-12-14 2020-01-03 M&K控股株式会社 用于编码运动画面的设备
US8902982B2 (en) * 2011-01-17 2014-12-02 Samsung Electronics Co., Ltd. Depth map coding and decoding apparatus and method
JP5982734B2 (ja) * 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
US9282338B2 (en) * 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
ES2908152T3 (es) * 2011-06-30 2022-04-27 Sun Patent Trust Procedimiento de decodificación de imágenes
KR101444675B1 (ko) * 2011-07-01 2014-10-01 에스케이 텔레콤주식회사 영상 부호화 및 복호화 방법과 장치
KR101210894B1 (ko) * 2011-08-29 2012-12-11 주식회사 아이벡스피티홀딩스 머지 모드 움직임 정보 복호화 장치
US9280835B2 (en) * 2011-10-18 2016-03-08 Nokia Technologies Oy Method for coding and an apparatus based on a DC prediction value
JP5768662B2 (ja) * 2011-10-31 2015-08-26 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
JP5821542B2 (ja) * 2011-11-07 2015-11-24 富士通株式会社 動画像符号化装置、および動画像復号装置
EP3280139B1 (en) * 2011-11-08 2020-03-18 Kabushiki Kaisha Toshiba Image decoding method and image decoding apparatus
US9906815B2 (en) * 2011-11-08 2018-02-27 Texas Instruments Incorporated Delayed duplicate I-picture for video coding
TWI577181B (zh) * 2011-12-28 2017-04-01 Jvc Kenwood Corp Dynamic video coding device, dynamic image coding method and dynamic image coding program
CN104041034B (zh) * 2012-01-19 2018-10-16 索尼公司 图像处理设备和方法
KR102070431B1 (ko) * 2012-01-19 2020-01-28 삼성전자주식회사 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2014038330A1 (ja) * 2012-09-06 2014-03-13 ソニー株式会社 画像処理装置及び画像処理方法
US9124899B2 (en) * 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
EP2903286A4 (en) * 2012-09-28 2016-05-25 Sony Corp IMAGE PROCESSING DEVICE AND METHOD
WO2014107853A1 (en) * 2013-01-09 2014-07-17 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
KR20170078672A (ko) * 2014-10-31 2017-07-07 삼성전자주식회사 고정밀 스킵 부호화를 이용한 비디오 부호화 장치 및 비디오 복호화 장치 및 그 방법
WO2016070808A1 (en) * 2014-11-05 2016-05-12 Mediatek Singapore Pte. Ltd. Method and apparatus of video coding with prediction offset
WO2017010073A1 (ja) * 2015-07-10 2017-01-19 日本電気株式会社 動画像符号化装置、動画像符号化方法および動画像符号化プログラムを記憶する記録媒体
CN108353184B (zh) * 2015-11-05 2022-02-01 联发科技股份有限公司 一种视频编解码的方法及装置
KR20170072637A (ko) * 2015-12-17 2017-06-27 한국전자통신연구원 영상 부호화/복호화 방법 및 그 장치
WO2017122997A1 (ko) * 2016-01-11 2017-07-20 삼성전자 주식회사 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2017130696A1 (ja) * 2016-01-29 2017-08-03 シャープ株式会社 予測画像生成装置、動画像復号装置、および動画像符号化装置
EP3422724B1 (en) * 2017-06-26 2024-05-01 Nokia Technologies Oy An apparatus, a method and a computer program for omnidirectional video
SG11202100010SA (en) * 2017-07-03 2021-02-25 Univ Hanyang Ind Univ Coop Found Method and device for decoding image by using partition unit including additional region
US10764605B2 (en) * 2018-02-14 2020-09-01 Qualcomm Incorporated Intra prediction for 360-degree video
US11818383B2 (en) * 2018-10-10 2023-11-14 Hfi Innovation Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
US10958900B2 (en) * 2018-12-06 2021-03-23 Qualcomm Incorporated Derivation of spatial-temporal motion vectors prediction in video coding
US11032574B2 (en) * 2018-12-31 2021-06-08 Tencent America LLC Method and apparatus for video coding

Also Published As

Publication number Publication date
CN106412602B (zh) 2019-11-15
CN106412601A (zh) 2017-02-15
KR101762819B1 (ko) 2017-07-28
KR20170091752A (ko) 2017-08-09
US20130156335A1 (en) 2013-06-20
CN103081470B (zh) 2016-08-03
US9560374B2 (en) 2017-01-31
EP2613535B1 (en) 2021-06-23
KR101454133B1 (ko) 2014-10-23
US20230239493A1 (en) 2023-07-27
CN105933713A (zh) 2016-09-07
KR102185707B1 (ko) 2020-12-02
EP3907999A1 (en) 2021-11-10
US20220124363A1 (en) 2022-04-21
US20200252643A1 (en) 2020-08-06
CN106412601B (zh) 2019-12-17
KR20140046091A (ko) 2014-04-17
US20240305811A1 (en) 2024-09-12
US11245918B2 (en) 2022-02-08
EP4322530A1 (en) 2024-02-14
WO2012030193A2 (ko) 2012-03-08
WO2012030193A3 (ko) 2012-05-24
CN106412602A (zh) 2017-02-15
KR101967817B1 (ko) 2019-04-11
US20190007697A1 (en) 2019-01-03
US20170105021A1 (en) 2017-04-13
CN103081470A (zh) 2013-05-01
EP2613535A2 (en) 2013-07-10
EP2613535A4 (en) 2015-01-07
HUE055116T2 (hu) 2021-10-28
KR101861714B1 (ko) 2018-05-28
ES2879366T3 (es) 2021-11-22
FI3907999T3 (fi) 2023-12-14
HUE064692T2 (hu) 2024-04-28
EP3907999B1 (en) 2023-11-22
KR20180058233A (ko) 2018-05-31
KR102080892B1 (ko) 2020-02-24
PL3907999T3 (pl) 2024-04-08
CN105933713B (zh) 2019-03-19
KR20190039620A (ko) 2019-04-12
SI3907999T1 (sl) 2024-02-29
KR20200020987A (ko) 2020-02-26
CN106412603A (zh) 2017-02-15
PL2613535T3 (pl) 2021-10-25
CN106412603B (zh) 2019-08-06
US9165379B2 (en) 2015-10-20
HRP20231669T1 (hr) 2024-03-15
US20150382013A1 (en) 2015-12-31
US10666969B2 (en) 2020-05-26
US10097854B2 (en) 2018-10-09
KR20130061721A (ko) 2013-06-11
US11653021B2 (en) 2023-05-16

Similar Documents

Publication Publication Date Title
ES2967494T3 (es) Inter predicción
ES2954447T3 (es) Predicción de vectores de movimiento
ES2869854T3 (es) Unificar copia intrabloque e interpredicción
ES2927560T3 (es) Aparato de decodificación de vídeo, aparato de codificación de vídeo, medio de almacenamiento y método para la trasmisión
ES2755573T3 (es) Predicción de vector de movimiento temporal avanzada basada en unidades de subpredicción
ES2975180T3 (es) Modificación de las profundidades de bits en la codificación de transformación de espacio de color
ES2961675T3 (es) Método de descodificación de imágenes, método de codificación de imágenes, método para transmitir datos correspondientes a información de imágenes y soporte de almacenamiento legible por ordenador que almacena un flujo continuo de bits que incluye información de imágenes codificada
ES2930367T3 (es) Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo
ES2944310T3 (es) Selección de un predictor de vector de movimiento
ES2738215T3 (es) Método para la codificación y decodificación de datos de imagen con un predictor del vector de movimiento temporal y dispositivo que utiliza el mismo
ES2874552T3 (es) Diseño de codificación y descodificación en modo de paleta
ES2977892T3 (es) Método para determinar la unidad de referencia
ES2962504T3 (es) Método de predicción inter llevado a cabo por un aparato de descodificación, método de codificación de imágenes llevado a cabo por un aparato de codificación y método de transmisión de datos para imágenes
BR112016006574B1 (pt) Predição de vetor de movimento temporal com base em unidade de subpredição (pu) em hevc e projeto de sub-pu em 3d-hevc
ES2971864T3 (es) Métodos y aparatos de codificación de vídeo para obtener vectores de movimiento afín para componentes croma
EP4383703A1 (en) Video signal processing method and device using current picture reference
BR112016015572B1 (pt) Método para processar dados de vídeo tridimensionais compreendendo um conjunto de parâmetros de vídeo e cabeçalhos de fatia, método para codificar dados de vídeo tridimensionais compreendendo um conjunto de parâmetros de vídeo e cabeçalhos de fatia, dispositivo de codificação de vídeo e memória legível por computador