ES2930367T3 - Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo - Google Patents

Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo Download PDF

Info

Publication number
ES2930367T3
ES2930367T3 ES19176192T ES19176192T ES2930367T3 ES 2930367 T3 ES2930367 T3 ES 2930367T3 ES 19176192 T ES19176192 T ES 19176192T ES 19176192 T ES19176192 T ES 19176192T ES 2930367 T3 ES2930367 T3 ES 2930367T3
Authority
ES
Spain
Prior art keywords
block
prediction
reference index
current block
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19176192T
Other languages
English (en)
Inventor
Seungwook Park
Jaehyun Lim
Yongjoon Jeon
Hendry Hendry
Younghee Choi
Jaewon Sung
Jungsun Kim
Byeongmoon Jeon
Joonyoung Park
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2930367T3 publication Critical patent/ES2930367T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

La presente invención se refiere a la codificación y decodificación de información de imágenes. De acuerdo con la presente invención, el método de decodificación comprende los pasos de: decodificación de entropía de la información recibida; realizar una predicción inter sobre un bloque actual en base a la información decodificada por entropía; y restauración de imágenes mediante el uso de los resultados de predicción, donde, en el paso de inter predicción, se aplica un modo de omisión o un modo de fusión al bloque actual y la información de movimiento del bloque actual puede determinarse en función de la información de movimiento de un bloque vecino del bloque actual. bloque actual. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo
Campo técnico
La presente invención se refiere a la tecnología de compresión de vídeo y, más concretamente, a la tecnología de interpredicción.
Antecedentes de la técnica
La necesidad de videos que tengan alta resolución y alta calidad se ha incrementado recientemente en varios campos. Sin embargo, a medida que se mejora la resolución y la calidad de una imagen, también aumenta del mismo modo la cantidad de datos en el video. En consecuencia, si los datos de video se transmiten usando un medio tal como una línea de banda ancha cableada/inalámbrica existente, o los datos de video se almacenan usando un medio de almacenamiento existente, los costes de transmisión y almacenamiento de datos también aumentan. Con el fin de transmitir, almacenar y reproducir información de manera efectiva dentro de una imagen que tenga alta resolución y alta calidad, se puede usar tecnología de compresión de video que utiliza alta eficiencia.
Con el fin de mejorar la eficacia de la compresión de vídeo, se pueden utilizar la interpredicción y la intrapredicción. En la interpredicción, los valores de píxel dentro de una imagen actual se predicen a partir de una imagen que es temporalmente anterior y/o posterior a la imagen actual. En la intrapredicción, los valores de píxeles dentro de una imagen actual se predicen usando información de píxeles dentro de la imagen actual.
Además de los métodos de interpredicción e intrapredicción, la tecnología de predicción de ponderación para evitar que la calidad de la imagen se deteriore debido a un cambio de iluminación, la tecnología de codificación de entropía para asignar un signo corto a un símbolo que tiene una frecuencia de aparición alta y asignar un signo largo signo a un símbolo que tiene una frecuencia de aparición baja, etc. se están utilizando para el procesamiento eficiente de la información dentro de una imagen.
El documento "Test Model under Consideration" del Equipo de Colaboración Conjunto sobre Codificación de Video (JCT-VC) del WP3 de SG16 de la ITU-T y el JTC1/SC29/WG11 de ISO/IEC, 2. Reunión del JCT-VC, Ginebra, n2 JCTVC-B205 describe la semántica de la unidad de predicción en la que un parámetro skip_flag especifica si una unidad de codificación actual se omitirá o no, y los parámetros mvp_idx_l0[ i ] y mvp_idx_l1[ i ] especifican los índices del predictor de vector de movimiento de orden i de la lista 0 y la lista 1, respectivamente, donde i es el índice de la unidad de predicción. Cuando mvp_idx_l0[ i ] o mvp_idx_l1[ i ] no está presente, se inferirá que es igual a 0. Además, un parámetro pred_mode especifica un modo de predicción de una unidad de predicción actual, donde la semántica de pred_mode depende de un tipo de segmento.
Descripción
Problema técnico
La presente invención proporciona un método y un aparato para mejorar la eficiencia de codificación y el rendimiento en la interpredicción.
La presente invención también proporciona un método y un aparato para derivar eficientemente información de movimiento en un bloque actual cuando se aplica el modo de salto de interpredicción al bloque actual.
La presente invención también proporciona un método y un aparato para derivar información de movimiento en un bloque actual, por ejemplo, un índice de referencia basado en información de movimiento en bloques vecinos cuando se aplica el modo de salto de interpredicción al bloque actual.
La presente invención también proporciona un método para derivar el índice de referencia de un candidato de fusión temporal para un bloque actual.
Solución técnica
(1) La presente invención se refiere a un método de codificación de información de video según la reivindicación 1 y un método para decodificar información de video según la reivindicación 2.
Efectos ventajosos
De acuerdo con la presente invención, cuando se aplica el modo de salto de interpredicción, la eficiencia de codificación se puede mejorar seleccionando de manera efectiva una imagen de referencia.
De acuerdo con la presente invención, el grado de complejidad se puede reducir y la eficiencia de codificación se puede mejorar derivando efectivamente el índice de referencia de un candidato de fusión temporal.
Descripción de los dibujos
La FIG. 1 es un diagrama de bloques que muestra esquemáticamente un codificador de acuerdo con una realización de la presente invención.
La FIG. 2 es un diagrama de bloques que muestra esquemáticamente un decodificador de acuerdo con una realización de la presente invención.
La FIG. 3 es un diagrama que ilustra esquemáticamente un ejemplo en el que se realiza una interpredicción en un bloque actual usando AMVP.
La FIG. 4 es un diagrama que ilustra esquemáticamente un ejemplo de un método de realización de AMVP usando un bloque específico.
La FIG. 5 es un diagrama de flujo que ilustra un ejemplo de un método que deriva un vector de movimiento de predicción para un bloque actual del decodificador.
La FIG. 6 es un diagrama que ilustra esquemáticamente un ejemplo del vector de movimiento de un bloque de predicción de candidatos espaciales para un bloque de predicción actual.
La FIG. 7 es un diagrama que ilustra esquemáticamente un método de predicción de una imagen P, una imagen B y GPB.
La FIG. 8 es un diagrama que ilustra esquemáticamente un problema que puede ocurrir cuando un índice de referencia se establece en 0 y se aplica el modo de salto.
La FIG. 9 es un diagrama que ilustra esquemáticamente un método de selección del índice de referencia de un bloque actual de los índices de referencia de bloques vecinos de acuerdo con una realización de la presente invención.
La FIG. 10 es un diagrama que ilustra esquemáticamente candidatos de fusión en un sistema al que se aplica la presente invención.
La FIG. 11 es un diagrama que ilustra esquemáticamente un ejemplo de la operación del codificador en un sistema al que se aplica la presente invención.
La FIG. 12 es un diagrama de flujo que ilustra esquemáticamente un ejemplo de la operación del decodificador en un sistema al que se aplica la presente invención.
Modo para la invención
La presente invención se puede modificar de varias formas, y la presente invención puede tener varias realizaciones. Las realizaciones específicas de la presente invención se ilustran en los dibujos y se describen en detalle. Sin embargo, la presente invención no se limita solo a las realizaciones específicas dadas. Los términos usados en esta especificación se usan para describir solo las realizaciones específicas y no se pretende que restrinjan el alcance técnico de la presente invención. Una expresión que hace referencia a un valor singular se refiere adicionalmente a una expresión correspondiente del número plural, a menos que se limite explícitamente por el contexto. En esta especificación, términos tales como "comprender" o "tener", se pretende que designen aquellas características, números, pasos, operaciones, elementos o partes que se describen en la especificación, o cualquier combinación de ellos que exista, y se debería entender que no excluyen la posibilidad de la existencia o posible adición de una o más características, números, pasos, operaciones, elementos o partes adicionales, o combinaciones de los mismos.
Mientras tanto, los elementos en los dibujos descritos en la presente invención se ilustran de manera independiente por conveniencia de la descripción con respecto a las diferentes características y funciones del codificador y decodificador, pero esto no indica que cada uno de los elementos se implemente usando hardware o software separados. Por ejemplo, dos o más de los elementos se pueden combinar para formar un elemento, y un elemento se puede dividir en una pluralidad de elementos. Se ha de señalar que las realizaciones en las que algunos elementos se integran en un elemento combinado y/o un elemento se separa en múltiples elementos separados se incluyen en el alcance de la presente invención, dado que no se apartan de la esencia de la presente invención.
De aquí en adelante, se describen en detalle algunas realizaciones ejemplares de la presente invención con referencia a los dibujos adjuntos. De aquí en adelante, los mismos números de referencia designarán los mismos elementos a lo largo de los dibujos, y se omite una descripción redundante de los mismos elementos.
La FIG. 1 es un diagrama de bloques que muestra esquemáticamente un codificador de acuerdo con una realización de la presente invención. Haciendo referencia a la FIG. 1, el codificador 100 incluye un módulo de partición de imágenes 105, un módulo de predicción 110, un módulo de transformación 115, un módulo de cuantificación 120, un módulo de reordenamiento 125, un módulo de codificación de entropía 130, un módulo de cuantificación inversa 135, un módulo de transformada inversa 140, un módulo de filtro 145 y una memoria 150.
El módulo de partición de imágenes 105 puede dividir una imagen de entrada en una o más unidades de procesamiento. La unidad de procesamiento puede ser una unidad de predicción (a la que se hace referencia de aquí en adelante como 'PU'), una unidad de transformación (a la que se hace referencia de aquí en adelante como 'TU') o una unidad de codificación (a la que se hace referencia de aquí en adelante como 'CU'). En esta especificación, sin embargo, una unidad de predicción se representa como un bloque de predicción, una unidad de transformación se puede representar como un bloque de transformación y una unidad de codificación se puede representar como un bloque de codificación, por conveniencia de la descripción.
El módulo de predicción 110 incluye un módulo de interpredicción para realizar la interpredicción y un módulo de intrapredicción para realizar la intrapredicción, como se describirá más adelante. El módulo de predicción 110 genera un bloque de predicción realizando la predicción en la unidad de procesamiento de una imagen del módulo de partición de imágenes 105. La unidad de procesamiento de la imagen en el módulo de predicción 110 puede ser una CU, una TU o una PU. Además, el módulo de predicción 110 puede determinar si la predicción realizada en una unidad de procesamiento correspondiente es una interpredicción o una intrapredicción y determinar el contenido detallado (por ejemplo, el modo de predicción) de cada método de predicción. Aquí, la unidad de procesamiento en la que se realiza la predicción, el método de predicción y la unidad de procesamiento cuyos contenidos detallados se determinan pueden ser diferentes tipos de unidades. Por ejemplo, el método de predicción y el modo de predicción se pueden determinar en una PU y la predicción se puede realizar en una TU.
El bloque de predicción se puede generar realizando la predicción en base a información sobre al menos una imagen anterior a la imagen actual y/o una imagen posterior a la imagen actual a través de la interpredicción. Además, el bloque de predicción se puede generar realizando la predicción en base a información encontrada en píxeles dentro de la imagen actual a modo de intrapredicción.
En la interpredicción, se puede seleccionar una imagen de referencia para una PU, y se puede seleccionar un bloque de referencia que tenga el mismo tamaño que la PU en una unidad de muestra de píxeles enteros. A continuación, se genera un bloque de predicción que tiene una señal residual mínima correspondiente a la PU anterior y tiene un tamaño de vector de movimiento mínimo. Se puede utilizar un modo de salto, un modo de fusión y una predicción de vector de movimiento (MVP) para el método de intrapredicción. El bloque de predicción se puede generar en una unidad de muestra menor que un número entero, tal como una unidad de muestra de 1/2 píxel y una unidad de muestra de 1/4 de píxel. Aquí, el vector de movimiento se puede representar en una unidad más pequeña que un píxel entero. Por ejemplo, un píxel de luminancia se puede representar en una unidad de 1/4 de píxel y un píxel de crominancia se puede representar en una unidad de 1/8 de píxel.
Los fragmentos de información sobre el índice de la imagen de referencia, un vector de movimiento (por ejemplo, un predictor de vector de movimiento) y una señal residual seleccionada a través de la interpredicción se someten a codificación de entropía y se transfieren al decodificador.
Si se realiza una intrapredicción, se puede determinar un modo de predicción en una PU y se puede realizar además una predicción en una PU. Además, se puede determinar un modo de predicción en una PU y se puede realizar una intrapredicción en una TU.
En intrapredicción, un modo de predicción puede tener 33 modos de predicción direccionales y dos o más modos no direccionales. Los modos no direccionales pueden incluir modos de predicción de DC y modos planos.
En la intrapredicción, se puede generar un bloque de predicción después de aplicar un filtro a una muestra de referencia. Aquí, se puede determinar si aplicar o no el filtro a la muestra de referencia dependiendo del modo de intrapredicción y/o el tamaño de un bloque actual. Aquí, el bloque actual puede ser una unidad de transformación en la que se realiza la predicción. Mientras tanto, en esta especificación, usar un píxel significa usar información sobre el píxel, por ejemplo, un valor de píxel. Se ha de señalar que una expresión 'usar información en un píxel' o 'usar un valor de píxel' se puede representar simplemente como 'usar un píxel', por conveniencia de la descripción. Un método de intrapredicción detallado se describe más adelante.
Una PU puede tener una variedad de tamaños y formas. Por ejemplo, en el caso de la interpredicción, una PU puede tener un tamaño tal como 2Nx2N, 2NxN, Nx2N o NxN. En el caso de la intrapredicción, una PU puede tener un tamaño tal como 2Nx2N o NxN (N es un número entero en los dos ejemplos anteriores). Aquí, una PU que tiene el tamaño NxN se puede configurar para que se aplique exclusivamente a un caso específico. Por ejemplo, una PU que tenga cualquier tamaño NxN dado se puede aplicar solo a una unidad de codificación de tamaño mínimo o puede usarse solo en la intrapredicción. Además de las PU que tienen los tamaños descritos anteriormente, una PU que tiene un tamaño, tal como NxmN, mNxN, 2NxmN o mNx2N (m<1), se puede definir y utilizar además.
Un valor residual (o un bloque residual o una señal residual) entre el bloque de predicción generado y un bloque original se introduce en el módulo de transformación 115. Además, la información sobre el modo de predicción y la información sobre el vector de movimiento que se utilizan para la predicción, junto con el valor residual, se codifican en el módulo de codificación de entropía 130 y se transfieren al decodificador.
El módulo de transformación 115 genera un coeficiente de transformación realizando la transformación en el bloque residual en la unidad de transformación. La unidad de transformación a la que hace referencia por el módulo de transformación 115 puede ser una TU, y la unidad de transformación puede tener una estructura de árbol cuádruple. Aquí, el tamaño de la unidad de transformación se puede determinar dentro de un rango que tiene valores máximos y mínimos. El módulo de transformación 115 puede transformar el bloque residual usando transformada de coseno discreta (DCT) y/o transformada de seno discreta (DST).
El módulo de cuantificación 120 puede generar coeficientes de cuantificación cuantificando los valores residuales transformados por el módulo de transformación 115. Los coeficientes de cuantificación calculados por el módulo de cuantificación 120 se proporcionan al módulo de cuantificación inversa 135 y al módulo de reordenamiento 125.
El módulo de reordenamiento 125 reordena los coeficientes de cuantificación proporcionados por el módulo de cuantificación 120. Reordenando los coeficientes de cuantificación, se puede mejorar la eficiencia de codificación en el módulo de codificación de entropía 130. El módulo de reordenamiento 125 puede reordenar los coeficientes de cuantificación de una forma de bloque bidimensional a coeficientes de cuantificación de una forma de vector unidimensional utilizando un método de escaneo de coeficientes.
El módulo de reordenamiento 125 puede cambiar el orden de escaneo de coeficientes en base a las estadísticas de probabilidad de los coeficientes de cuantificación recibidos del módulo de cuantificación 120, de modo que se mejore la eficiencia de codificación de entropía en el módulo de codificación de entropía 130.
El módulo de codificación de entropía 130 puede realizar la codificación de entropía en los coeficientes de cuantificación reordenados por el módulo de reordenamiento 125. Un método de codificación, tal como Golomb exponencial, codificación de longitud variable adaptable al contexto (CAVLC) o codificación aritmética binaria adaptable al contexto (CABAC), se puede usar en la codificación de entropía. El módulo de codificación de entropía 130 puede codificar varias informaciones, tal como una información sobre los coeficientes de cuantificación y el tipo de bloque de una CU recibida del módulo de reordenamiento 125 y el módulo de predicción 110, una información sobre el modo de predicción, una información sobre una unidad de partición, una información sobre una PU, una información sobre una unidad de transmisión, una información sobre un vector de movimiento, una información sobre una imagen de referencia, una información sobre la interpolación de un bloque y una información de filtrado.
Además, el módulo de codificación de entropía 130 puede aplicar un cambio específico a un conjunto de parámetros recibido o sintaxis según sea necesario.
El módulo de cuantificación inversa 135 realiza la cuantificación inversa de los valores cuantificados por el módulo de cuantificación 120, y el módulo de transformada inversa 140 realiza el muestreo de transformada inversa sobre los valores cuantificados inversamente por el módulo de cuantificación inversa 135. Los valores residuales generados a partir del módulo de cuantificación inversa 135 y el módulo de transformada inversa 140 se pueden fusionar con el bloque de predicción predicho por el módulo de predicción 110, siendo así capaz de generar un bloque reconstruido.
El módulo de filtro 145 puede aplicar un filtro de desbloqueo, un filtro de bucle adaptativo (ALF) y un desplazamiento adaptativo de muestra (SAO) a una imagen reconstruida.
El filtro de desbloqueo puede eliminar la distorsión de bloque que ocurre en el límite de los bloques en la imagen reconstruida. El ALF puede realizar un filtrado en base a un valor obtenido comparando la imagen dada, reconstruida después de que el bloque se filtra por el filtro de desbloqueo, con la imagen original. El ALF se puede utilizar solo en instancias de alta eficiencia. El SAO restablece una diferencia entre el desplazamiento del bloque residual al que se ha aplicado el filtro de desbloqueo y el desplazamiento de la imagen original en una unidad de píxel, y el SAO se aplica en forma de desplazamiento de banda o desplazamiento de borde.
Mientras tanto, el módulo de filtro 145 puede no aplicar el filtrado en un bloque reconstruido usado en la interpredicción.
La memoria 150 puede almacenar el bloque o la imagen reconstruidos calculados a través del módulo de filtro 145. El bloque o la imagen reconstruidos almacenados en la memoria 150 se pueden proporcionar al módulo de predicción 110 para realizar la interpredicción.
La FIG. 2 es un diagrama de bloques que muestra esquemáticamente un decodificador de acuerdo con una realización de la presente invención. Haciendo referencia a la FIG. 2, el decodificador 200 puede incluir un módulo de decodificación de entropía 210, un módulo de reordenamiento 215, un módulo de cuantificación inversa 220, un módulo de transformada inversa 225, un módulo de predicción 230, un módulo de filtro 235 y una memoria 240.
Cuando se recibe un flujo de bits de video del codificador, el flujo de bits de video de entrada se puede decodificar según un procedimiento mediante el cual la información de video se ha procesado por el codificador.
Por ejemplo, si se ha utilizado una codificación de longitud variable (a la que se hace referencia de aquí en adelante como "VLC"), tal como CAVLC, con el fin de que el codificador realice la codificación de entropía, el módulo de decodificación de entropía 210 puede realizar la decodificación de entropía implementando la misma tabla de VLC que la utilizada en el codificador. Además, si el codificador ha usado CABAC con el fin de realizar la codificación de entropía, el módulo de decodificación de entropía 210 puede realizar la decodificación de entropía usando CABAC.
La información para generar un bloque de predicción, de entre informaciones decodificadas por el módulo de decodificación de entropía 210, se puede proporcionar al módulo de predicción 230. Los valores residuales en los que la decodificación de entropía se ha realizado por el módulo de decodificación de entropía se pueden introducir en el módulo de reordenamiento 215.
El módulo de reordenamiento 215 puede reordenar los flujos de bits en los que la decodificación de entropía se ha realizado por el módulo de decodificación de entropía 210 en base a un método de reordenamiento utilizado en el codificador. El módulo de reordenamiento 215 puede reordenar los coeficientes representados en una forma de vector unidimensional reconstruyendo los coeficientes en coeficientes de una forma de bloque bidimensional. El módulo de reordenamiento 215 puede recibir información relacionada con el escaneo de coeficientes realizado por el codificador y realizar el reordenamiento utilizando un método de escaneo inverso en base un orden de escaneo realizado por la unidad de codificación correspondiente.
El módulo de cuantificación inversa 220 puede realizar la cuantificación inversa en base a los parámetros de cuantificación y los valores de coeficiente de un bloque proporcionado por el codificador.
El módulo de transformada inversa 225 puede realizar una DCT inversa y/o DST inversa sobre una DCT y DST realizadas por la unidad de transformación del codificador, en relación con los resultados de cuantificación realizados por el codificador. El muestreo de transformada inversa se puede realizar en una unidad de transmisión o una unidad de partición de una imagen según se determine por el codificador. En el módulo de transformación del codificador, la DCT y/o la DST se pueden realizar de manera selectiva en base a una pluralidad de factores, tales como un método de predicción, el tamaño del bloque actual y una dirección de predicción. El módulo de transformada inversa 225 del decodificador puede realizar un muestreo de transformada inversa en base a la información de transformación resultante del módulo de transformación del codificador.
El módulo de predicción 230 puede generar un bloque de predicción en base a la información relacionada con la generación del bloque de predicción proporcionada por el módulo de decodificación de entropía 210 y la información sobre un bloque y/o una imagen previamente decodificados proporcionada por la memoria 240. Se puede generar un bloque reconstruido usando el bloque de predicción generado por el módulo de predicción 230 y el bloque residual proporcionado por el módulo de transformada inversa 225. Si el modo de predicción utilizado para la PU actual es un modo de intrapredicción, la intrapredicción para generar un bloque de predicción se puede realizar en base a la información encontrada en píxeles dentro de la imagen actual.
Si el modo de predicción para la PU actual es el modo de interpredicción, la interpredicción para la PU actual se puede realizar en base a la información que se incluye en al menos una imagen anterior a la imagen actual y una imagen posterior a la imagen actual. Aquí, la información de movimiento necesaria para la interpredicción de la PU actual proporcionada por el codificador, por ejemplo, la información sobre un vector de movimiento y el índice de una imagen de referencia, se puede derivar comprobando una marca de salto y una marca de fusión que se reciben del codificador.
El bloque y/o la imagen reconstruidos se pueden proporcionar al módulo de filtro 235. El módulo de filtro 235 aplica filtrado de desbloqueo, un desplazamiento adaptativo de muestra (SAO) y/o filtrado de bucle adaptativo al bloque y/o imagen reconstruidos.
La memoria 240 puede almacenar la imagen o el bloque reconstruido de modo que la imagen o el bloque reconstruido se pueda usar como una imagen de referencia o un bloque de referencia y también puede suministrar la imagen reconstruida a un módulo de salida.
Mientras tanto, si se aplica el modo de intrapredicción, existe un MVP avanzado (AMVP) como método de realización de la predicción de un bloque actual. El método de AMVP es la mejora de un predictor de vector de movimiento (MVP) convencional. En este método, la información para la interpredicción se deriva de bloques vecinos a un bloque actual.
La FIG. 3 es un diagrama que ilustra esquemáticamente un ejemplo en el que se realiza una interpredicción en un bloque actual usando AMVP. Haciendo referencia a la FIG. 3, los MVP candidatos que se pueden usar como los MVP de un bloque actual 300 se pueden derivar de bloques vecinos.
Por ejemplo, un vector de movimiento mvA se puede derivar de un conjunto de bloques A 310 a la izquierda del bloque actual 300. mvA es un vector de movimiento que tiene el mismo índice de referencia que el bloque actual 300, de entre los vectores de movimiento del bloque que pertenecen al conjunto A 310. A continuación, un vector de movimiento mvB se puede derivar de un conjunto de bloques B 320 por encima del bloque actual 300. mvB es un vector de movimiento que tiene el mismo índice de referencia que el bloque actual 300, de entre los vectores de movimiento de bloques que pertenecen al conjunto B 320.
A continuación, una mediana mv_median del vector de movimiento mvC de un bloque C en una esquina del bloque actual, el vector de movimiento mvA del conjunto de bloques A 310 y el vector de movimiento mvB del conjunto B 320 se deriva como en la Ecuación 1.
<Ecuación 1>
mv_median = mediana(mvA, mvB, mvC)
El vector de movimiento más eficiente, seleccionado de los vectores de movimiento derivados mvA, mvB y mvC, la mediana mv_median y el vector de movimiento mv del bloque coubicado temporal del bloque actual, se puede usar como vector de movimiento para ser usado como el MVP del bloque actual.
Aquí, el AMVP se puede realizar usando solo un bloque específico sin tener en cuenta todos los bloques del conjunto A 310 y el conjunto B 320.
La FIG. 4 es un diagrama que ilustra esquemáticamente un ejemplo de un método para realizar AMVP usando un bloque específico.
En el ejemplo de la FIG. 4, la ubicación de un píxel colocado en la parte superior izquierda de una unidad de predicción actual se puede definir como (xP, yP) y la anchura y la altura de la unidad de predicción actual se pueden definir como parámetros nPSW y nPSH, respectivamente. Además, con el fin de representar bloques de predicción de candidatos espaciales, el tamaño de la unidad de predicción más pequeña que se puede usar como unidad de predicción se puede definir como MinPuSize.
Además, como los bloques de predicción de vecinos espaciales del bloque de predicción actual, un bloque que incluye un píxel en una ubicación (xP-1, yP+nPSH) se puede denominar primer bloque izquierdo 400 correspondiente a un bloque E 350 de la FIG. 3, por conveniencia de la descripción. Además, cualquiera de los bloques de un bloque perteneciente al conjunto A, por ejemplo, un bloque 420 que incluye un píxel en una ubicación (xP-1, yP) a un bloque 410 que incluye un píxel en una ubicación (xP-1, yP+nPSH-MinPuSize) se puede denominar segundo bloque izquierdo.
Un bloque que incluye un píxel en una ubicación (xP+nPSW, yP-1) se puede denominar primer bloque superior 430 correspondiente a un bloque C 330 de la FIG. 3. Además, cualquiera de los bloques de un bloque perteneciente al conjunto B, por ejemplo, un bloque 450 en una ubicación (xP, yP-1) a un bloque 440 que incluye un píxel en una ubicación (xP+nPSW-MinPuSize, yP-1) se puede denominar como segundo bloque superior. Además, un bloque que incluye un píxel en una ubicación (xP-MinPuSize, yP-1) se puede denominar tercer bloque superior 460 correspondiente a un bloque D 340 de la FIG. 3.
Los bloques de predicción de candidatos espaciales pueden incluir el primer bloque izquierdo, el segundo bloque izquierdo, el primer bloque superior, el segundo bloque superior y el tercer bloque superior. Aquí, por conveniencia de la descripción, el bloque 410 que incluye el píxel en la ubicación (xP-1, yP+nPSH-MinPuSize) se usa como el segundo bloque izquierdo, y el bloque 440 que incluye el píxel en la ubicación (xP+nPSW- MinPuSize, yP-1) se utiliza como segundo bloque superior.
Un grupo que incluye el primer bloque izquierdo 400 y el segundo bloque izquierdo 410 se define como un primer grupo de predicción de candidatos espaciales, y un grupo que incluye el primer bloque superior 430, el segundo bloque superior 440 y el tercer bloque superior 460 se define como el segundo grupo de predicción de candidatos espaciales. Un término denominado bloque de predicción de candidatos espaciales se puede usar como un término que incluye los bloques incluidos en el primer grupo de predicción de candidatos espaciales y los bloques incluidos en el segundo grupo de predicción de candidatos espaciales.
Un bloque de predicción de candidatos temporales 470 puede llegar a ser un bloque de predicción que incluye el píxel en la ubicación (xP+nPSW, yP+nPSH) en la imagen coubicada del bloque de predicción actual sobre la base de la ubicación (xP, yP) de una imagen incluida en el bloque de predicción actual o un bloque de predicción que incluye un píxel en una ubicación (xP+nPSW/2, yP+nPSH/2) si el bloque de predicción que incluye el píxel en la ubicación (xP+nPSW, yP+nPSH) no está disponible.
Las ubicaciones de los bloques de predicción de candidatos espaciales mostrados en la FIG. 4 y el número de los mismos y la ubicación del bloque de predicción de candidatos temporales mostrado en la FIG. 4 y el número de los mismos son aleatorios. La ubicación y el número de bloques de predicción de candidatos espaciales y la ubicación y el número de bloques de predicción de candidatos temporales se pueden cambiar sin apartarse de la esencia de la presente invención. Por ejemplo, todos o algunos de los bloques del conjunto A y del conjunto B de la FIG. 3 se pueden tener en cuenta. Cuando se configura una lista de vectores de movimiento de predicción de candidatos, se puede cambiar la ubicación de un bloque de predicción y un grupo de predicción de candidatos que se exploran primero. Además, en la FIG. 4, cada uno de los bloques de predicción puede ser una unidad de predicción PU.
La FIG. 5 es un diagrama de flujo que ilustra un ejemplo de un método del decodificador que deriva un vector de movimiento de predicción para un bloque actual. El método descrito con referencia a la FIG. 5 se puede realizar por el decodificador o un módulo específico, por ejemplo, el módulo de predicción del decodificador. Se supone que el sujeto para realizar el método de la FIG. 5 es el decodificador, por conveniencia de la descripción.
Haciendo referencia a la FIG. 5, el decodificador puede derivar un primer vector de movimiento de predicción de candidatos en el paso S500. El primer vector de movimiento de predicción de candidatos es un vector de movimiento de predicción de candidatos derivado del primer grupo de predicción de candidatos espaciales y se puede derivar sobre la base de la información sobre la disponibilidad del primer grupo de predicción de candidatos espaciales.
El primer grupo de predicción de candidatos espaciales puede incluir un primer bloque izquierdo y un segundo bloque izquierdo como se describe en conexión con el ejemplo de la FIG. 4. La información sobre la disponibilidad del primer grupo de predicción de candidatos espaciales se puede utilizar para derivar el vector de movimiento de predicción a partir del primer grupo de predicción de candidatos espaciales. La información sobre la disponibilidad del primer grupo de predicción de candidatos espaciales indica si al menos uno de los vectores de movimiento de bloques incluidos en el primer grupo de predicción de candidatos espaciales es un vector de movimiento de predicción de candidatos disponible o no. Es decir, la información sobre la disponibilidad del primer grupo de predicción de candidatos espaciales indica si al menos uno de los vectores de movimiento de los bloques incluidos en el primer grupo de predicción de candidatos espaciales se puede incluir o no en la lista de vectores de movimiento de predicción de candidatos de un bloque de predicción actual.
El decodificador puede derivar un segundo vector de movimiento de predicción de candidatos en el paso S510. El segundo vector de movimiento de predicción de candidatos es un vector de movimiento de predicción de candidatos derivado del segundo grupo de predicción de candidatos espaciales y se puede derivar sobre la base de la información sobre la disponibilidad del segundo grupo de predicción de candidatos espaciales.
El segundo grupo de predicción de candidatos espaciales puede incluir un primer bloque superior, un segundo bloque superior y un tercer bloque superior como se ha descrito anteriormente. La información sobre la disponibilidad del segundo grupo de predicción de candidatos espaciales se puede usar para derivar el vector de movimiento de predicción a partir del segundo grupo de predicción de candidatos espaciales. La información sobre la disponibilidad del segundo grupo de predicción de candidatos espaciales, al igual que la información sobre la disponibilidad del primer grupo de predicción de candidatos espaciales, indica si al menos uno de los vectores de movimiento de bloques incluidos en el segundo grupo de predicción de candidatos espaciales se puede incluir o no en la lista de vectores de movimiento de predicción de candidatos del bloque de predicción actual.
El decodificador puede obtener un vector de movimiento de predicción de candidatos temporales en el paso S520. El vector de movimiento de predicción de candidatos temporales es un vector de movimiento de predicción de candidatos derivado de un bloque de predicción de candidatos temporales sobre la base de la información sobre la disponibilidad del bloque de predicción de candidatos temporales.
La información sobre la disponibilidad del bloque de predicción de candidatos temporales indica si el vector de movimiento del bloque de predicción de candidatos temporales se incluirá en la lista de vectores de movimiento de predicción de candidatos del bloque de predicción actual.
La lista de vectores de movimiento de predicción de candidatos puede incluir al menos uno de los vectores de movimiento obtenidos a través de los pasos S500 a S520, es decir, el primer vector de movimiento de predicción de candidatos, el segundo vector de movimiento de predicción de candidatos y el vector de movimiento de predicción de candidatos temporales.
El decodificador puede excluir los mismos vectores de movimiento de predicción de candidatos de la lista de vectores de movimiento de predicción de candidatos en el paso S530. Más particularmente, si los mismos vectores de movimiento de predicción de candidatos están presentes en la lista de vectores de movimiento de predicción de candidatos, el decodificador elimina los vectores de movimiento de predicción de candidatos restantes que no sean un vector de movimiento de predicción de candidatos que tenga la prioridad más alta, de entre los mismos vectores de movimiento de predicción de candidatos, de la lista de vectores de movimiento de predicción de candidatos.
Solo un vector de movimiento de predicción diferente obtenido a través del paso S530 de determinar si los vectores de movimiento de predicción de candidatos son idénticos o no unos con otros, de entre los vectores de movimiento de predicción de candidatos obtenidos a través de los pasos S500 a S520, se puede incluir en la lista de vectores de movimiento de predicción de candidatos.
El decodificador puede añadir un vector de movimiento cero a la lista de vectores de movimiento de predicción de candidatos en el paso S540. Más particularmente, si no se deriva un número necesario de vectores de movimiento de predicción de candidatos con el fin de utilizar la lista de vectores de movimiento de predicción de candidatos, el decodificador puede añadir el vector de movimiento cero a la lista de vectores de movimiento de predicción de candidatos. El paso S540 se puede realizar integralmente junto con un paso S550 a ser descrito más adelante. En este caso, no se puede realizar el paso S540.
El decodificador puede ajustar el número de vectores de movimiento de predicción de candidatos en el paso S550. Más particularmente, el decodificador determina si el número de vectores de movimiento de predicción de candidatos incluidos en una lista de vectores de movimiento de predicción de candidatos actual es o no igual o mayor que el número máximo de vectores de movimiento de predicción de candidatos que se pueden incluir en la lista de vectores de movimiento de predicción de candidatos.
El número de vectores de movimiento de predicción de candidatos que se pueden incluir en la lista de vectores de movimiento de predicción de candidatos puede estar limitado a un número específico. Por ejemplo, suponiendo que el número máximo de vectores de movimiento de predicción de candidatos se establece en 2 y el número de vectores de movimiento de predicción de candidatos derivados a través de los pasos S500 a S540 es 3, solo se pueden incluir dos vectores de movimiento de predicción de candidatos en orden de alta prioridad en la lista de vectores de movimiento de predicción de candidatos y el vector de movimiento de predicción de candidatos restante se puede excluir de la lista de vectores de movimiento de predicción de candidatos.
Como se describió anteriormente, si el número de vectores de movimiento de predicción de candidatos incluidos en una lista de vectores de movimiento de predicción de candidatos actual es igual o mayor que el número máximo de vectores de movimiento de predicción de candidatos que se pueden incluir en la lista de vectores de movimiento de predicción de candidatos, el decodificador ajusta el número de vectores de movimiento de predicción de candidatos, de modo que solo se incluya en la lista de vectores de movimiento de predicción el número de vectores de movimiento de predicción de candidatos igual al número máximo de vectores de movimiento de predicción de candidatos. Aquí, un método de inclusión del número de vectores de movimiento de predicción de candidatos igual al número máximo de vectores de movimiento de predicción de candidatos en la lista de vectores de movimiento de predicción de candidatos en orden de alta prioridad y excluir los vectores de movimiento de predicción de candidatos restantes de la lista de vectores de movimiento de predicción de candidatos se puede usar como ejemplo de un método de ajuste del número de vectores de movimiento de predicción de candidatos.
Si el número de vectores de movimiento de predicción de candidatos incluidos en la lista de vectores de movimiento de predicción de candidatos actual es menor que el número máximo de vectores de movimiento de predicción de candidatos que se pueden incluir en la lista de vectores de movimiento de predicción de candidatos, el decodificador puede añadir un vector de movimiento de predicción de candidatos a la lista de vectores de movimiento de predicción de candidatos. Por ejemplo, el vector de movimiento cero se puede añadir a una lista de vectores de movimiento de predicción de candidatos actual como un vector de movimiento de predicción de candidatos adicional. El vector de movimiento de predicción de candidatos añadido puede llegar a ser una combinación de vectores ya presentes en la lista de vectores de movimiento de predicción de candidatos o un valor escalado además del vector de movimiento cero.
El decodificador puede determinar un vector de movimiento de predicción del bloque de predicción actual en el paso S560. El decodificador puede usar el vector de movimiento de predicción de candidatos más eficiente, de entre los vectores de movimiento de predicción de candidatos incluidos en la lista de vectores de movimiento de predicción de candidatos, como predictor de vector de movimiento (mvp) del bloque de predicción actual, como se describió anteriormente con referencia a la FIG. 3.
Aquí, el codificador puede transferir información sobre el vector de movimiento de predicción de candidatos más eficiente al decodificador. En este caso, el decodificador puede determinar el predictor de vector de movimiento de una unidad de predicción actual sobre la base de la información sobre el índice del predictor de vector de movimiento recibida del codificador. La información sobre el índice del predictor de vector de movimiento puede indicar cuál de los vectores de movimiento de predicción de candidatos incluidos en la lista de vectores de movimiento de predicción de candidatos se utilizará como predictor de vector de movimiento de un bloque de predicción actual.
La información sobre el vector de movimiento de la unidad de predicción actual se puede obtener añadiendo información sobre una diferencia de vector de movimiento (mvd), es decir, información sobre una diferencia entre el predictor de vector de movimiento del bloque de predicción actual y el valor del vector de movimiento original del bloque de predicción actual.
La FIG. 6 es un diagrama que ilustra esquemáticamente un ejemplo del vector de movimiento de un bloque de predicción de candidatos espaciales para un bloque de predicción actual.
Haciendo referencia a la FIG. 6, se supone que el vector de movimiento de un bloque de predicción de candidatos espaciales obtenido del mismo índice de referencia y lista de imágenes de referencia que los de un bloque de predicción actual es un primer vector de movimiento 600. Aquí, el índice de referencia indica una imagen de referencia.
En el ejemplo de la FIG. 6, suponiendo que una imagen de referencia indicada por el índice de referencia de un bloque de predicción actual 650 es una imagen j y una lista de imágenes de referencia que incluye la imagen j es L0, el vector de movimiento del bloque de predicción de candidatos espaciales 670 y el vector de movimiento del bloque de predicción actual 650 tiene la misma imagen de referencia y la misma lista de imágenes de referencia porque una imagen indicada por el vector de movimiento 600 de un bloque de predicción de candidatos espaciales 670 es una imagen j y una lista de imágenes de referencia que incluye la imagen j es L0. Como se describió anteriormente, un vector de movimiento, que tiene la misma imagen de referencia (o el mismo índice de referencia) que el del bloque de predicción actual y derivado de la misma lista, se denomina primer vector de movimiento 600.
Por el contrario, un vector de movimiento del bloque de predicción de candidatos espaciales 670, que tiene el mismo índice de referencia que el del bloque de predicción actual 650 y derivado de una lista de imágenes de referencia diferente, se denomina segundo vector de movimiento 610.
Suponiendo que una imagen de referencia indicada por el índice de referencia del bloque de predicción actual 650 es una imagen j y una lista de imágenes de referencia que incluye la imagen j es L0, el vector de movimiento 610 del bloque de predicción de candidatos espaciales 670 y el vector de movimiento del bloque de predicción actual 650 tienen el mismo índice de referencia (o la misma imagen de referencia), pero se derivan de diferentes listas de imágenes de referencia porque una imagen indicada por el vector de movimiento 610 del bloque de predicción de candidatos espaciales 670 es una imagen j y una lista de imágenes de referencia que incluye la imagen j es L1 en el ejemplo de la FIG. 6. Como se describió anteriormente, un vector de movimiento, que tiene el mismo índice de referencia que el de un bloque de predicción actual, pero derivado de una lista de imágenes de referencia diferente, se denomina segundo vector de movimiento 610.
Además, un vector de movimiento de un bloque de predicción de candidatos espaciales, que tiene un índice de referencia diferente al de un bloque de predicción actual, pero derivado de la misma lista de imágenes de referencia, se denomina tercer vector de movimiento 620.
Suponiendo que una imagen de referencia indicada por el índice de referencia de la unidad de predicción actual 650 es una imagen j y una lista de imágenes de referencia que incluye la imagen j es L0, el vector de movimiento del bloque de predicción de candidatos espaciales 670 y el vector de movimiento del bloque de predicción actual 650 tienen diferentes índices de referencia, pero se derivan de la misma lista de imágenes de referencia porque una imagen indicada por el vector de movimiento 620 del bloque de predicción de candidatos espaciales 670 es una imagen i y una lista de imágenes de referencia que incluye la imagen i es L0 en el ejemplo de FIG. 6. Como se describió anteriormente, un vector de movimiento, que tiene un índice de referencia diferente al del bloque de predicción actual 650, pero derivado de la misma lista, se denomina tercer vector de movimiento 620. Dado que la imagen de referencia (o el índice de referencia) del tercer vector de movimiento 620 son diferentes de los del bloque de predicción actual 650, el vector de movimiento del bloque de predicción de candidatos espaciales 670 se puede escalar sobre la base de la imagen de referencia del bloque de predicción actual 650 y luego incluirlo en una lista de vectores de movimiento de predicción de candidatos.
Un vector de movimiento del bloque de predicción de candidatos espaciales 670, que tiene un índice de referencia diferente al del bloque de predicción actual 650 y derivado de una lista de imágenes de referencia diferente, se denomina cuarto vector de movimiento 630.
Suponiendo que una imagen de referencia indicada por el índice de referencia del bloque de predicción actual 650 es una imagen j y una lista de imágenes de referencia que incluye la imagen j es L0, el vector de movimiento del bloque de predicción de candidatos espaciales 670 y el vector de movimiento del bloque de predicción actual 650 tienen índices de referencia diferentes y tienen una lista de imágenes de referencia diferente porque una imagen indicada por el vector de movimiento 630 del bloque de predicción de candidatos espaciales 670 es una imagen m y una lista de imágenes de referencia que incluye la imagen m es L1 en el ejemplo de la FIG. 6. Como se describió anteriormente, un vector de movimiento, que tiene un índice de referencia diferente al de un bloque de predicción actual y derivado de una lista de imágenes de referencia diferente, se denomina cuarto vector de movimiento 630. Incluso en este caso, dado que el cuarto vector de movimiento 630 tiene un índice de referencia (o imagen de referencia) diferente al del bloque de predicción actual 650, el vector de movimiento del bloque de predicción de candidatos espaciales se escala sobre la base de la imagen de referencia del bloque de predicción actual 650 y luego se incluye en una lista de vectores de movimiento de predicción candidatos.
El decodificador puede buscar un primer bloque izquierdo y un segundo bloque izquierdo para el primer vector de movimiento, el segundo vector de movimiento, el tercer vector de movimiento y el cuarto vector de movimiento secuencialmente. El decodificador puede buscar en el primer bloque izquierdo el primer vector de movimiento y el segundo vector de movimiento. Si, como resultado de la búsqueda, no se recuperan el primer vector de movimiento y el segundo vector de movimiento, el decodificador puede buscar en el segundo bloque izquierdo el primer vector de movimiento y el segundo vector de movimiento. En otra realización, el decodificador puede buscar en el primer bloque izquierdo y el segundo bloque izquierdo secuencialmente el primer vector de movimiento. Si, como resultado de la búsqueda, no se recupera el primer vector de movimiento, el decodificador puede buscar en el primer bloque izquierdo y el segundo bloque izquierdo secuencialmente el segundo vector de movimiento.
Si el primer vector de movimiento y el segundo vector de movimiento no se recuperan, el decodificador puede buscar en el primer bloque izquierdo y el segundo bloque izquierdo el tercer vector de movimiento y el cuarto vector de movimiento del mismo modo.
Si se recupera un vector de movimiento, el decodificador puede establecer la información sobre la disponibilidad de un primer grupo de predicción de candidatos espaciales en 1 (es decir, verdadero), incluir el vector de movimiento recuperado en una lista de vectores de movimiento de predicción de candidatos y finalizar las búsquedas posteriores.
El decodificador puede buscar en un primer bloque anterior, un segundo bloque anterior y un tercer bloque anterior secuencialmente el primer vector de movimiento, el segundo vector de movimiento, el tercer vector de movimiento y el cuarto vector de movimiento. El método de búsqueda es el mismo que para los bloques izquierdos. Si se recupera un vector de movimiento, el decodificador puede establecer la información sobre la disponibilidad de un segundo grupo de predicción de candidatos espaciales en 1 (es decir, verdadero), incluir el vector de movimiento recuperado en una lista de vectores de movimiento de predicción de candidatos y finalizar las búsquedas posteriores.
Aquí, el tercer vector de movimiento y el cuarto vector de movimiento necesitan ser escalados con el fin de incluir el tercer y cuarto vectores de movimiento en la lista de vectores de movimiento de predicción de candidatos y usarlos. En este caso, se puede limitar el número de veces de escalado. Por ejemplo, si el número predeterminado de veces se ha utilizado por completo para buscar el primer bloque izquierdo y el segundo bloque para el tercer vector de movimiento y el cuarto vector de movimiento, una búsqueda del tercer vector de movimiento y el cuarto vector de movimiento en los bloques anteriores no se puede realizar.
El decodificador puede incluir un vector de movimiento de predicción de candidatos, derivado de un bloque de predicción de candidatos temporales (es decir, un bloque Col), en la lista de movimiento de predicción de candidatos.
Como se describió anteriormente, si los mismos vectores de movimiento de predicción de candidatos se incluyen en la lista de movimiento de predicción de candidatos, el decodificador puede eliminar los vectores de movimiento de predicción de candidatos restantes que no sean un vector de movimiento de predicción de candidatos que tenga la prioridad más alta, de entre los mismos vectores de movimiento de predicción de candidatos, de la lista de movimiento de predicción de candidatos. Además, el decodificador puede ajustar el número de vectores de movimiento de predicción de candidatos utilizando un vector de movimiento cero, etc.
Mientras tanto, en el contenido anterior, L0 y L1 se refieren a listas de imágenes de referencia utilizadas en la interpredicción dependiendo del tipo de imagen.
Las imágenes utilizadas en la codificación y decodificación de video se pueden clasificar en una imagen I, una imagen P y una imagen B.
La imagen I se codifica de manera independiente dentro de un cuadro correspondiente independientemente de los cuadros anterior y posterior al cuadro correspondiente y no está sometida a predicción en la dirección del tiempo. Solo la información dentro del cuadro correspondiente se usa en el procesamiento de codificación.
La imagen P se puede codificar mediante interpredicción en una dirección usando una imagen de referencia. La imagen P requiere una lista de imágenes de referencia, y la lista de imágenes de referencia se denomina lista de imágenes de referencia 0 L0. La interpredicción que utiliza una imagen de referencia seleccionada de L0 también se denomina predicción L0. La predicción L0 se utiliza principalmente en la predicción hacia adelante. En la imagen P, se puede realizar la intrapredicción o la predicción L0.
La imagen B se puede codificar mediante interpredicción hacia delante, hacia atrás o bidireccional utilizando una o más imágenes de referencia, por ejemplo, dos imágenes de referencia. La imagen B requiere dos listas de imágenes de referencia, y las dos listas de imágenes de referencia se denominan lista de imágenes de referencia 0 L0 y lista de imágenes de referencia 1 L1, respectivamente. Como se describió anteriormente, la interpredicción que utiliza una imagen de referencia seleccionada de L0 se denomina predicción L0, y la predicción L0 se utiliza principalmente en la predicción hacia delante. La interpredicción que utiliza una imagen de referencia seleccionada de L1 se denomina predicción L1, y la predicción L1 se utiliza principalmente en la predicción hacia atrás. Además, la interpredicción que utiliza dos imágenes de referencia seleccionadas de los respectivos L0 y L1 también se denomina bipredicción.
En la imagen B, se pueden realizar la intrapredicción, la predicción L0, la predicción L1 o la bipredicción.
Una imagen que tiene el mismo L0 y L1, de entre las imágenes B, se denomina imagen P y B generalizada (GPB) o B generalizada. En el caso de GPB, solo se permite la predicción hacia delante y es posible una codificación que tenga un alto rendimiento de codificación, pero que tenga un retardo bajo.
La FIG. 7 es un diagrama que ilustra esquemáticamente un método de predicción de una imagen P, una imagen B y GPB. En la FIG. 7, las imágenes se muestran en orden de recuento de orden de imágenes (POC). El POC significa el orden de visualización o el orden de tiempo de las imágenes.
En relación con la imagen P, es posible la predicción unidireccional a partir de una imagen de referencia. En consecuencia, en orden de tiempo (en POC), se puede realizar la predicción hacia delante a partir de la imagen anterior y se puede realizar la predicción hacia atrás a partir de la imagen futura, como se muestra en la FIG. 7. En la imagen P, solo se puede usar una información de movimiento (es decir, un vector de movimiento o un índice de referencia) sobre un bloque de predicción de objetivo en una dirección.
En relación con la imagen B, se pueden utilizar un máximo de dos informaciones de movimiento. En consecuencia, la predicción hacia delante se puede realizar utilizando las dos imágenes de referencia anteriores sobre la base de una imagen B, la predicción hacia atrás se puede realizar utilizando las dos imágenes de referencia futuras sobre la base de una imagen B, y la bipredicción se puede realizar utilizando la imagen de referencia anterior y la imagen de referencia futura sobre la base de una imagen B. Una imagen B capaz de realizar una bipredicción puede necesitar dos listas de imágenes de referencia L0 y L1.
En la GPB, como en la imagen B, la predicción se puede realizar en un bloque de predicción de objetivo usando dos o más informaciones de movimiento. En la GPB, solo se puede permitir la predicción hacia delante. En este caso, no se acompaña ningún retardo debido a la predicción hacia atrás.
Las características de la imagen I, la imagen P y la imagen B pueden definirse para cada segmento, no para cada imagen. Por ejemplo, en una unidad de segmento, se puede definir un segmento I que tenga las características de la imagen I, un segmento P que tenga las características de la imagen P y un segmento B que tenga las características de la imagen B. En una unidad de segmento, se puede decir que la GPB es un segmento GPB o un segmento B generalizado.
Mientras tanto, en el método de AMVP mencionado anteriormente, cuando se aplica el modo de salto a un bloque actual, el bloque actual se decodifica utilizando un predictor de vector de movimiento (mvp) derivado. Por ejemplo, cuando se aplica el modo de salto en la interpredicción, la información de movimiento en un bloque de referencia disponible específico, de entre los bloques de referencia vecinos a un bloque actual, se deriva y se usa como información de movimiento en el bloque actual. No se transmite un residuo para un bloque de predicción, y el bloque actual se decodifica sobre la base del bloque de predicción.
En el modo de salto, el índice de referencia de un bloque actual se puede asignar como un valor específico, por ejemplo, 0. Sin embargo, en este caso, si se utiliza un predictor de vector de movimiento temporal (TMVP), es difícil obtener resultados de predicción efectivos.
La FIG. 8 es un diagrama que ilustra esquemáticamente un problema que puede ocurrir cuando un índice de referencia se establece en un valor específico y se aplica el modo de salto.
La FIG. 8 muestra un ejemplo en el que un índice de referencia se establece en un valor específico y se aplica el modo de salto. En el ejemplo de la FIG. 8, se supone que el índice de referencia indica una imagen de referencia 0. La imagen de referencia 0 indicada por el índice de referencia es más brillante que una imagen de referencia 1 indicada por un índice de referencia 1 y una imagen actual. La razón por la que la imagen de referencia 0 es más brillante puede resultar de un efecto de iluminación, como un flash cuando se realiza el fotografiado.
La diferencia entre los componentes de luminancia de la imagen actual y la imagen de referencia 0 es grande. Por tanto, si se tiene en cuenta la eficacia de la codificación, la imagen de referencia 1 en lugar de la imagen de referencia 0 se puede utilizar preferentemente para predecir la imagen actual.
En consecuencia, en el ejemplo de la FIG. 8, los bloques vecinos al bloque actual tienen una buena posibilidad de que puedan tener un índice de referencia indicativo de la imagen de referencia 1. Si la mayoría de los bloques vecinos tienen la imagen de referencia 1 y se aplica el modo de salto al bloque actual usando la imagen de referencia 0, puede tener que ser determinado un predictor de vector de movimiento (mvp) para el bloque actual usando el bloque de un vector de movimiento cero o una imagen coubicada porque no hay un bloque de candidatos que tenga el mismo índice de referencia del vector de movimiento más similar.
Es decir, aunque hay un bloque vecino que tiene un vector de movimiento más similar, puede surgir un problema porque el modo de salto se debe aplicar utilizando información diferente.
En consecuencia, cuando se aplica el modo de salto, se puede usar un método de derivación que usa los índices de referencia de los bloques vecinos a un bloque actual sin designar un valor específico como índice de referencia. Por ejemplo, el problema se puede resolver utilizando un método de asignación de índices de referencia, distribuidos en un lote cercano al bloque actual, como índices de referencia para el modo de salto. En otras palabras, se puede determinar un índice de referencia a ser asignado al modo de salto haciendo un seguimiento de una información de movimiento de los bloques vecinos del bloque actual.
Las realizaciones relativas a la asignación de un índice de referencia al modo de salto de acuerdo con la presente invención se describen con más detalle a continuación con referencia a los dibujos adjuntos.
En un sistema al que se aplica la presente invención, como se describió anteriormente, de entre los vectores de movimiento y los índices de referencia asignados a un bloque actual en modo de salto, no se asigna un índice de referencia específico a 0, sino que índices de referencia distribuidos en un lote cercano al bloque actual se designan como los índices de referencia del bloque actual. Es decir, el índice de referencia de un bloque específico, de entre los bloques vecinos al bloque actual, se usa como índice de referencia del bloque actual, y se describen métodos detallados del mismo en conexión con las siguientes realizaciones.
Realización 1 con respecto a la designación de un índice de referencia en modo de salto
En la presente realización, el índice de referencia que más se utiliza, de entre los índices de referencia de bloques vecinos a un bloque actual, se utiliza como el índice de referencia del bloque actual.
Por ejemplo, haciendo referencia a la FIG. 3, un índice de referencia que sea el mayor en número, de entre los índices de referencia de bloques pertenecientes al conjunto A 310, los índices de referencia de bloques pertenecientes al conjunto B 320, el índice de referencia del bloque C 330, y el índice de referencia del bloque E 350, se puede usar como el índice de referencia del bloque actual 300. Aquí, si el bloque C 330 no está disponible, el índice de referencia del bloque D 340 se puede usar en su lugar.
Si una pluralidad de índices de referencia que son los más designados (es decir, los más usados) está presente en bloques vecinos, un índice de referencia que tiene un valor más pequeño se puede designar como el índice de referencia de un bloque actual. Aquí, el índice de referencia que tiene un valor más pequeño puede ser un índice de referencia que tiene una prioridad más alta. O bien, el índice de referencia que tiene un valor más pequeño puede ser un índice de referencia indicativo de una imagen de referencia que tiene un índice más bajo en una lista de imágenes de referencia.
Realización 2 con respecto a la designación de un índice de referencia en modo salto
En la presente realización, se derivan una mediana para los índices de referencia de los bloques izquierdos vecinos de un bloque actual y una mediana para los índices de referencia de los bloques superiores vecinos del bloque actual. Una mediana para las dos medianas y el índice de referencia de un bloque ubicado en la esquina del bloque actual se designan como el índice de referencia del bloque actual.
Por ejemplo, haciendo referencia a la FIG. 3, se supone que una Mediana (refidxA1, ..., refidxAN) para los índices de referencia refidxA1, ..., refidxAN de N bloques pertenecientes al conjunto A 310 se denominan refA. También se supone que una Mediana (refidxB1, ..., refidxBM) para los índices de referencia refB1, ..., refidxBN de M bloques pertenecientes al conjunto B 320 se denomina refB. Además, suponiendo que el índice de referencia del bloque C 330 es refC, se pueden designar Medianas (refA, refB y refC) como el índice de referencia del bloque actual 300.
Como en la realización 1, si el bloque C 330 no está disponible, por ejemplo, si el bloque C 330 es un bloque en modo intrapredicción, el índice de referencia del bloque D 340 o el índice de referencia del bloque E 350 se puede utilizar en lugar del índice de referencia del bloque C 330.
Realización 3 con respecto a la designación de un índice de referencia en modo de salto
En la presente realización, se derivan un índice de referencia que tiene el valor más pequeño, de entre los índices de referencia de los bloques vecinos ubicados en la parte superior de un bloque actual, y un índice de referencia que tiene el valor más pequeño, de entre los índices de referencia de los bloques vecinos a la izquierda del bloque actual. Un índice de referencia que tiene un valor menor, de entre los dos índices de referencia, se designa como el índice de referencia del bloque actual.
Por ejemplo, haciendo referencia a la FIG. 3, se designa como el índice de referencia refA del conjunto A un índice de referencia que tiene el valor más pequeño, de entre los índices de referencia de los bloques pertenecientes al conjunto A 310, y un índice de referencia que tiene el valor más pequeño, de entre los índices de referencia de bloques pertenecientes al conjunto B 320, se designa como índice de referencia refB del conjunto B. Aquí, un índice de referencia que tiene un valor menor, de entre los índices de referencia refA y refB, se designa como índice de referencia del bloque actual 300.
Aquí, los índices de referencia de los tres bloques ubicados en las esquinas del bloque actual 300, es decir, el índice de referencia refC del bloque C 330, el índice de referencia refD del bloque D 340 y el índice de referencia refE del bloque E, se pueden incluir además como el índice de referencia del bloque actual 300. Un índice de referencia que tenga el valor más pequeño, de entre los índices de referencia refA, refB, refC, refD y refE, se puede designar como el índice de referencia del bloque actual 300.
Realización 4 con respecto a la designación de un índice de referencia en modo salto
En la presente realización, el codificador puede enviar un índice de referencia (o un índice de imagen de referencia) a ser usado en un bloque actual al que se aplica el modo de salto a través de un conjunto de parámetros de un nivel de segmento o un nivel de imagen. Aquí, el bloque actual puede ser una unidad de codificación o una unidad de predicción.
La información sobre el índice de referencia que se transmite por el codificador en un nivel de segmento o un nivel de imagen puede ser un valor en sí mismo del índice de referencia.
Mientras tanto, en la presente invención, dado que los índices de referencia distribuidos en un lote cercano a un bloque actual se designan como índices de referencia para el modo de salto, los índices de referencia transmitidos por el codificador pueden ser los índices de referencia de los bloques vecinos del bloque actual. En consecuencia, el codificador puede no enviar directamente el valor de un índice de referencia, sino enviar información sobre el índice de referencia de tal forma que envíe información indicativa de un bloque vecino que tenga el índice de referencia correspondiente. En este caso, si el vector de movimiento de un bloque designado por el codificador es el mismo que el del bloque actual, la información de movimiento del bloque designado por el codificador se puede usar sin cambios y se puede aplicar el modo de salto al bloque actual. Este método también se puede denominar método de fusión de bloques vecinos con un bloque actual y aplicar el modo de salto al bloque actual, por conveniencia de la descripción.
El decodificador designa los índices de referencia, recibidos del codificador, como los índices de referencia de los bloques a los que se aplica el modo de salto. Dado que los índices de referencia para el modo de salto se transmiten en un nivel de segmento o un nivel de imagen, se puede asignar el mismo índice de referencia a los bloques a los que se aplica el modo de salto, es decir, bloques que pertenecen al mismo segmento o a la misma imagen. El decodificador deriva un predictor de vector de movimiento (mvp) para un bloque actual usando índices de referencia recibidos del codificador y un método de AMVP, tal como el descrito anteriormente. Aquí, si la información sobre un índice de referencia recibido del codificador se transfiere de tal forma que indica un bloque vecino que tiene el mismo índice de referencia que se describió anteriormente y el vector de movimiento del bloque vecino indicado es el mismo que el vector de movimiento de un bloque actual, el decodificador puede aplicar el modo de salto al bloque actual de tal forma que utilice la información de movimiento en el bloque vecino indicado sin cambios. Es decir, se puede usar un método de fusión del bloque vecino con el bloque actual y aplicar el modo de salto al bloque actual.
Realización 5 con respecto a la designación de un índice de referencia en modo de salto
En la presente realización, el codificador envía un índice de referencia a ser utilizado por un bloque actual al que se aplica el modo de salto para cada bloque. Aquí, un bloque a través del cual se transmite el índice de referencia puede ser una unidad de codificación o una unidad de predicción.
La información sobre el índice de referencia transmitida por el codificador para cada bloque puede ser un valor en sí mismo del índice de referencia.
Mientras tanto, en la presente invención, dado que los índices de referencia distribuidos en un lote cercano a un bloque actual se designan como índices de referencia para el modo de salto, los índices de referencia recibidos del codificador pueden ser los índices de referencia de los bloques vecinos del bloque actual. En consecuencia, el codificador puede no enviar directamente el valor de un índice de referencia, sino enviar información sobre el índice de referencia de tal forma que envíe información indicativa de un bloque vecino que tenga el índice de referencia correspondiente. En este caso, si el vector de movimiento de un bloque designado por el codificador es el mismo que el del bloque actual, la información de movimiento del bloque designado por el codificador se puede usar sin cambios y se puede aplicar el modo de salto al bloque actual. Este método también se puede denominar método de fusión de bloques vecinos con un bloque actual y aplicar el modo de salto al bloque actual, por conveniencia de la descripción.
Cuando se aplica el modo de salto a un bloque actual, el decodificador utiliza un índice de referencia, transmitido por el codificador, como el índice de referencia del bloque actual. Aquí, si la información sobre un índice de referencia recibido del codificador se transfiere de tal forma que indica un bloque vecino que tiene el mismo índice de referencia que se describió anteriormente y el vector de movimiento del bloque vecino indicado es el mismo que el vector de movimiento de un bloque actual, el decodificador puede aplicar el modo de salto al bloque actual de tal forma que utilice la información de movimiento en el bloque vecino indicado sin cambios. Es decir, se puede usar un método de fusión del bloque vecino con el bloque actual y aplicar el modo de salto al bloque actual.
Realización 6 con respecto a la designación de un índice de referencia en modo de salto
En la presente realización, con el fin de derivar un índice de referencia para el modo de salto aplicado a un bloque actual, se selecciona y utiliza un índice de referencia que tiene el valor más pequeño, de entre los índices de referencia de bloques vecinos.
La FIG. 9 es un diagrama que ilustra esquemáticamente un método de selección del índice de referencia de un bloque actual de los índices de referencia de bloques vecinos de acuerdo con una realización de la presente invención.
Haciendo referencia a la FIG. 9, cuando se aplica el modo de salto a un bloque actual 910, el índice de referencia del bloque actual 910 se puede determinar teniendo en cuenta el índice de referencia de un bloque A 930 y el índice de referencia de un bloque B 950. Haciendo referencia a la FIG. 3, el bloque A 930 puede ser cualquiera de los bloques de un conjunto A 920, y el bloque B 950 puede ser cualquiera de los bloques de un conjunto B 940.
Cada uno de los índices de referencia del bloque A 930 y el índice de referencia del bloque B 950 pueden tener un valor de -1 (es decir, no disponible) para una lista de imágenes de referencia L1 en el caso de predicción hacia delante y pueden tener un valor de - 1 para una lista de imágenes de referencia L0 en el caso de predicción hacia atrás. Además, si el bloque A 930 o el bloque B 950 están en intramodo, todos los valores de los índices de imágenes de referencia pueden llegar a ser -1 en relación con la predicción bidireccional.
La Tabla 1 muestra índices de imágenes de referencia que se designan según la realización 6 con respecto a la designación de un índice de referencia en el modo de salto.
<Tabla 1>
Figure imgf000015_0001
Se obtiene un índice de referencia para el modo de salto para cada una de una dirección L0 y una dirección L1, y la predicción se realiza usando un índice de referencia derivado. Básicamente, un índice de referencia que tiene un valor menor, de entre el índice de referencia del bloque A 930 y el índice de referencia del bloque B 950, se designa como el índice de referencia de un bloque actual. En consecuencia, se puede derivar un índice de referencia skip_ref en el modo de salto como en la Ecuación 2 usando el índice de referencia ref_idx_A del bloque A 930 y el índice de referencia ref_idx_B del bloque B 950.
<Ecuación 2>
skip_ref_A = (ref_idx_A = -1? 0:ref _idx_A)
skip_rcf_B = (ref_idx_B == -1? 0:ref_Ídx_B)
skip_ref = min(skip_ref_A, skipjrefB)
Si tanto el índice de referencia del bloque A 930 como el índice de referencia del bloque B 950 son -1, el índice de referencia de un bloque actual en modo de salto se puede derivar como 0 o -1.
Si un índice de referencia en el modo de salto se deriva como -1, el modo de salto se puede predecir en una dirección. Por ejemplo, si un valor de un índice de referencia de modo de salto skip_rel_10 en una dirección L0 es -1 y un valor de un índice de referencia de modo de salto en una dirección L1 es 0, el modo de salto en la dirección L1 se aplica a un bloque actual.
Mientras tanto, si el modo de intrapredicción para un bloque actual es el modo de fusión, se puede realizar una predicción de tal forma que se aplique información de movimiento (es decir, un índice de referencia y un vector de movimiento) en un candidato de fusión predeterminado al bloque actual se puede predecir de tal forma que aplique el modo de fusión al bloque actual. Además, si el modo de intrapredicción para un bloque actual es el modo de salto, se puede aplicar el modo de salto de fusión al bloque actual como se describió anteriormente. Esto se puede denominar simplemente modo de salto de fusión.
En el modo de fusión o en el modo de salto de fusión, la información de movimiento en un bloque candidato designado se utiliza como información de movimiento en un bloque actual. En el modo de salto de fusión, a diferencia del modo de fusión, no se transmite una señal residual para un bloque de predicción. La información que indica si se aplica el modo de fusión o el modo de salto de fusión a un bloque actual se puede transmitir por el codificador.
Si el modo de intrapredicción para un bloque actual es el modo de fusión o el modo de salto de fusión, un indicador transmitido por el codificador puede indicar un objetivo con el que se fusionará el bloque actual en una lista de candidatos de fusión mergeCandList.
La FIG. 10 es un diagrama que ilustra esquemáticamente candidatos de fusión en un sistema al que se aplica la presente invención. Haciendo referencia a la FIG. 10, si se aplica el modo de fusión o el modo de salto de fusión a un bloque actual 1000, los candidatos que se pueden usar como información de movimiento en el bloque actual incluyen informaciones de movimiento en un bloque A0 1010, es decir, el bloque de la esquina inferior izquierda del bloque actual, un bloque A11020, es decir, el bloque inferior izquierdo del bloque actual, un bloque B01030, es decir, el bloque de la esquina superior derecha del bloque actual, un bloque B11040, es decir, el bloque superior derecho del bloque actual, un bloque B21050, es decir, el bloque de la esquina superior izquierda del bloque actual y un bloque COL 1050, es decir, un bloque en la misma ubicación que el bloque actual. Aquí A1, B0, B1, B2, o COL puede indicar un bloque o información de movimiento. De aquí en adelante, por conveniencia de la descripción, A1, B0, B1, B2, o COL se indica mediante un 'bloque N' (N=Ai, B0, Bi, B2, o COL) cuando indica un bloque en sí mismo y Ai, B0, Bi, B2, o
COL se indica mediante 'N' (N=Ai, B0, Bi, B2, o COL) cuando indica información de movimiento (candidato).
Una lista de candidatos de fusión se puede indexar en el orden de Ai, Bi, B0, A0, B2 y COL cuando el valor de una marca de disponibilidad para cada candidato es i (verdadero). Un candidato que incluya una marca de disponibilidad que tenga un valor distinto de i puede no estar incluido en la lista de candidatos de fusión.
Si el número de candidatos que tienen la misma información de movimiento y el mismo índice de referencia es de dos o más en una lista de candidatos de fusión, los candidatos restantes que no sean un candidato que tenga un orden inferior (o una prioridad más alta o un índice más bajo), de entre los candidatos que tengan la misma información de movimiento y el mismo índice, se pueden eliminar de la lista de candidatos de fusión.
Además, el número máximo de candidatos que se pueden incluir en una lista de candidatos de fusión se puede fijar en un número específico. Por ejemplo, solo se puede incluir un número máximo de 5 candidatos en una lista de candidatos de fusión.
Un bloque actual al que se aplica el modo de fusión o el modo de salto de fusión se fusiona con un bloque candidato indicado por un índice transmitido por el codificador en una lista de candidatos de fusión, y el bloque actual usa información de movimiento en el bloque candidato como su información de movimiento. Aquí, la información de movimiento del bloque candidato utilizada como la información de movimiento del bloque actual puede incluir una marca de predicción indicativa de la disponibilidad de Li/L2 además de un vector de movimiento y un índice de referencia.
Un método de derivación de A0, Ai, B0, Bi, o B2 como candidato de fusión se realiza determinando la disponibilidad de cada candidato.
Haciendo referencia a la FIG. i0 , el bloque A0, el bloque Ai, el bloque B0, el bloque Bi, yP+nPSH), (xP-i, yP+nPSH-i), (xP+nPSW, yP-i), (xP+nPSW-i, yP-i) y (xP-i, yP-i), respectivamente. Aquí, la ubicación de cada bloque se puede indicar mediante (xN, yN), por conveniencia de la descripción.
En los siguientes casos para los candidatos de fusión espaciales A0, Ai, B0, Bi, y B2, los candidatos correspondientes no están disponibles:
(1) Cuando todos los bloques A0, A i, B0, y Bi están disponibles, B2.
(2) Información de movimiento sobre un bloque en intramodo, de entre el bloque A0, el bloque Ai, el bloque B0, el bloque Bi, y el bloque B2.
(3) Cuando el tipo de partición de un bloque actual es PART_2NxN, PART_2NxnU, PART_2NxnD, PART_Nx2N, PART_nLx2N o PART_nRx2N, el índice de partición del bloque actual es i y las unidades de predicción que cubren un bloque que tiene un índice de partición 0 y una ubicación (xN, yN) tienen la misma información de movimiento, información de movimiento en un bloque N.
(4) Cuando el tipo de partición de un bloque actual es PART_NxN, se asigna la misma información de movimiento a un bloque que tiene un índice de partición 0 y un bloque que tiene un índice de partición 2, y las unidades de predicción que cubren un bloque que tiene un índice de partición i y un ubicación (xN, yN) tienen la misma información de movimiento, información de movimiento en un bloque N.
(5) Cuando el tipo de partición de un bloque actual es PART_NxN, se asigna la misma información de movimiento a un bloque que tiene un índice de partición 0 y un bloque que tiene un índice de partición i , y las unidades de predicción que cubren un bloque que tiene un índice de partición 2 y un ubicación (xN, yN) tienen la misma información de movimiento, información de movimiento en un bloque N.
En relación con un candidato de fusión espacial correspondiente a cualquiera de los casos ( i) a (5), de entre los candidatos de fusión espaciales A0, Ai, B0, Bi, o B2, un valor de una marca de disponibilidad se establece en 0 y los valores de elementos de un vector de movimiento correspondiente también se establecen en 0.
Además de los casos de ( i) a (5), el valor de una marca de disponibilidad para un candidato correspondiente se establece en i , y el vector de movimiento, el índice de referencia y la marca de predicción de un bloque (por ejemplo, una unidad de predicción) que cubre una ubicación (xN, yN) se designan como mvLXN, refldxLXN y predFlagLXN respectivos de una lista de candidatos de fusión.
Mientras tanto, en el modo de fusión y el modo de salto de fusión, un candidato de fusión temporal (es decir, un bloque
Col) se puede derivar de manera diferente de los candidatos de fusión espaciales antes mencionados. El vector de movimiento del candidato de fusión temporal se puede seleccionar en una ubicación específica en relación con un bloque correspondiente a un bloque actual en una imagen Col.
Por ejemplo, el vector de movimiento de un bloque ubicado en la esquina inferior derecha de un bloque correspondiente a un bloque actual se puede seleccionar como el vector de movimiento de un candidato de fusión temporal.
i 6
Para otro ejemplo, el índice de referencia de un candidato de fusión temporal se puede derivar sobre la base de los índices de referencia de los bloques vecinos a un bloque actual sin utilizar una imagen Col.
Los métodos de derivación del índice de referencia de un candidato de fusión temporal de acuerdo con la presente invención se describen en detalle a continuación con referencia a la FIG. 10
Realización 1 con respecto a la derivación del índice de referencia de un candidato de fusión temporal
Haciendo referencia a la FIG. 10, un índice de referencia refldxLXA (X es 0 o 1) se puede derivar del bloque A11020 de la siguiente manera.
Si el bloque A11020 que cubre la ubicación (xP-1, yP+nPSH-1) de una muestra está disponible y el modo de predicción no es el modo de intrapredicción MODE_INTRA, refldxLX [xP-1, yP+nPSH-1] está asignado al índice de referencia refldxLXA. La muestra en la ubicación (xP-1, yP+nPSH-1) puede ser una muestra de luminancia, y el bloque A1 1020 que cubre la ubicación (xP-1, yP+nPSH-1) de la muestra y el bloque actual 1000 pueden ser unidades de predicción.
Si el bloque A1 1020 que cubre la ubicación (xP-1, yP+nPSH-1) de la muestra no está disponible o el modo de predicción es el modo de intrapredicción MODE_INTRA, se asigna un valor de -1 al índice de referencia refldxLXA.
Haciendo referencia a la FIG. 10, un índice de referencia refldxLXB (X es 0 o 1) se puede derivar del bloque B11040 de la siguiente manera.
Si el bloque B1 1040 que cubre la ubicación (xP+nPSW-1, yP-1) de una muestra está disponible y el modo de predicción no es el modo de intrapredicción MODE_INTRA, refldxLX [xP+nPSW-1, yP-1] está asignado al índice de referencia refldxLXB. La muestra en la ubicación (xP+nPSW-1, yP-1) puede ser una muestra de luminancia y el bloque B1 1040 que cubre la ubicación (xP+nPSW-1, yP-1) de la muestra y el bloque actual 1000 pueden ser unidades de predicción.
Si el bloque B1 1040 que cubre la ubicación de la muestra (xP+nPSW-1, yP-1) no está disponible o el modo de predicción es el modo intrapredicción MODE_INTRA, se asigna un valor de -1 al índice de referencia refldxLXB.
Haciendo referencia a la FIG. 10, un índice de referencia refldxLXC (X es 0 o 1) se puede derivar de los tres bloques de esquina A01010, B01030, y B21050 de la siguiente manera.
Si el bloque B01030 que cubre la ubicación (xP+nPSW, yP-1) de una muestra está disponible y el modo de predicción no es el modo de intrapredicción MODE_INTRA, refldxLX [xP+nPSW, yP-1] se asigna al índice de referencia refldxLXC. La muestra en la ubicación (xP+nPSW, yP-1) puede ser una muestra de luminancia y el bloque B01030 que cubre la ubicación (xP+nPSW, yP-1) de la muestra y el bloque actual 1000 pueden ser unidades de predicción.
Si el bloque B0 1030 no está disponible o el modo de predicción es intrapredicción, el bloque A0 1010 que cubre la ubicación (xP-1, yP+nPSH) de una muestra está disponible, y el modo de predicción no es un modo de intrapredicción MODE_INTRA, refldxLX [xP-1, yP+nPSH] se asigna al índice de referencia refldxLXC. La muestra en la ubicación (xP-1, yP+nPSH) puede ser una muestra de luminancia, y el bloque A01010 que cubre la ubicación (xP-1, yP+nPSH) de la muestra y el bloque actual 1000 pueden ser unidades de predicción.
Si los bloques B0 y A0 no están disponibles o el modo de predicción es el modo de intrapredicción, el bloque B21050 que cubre la ubicación (xP-1, yP-1) de una muestra está disponible, y el modo de predicción no es el modo de intrapredicción MODE_INTRA, refIdxLX[xP-1, yP-1] se asigna al índice de referencia refldxLXC. La muestra en la ubicación (xP-1, yP-1) puede ser una muestra de luminancia y el bloque B21050 que cubre la ubicación (xP-1, yP-1) de la muestra y el bloque actual 1000 pueden ser unidades de predicción.
Si los bloques B0, A0, y B2 no están disponibles o el modo de predicción es el modo de intrapredicción, se asigna un valor de -1 al índice de referencia refldxLXC.
Aquí, el índice de referencia refldxLX de un candidato de fusión temporal para el bloque actual 1000 se puede derivar como en los siguientes casos.
(1) Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB, el índice de referencia refldxLXB es el mismo que el índice de referencia refldxLXC y el valor del índice de referencia refldxLXA es -1 (no disponible), el valor del índice de referencia refldxLX llega a ser 0. Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB, el índice de referencia refldxLXB es el mismo que el índice de referencia refldxLXC y un valor del índice de referencia refldxLXA no es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXA.
(2) Como casos que no corresponden al caso (1), si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB y un valor del índice de referencia refldxLXA es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXC. Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB y un valor del índice de referencia refldxLXA no es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXA.
(3) Como casos que no corresponden a los casos (1) y (2), si el índice de referencia refldxLXB es el mismo que el índice de referencia refldxLXC y un valor del índice de referencia refldxLXB es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXA. Si el índice de referencia refldxLXB es el mismo que el índice de referencia refldxLXC y un valor del índice de referencia refldxLXB no es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXB.
(4) Como casos que no corresponden a los casos (1) a (3), si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXC y un valor del índice de referencia refldxLXA es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXB. Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXC y un valor del índice de referencia refldxLXA no es -1, el índice de referencia refldxLX llega a ser el índice de referencia refldxLXA.
(5) Como caso que no corresponde a los casos (1) a (4), si un valor del índice de referencia refldxLXA es -1, el índice de referencia refldxLX se asigna a un índice de referencia que tiene un valor menor, de entre los índices de referencia refldxLXB y refldxLXC. Es decir, el índice de referencia refldxLX = min(refldxLXB, refldxLXC).
(6) Como casos que no corresponden a los casos (1) a (5), si un valor del índice de referencia refldxLXB es -1, el índice de referencia refldxLX se asigna a un índice de referencia que tiene un valor menor, de entre los índices de referencia refldxLXA y refldxLXC . Es decir, el índice de referencia refldxLX = min(refldxLXA, refldxLXC).
(7) Como caso que no corresponde a los casos (1) a (6), si un valor del índice de referencia refldxLXC es -1, el índice de referencia refldxLX se asigna a un índice de referencia que tiene un valor menor, de entre los índices de referencia refldxLXA y refldxLXB. Es decir, el índice de referencia refldxLX = min(refldxLXA, refldxLXB).
(8) Si un caso no corresponde a ninguno de los casos (1) a (7), el índice de referencia refldxLX del candidato de fusión temporal se asigna a un índice de referencia que tenga el valor más pequeño, de entre los índices de referencia refldxLXA, refldxLXB y refldxLXC. Es decir, el índice de referencia refldxLX = min(refIdxLXA, refIdxLXB, refIdxLXC).
Como resultado, en la presente realización, se puede decir que el índice de referencia refldxLX del candidato de fusión temporal es un índice de referencia que tiene el valor más pequeño, de entre el índice de referencia refldxLXA seleccionado desde la izquierda del bloque actual 1000, el índice de referencia refldxLXB seleccionado desde el lado superior del bloque actual, y el índice de referencia refldxLXC seleccionado como el primer índice de referencia disponible desde las esquinas del bloque actual 1000.
Realización 2 con respecto a la derivación del índice de referencia de un candidato de fusión temporal
La presente realización propone un método para derivar simplemente el índice de referencia de un candidato de fusión temporal para un bloque actual cuando se aplica el modo de fusión o el modo de salto de fusión al bloque actual.
En la presente realización, se puede usar un valor fijo como índice de referencia de un candidato de fusión temporal para un bloque actual. En la presente realización, el índice de referencia refldxLX del candidato de fusión temporal se designa como 0.
Realización 3 con respecto a la derivación del índice de referencia de un candidato de fusión temporal
En la presente realización, a diferencia de la realización 2, de entre los índices de referencia de los candidatos de fusión temporales, el índice de referencia refldxL0 de una lista de imágenes de referencia L0 se fija en 0 y el índice de referencia refIdxL1 de una lista de imágenes de referencia L1 se fija en 1.
En consecuencia, el índice de referencia de un candidato de fusión temporal para un bloque actual se puede determinar como en la Ecuación 3 a continuación.
<Ecuación 3>
reíIdxLO = O
refldxLl = refldxT-O 1 = 1
Realización 4 con respecto a la derivación del índice de referencia de un candidato de fusión temporal
En la presente realización, solo se tienen en cuenta el índice de referencia refIdxLXA derivado de la izquierda de un bloque actual y el índice de referencia refIdxLXB derivado del lado superior del bloque actual, distintos de los índices de referencia derivados de las esquinas del bloque actual. Por ejemplo, con referencia a la FIG. 10, un índice de referencia que tiene un valor menor, de entre el índice de referencia del bloque A1 1020 y el índice de referencia del bloque B11040, se puede determinar como el índice de referencia de un candidato de fusión temporal para el bloque actual 1000.
Más particularmente, el índice de referencia refldxLX del candidato de fusión temporal se puede derivar como en los siguientes casos.
(1) Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB y un valor del índice de referencia refldxLXA es -1 (no disponible), se asigna un valor 0 al índice de referencia refldxLX. Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB y un valor del índice de referencia refldxLXA no es -1, el índice de referencia refldxLXA se designa como el índice de referencia refldxLX del candidato de fusión temporal.
(2) Como caso que no corresponde al caso (1), si un valor del índice de referencia refldxLXA es -1, el índice de referencia refldxLXB se designa como el índice de referencia refldxLX del candidato de fusión temporal.
(3) Como caso que no corresponde a los casos (1) y (2), si un valor del índice de referencia refldxLXB es -1, el índice de referencia refldxLXA se designa como el índice de referencia refldxLX del candidato de fusión temporal. (4) Como caso que no corresponde a los casos (1) a (3), un índice de referencia que tiene un valor menor, de entre los índices de referencia refldxLXA y refldxLXB, se designa como índice de referencia refldxLX del candidato de fusión temporal.
Realización 5 con respecto a la derivación del índice de referencia de un candidato de fusión temporal
En la presente realización, solo en el caso de bajo retardo o cuando se utiliza GPB, se utiliza el mismo método que el de la realización 4. En los casos restantes, se asigna un valor 0 al índice de referencia refldxLX de un candidato de fusión temporal para un bloque actual.
Más particularmente, si no se satisface la condición de bajo retardo (o la condición de que se use GPB), el índice de referencia refldxLX del candidato de fusión temporal para el bloque actual se establece en 0.
Si se satisface la condición de bajo retardo (o la condición de que se usa GPB), como en la realización 4, solo se tienen en cuenta el índice de referencia refldxLXA derivado de la izquierda del bloque actual y el índice de referencia refldxLXB derivado del lado superior del bloque actual. Haciendo referencia a la FIG. 10, el índice de referencia refldxLXA es el índice de referencia del bloque A1 1020, y el índice de referencia refldxLXB es el índice de referencia del bloque B11040. En este caso,
(1) Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB y un valor del índice de referencia refldxLXA es -1 (no disponible), el valor del índice de referencia refldxLX se establece en 0. Si el índice de referencia refldxLXA es el mismo que el índice de referencia refldxLXB y un valor del índice de referencia refldxLXA no es -1, el índice de referencia refldxLXA se designa como índice de referencia refldxLX.
(2) Como caso que no corresponde al caso (1), si un valor del índice de referencia refldxLXA es -1, el índice de referencia refldxLXB se designa como el índice de referencia refldxLX.
(3) Como caso que no corresponde a los casos (1) y (2), si un valor del índice de referencia refldxLXB es -1, el índice de referencia refldxLXA se designa como el índice de referencia refldxLX.
(4) Si un caso no corresponde a ninguno de los casos (1) a (3), un índice de referencia que tenga un valor menor, de entre los índices de referencia refldxLXA y refldxLXB, se designa como el índice de referencia refldxLX de un candidato de fusión temporal para un bloque actual.
Realización 6 con respecto a la derivación del índice de referencia de un candidato de fusión temporal
En la presente realización, el índice de referencia refldxLXA derivado de la izquierda de un bloque actual se usa como el índice de referencia refldxLX de un candidato de fusión temporal para el bloque actual. Haciendo referencia a la FIG. 10, el índice de referencia refldxLXA es el índice de referencia del bloque A1 1020.
Si un valor del índice de referencia refldxLXA es -1, el índice de referencia refldxLXB derivado del lado superior del bloque actual 1000 se usa como índice de referencia del candidato de fusión temporal. Haciendo referencia a la FIG.
10, el índice de referencia refldxLXB es el índice de referencia del bloque B1 1040.
Si un valor del índice de referencia refldxLXB es -1, el índice de referencia refldxLX del candidato de fusión temporal se establece en 0. Es decir,
(1) si un valor del índice de referencia refldxLXA es -1 y un valor del índice de referencia refldxLXB es -1, el índice de referencia refldxLX del candidato de fusión temporal se establece en 0.
(2) Si un valor del índice de referencia refldxLXA es -1 y un valor del índice de referencia refldxLXB no es -1, el índice de referencia refldxLX del candidato de fusión temporal se designa como el índice de referencia refldxLXB. (3) Si un valor del índice de referencia refldxLXA no es -1, el índice de referencia refldxLX del candidato de fusión temporal se designa como el índice de referencia refldxLXA.
La FIG. 11 es un diagrama que ilustra esquemáticamente un ejemplo de la operación del codificador en un sistema al que se aplica la presente invención.
Haciendo referencia a la FIG. 11, el codificador realiza la predicción en un bloque actual en el paso S1110. Con el fin de realizar la predicción, el codificador realiza la partición en una unidad de codificación. El codificador determina el modo de predicción para el bloque actual, es decir, un objetivo de predicción, y realiza la predicción en el modo de predicción determinado.
El modo de predicción para el bloque actual puede ser el modo de intrapredicción o el modo de interpredicción. Si el modo de predicción para el bloque actual es interpredicción, se puede aplicar al bloque actual el modo de fusión, el modo de omisión (de fusión) o AMVP.
Si se aplica el modo de fusión o el modo de omisión (de fusión) al bloque actual, se puede determinar un vector de movimiento y un índice de referencia del bloque actual usando bloques vecinos.
Si se aplica el modo de salto al bloque actual, se puede determinar un índice de referencia del bloque actual teniendo en cuenta la información de movimiento sobre los bloques vecinos del bloque actual.
Además, si se selecciona y utiliza un bloque vecino específico como candidato que se puede fusionar con el bloque actual en el modo de fusión o en el modo de omisión (de fusión), se puede determinar un vector de movimiento y un índice de referencia del bloque actual sobre la base de información de movimiento sobre los bloques vecinos del bloque actual.
El codificador realiza la predicción en el bloque actual sobre la base de la información de movimiento determinada.
El codificador realiza la codificación de entropía sobre la información sobre la que se ha realizado la predicción en el paso S1120. El codificador también realiza la codificación de entropía sobre la información necesaria para la decodificación junto con la información sobre la predicción. Además, la información codificada por entropía incluye información de movimiento sobre el bloque actual en modo de salto, modo de fusión, etc., como se describió anteriormente.
El codificador señala la información codificada por entropía al decodificador en el paso S1130.
La FIG. 12 es un diagrama de flujo que ilustra esquemáticamente un ejemplo de la operación del decodificador en un sistema al que se aplica la presente invención.
Haciendo referencia a la FIG. 12, el decodificador recibe información codificada en el paso S1210. La información puede haber sido sometida a codificación de entropía por el codificador y transferida a través de un flujo de bits.
El decodificador realiza la decodificación de entropía sobre la información recibida en el paso S1220.
El decodificador realiza la predicción sobre un bloque actual sobre la base de la información decodificada por entropía en el paso S1230. El decodificador realiza la predicción en modo de predicción para el bloque actual.
Si el modo de predicción para el bloque actual es el modo de interpredicción y el modo de salto se aplica al bloque actual, se ha descrito anteriormente un método de derivación de información de movimiento (por ejemplo, un vector de movimiento y un índice de referencia) en el bloque actual.
El decodificador reconstruye un video sobre la base de los resultados de la predicción en el paso S 1240.
En los sistemas ejemplares anteriores, aunque los métodos se han descrito en forma de una serie de pasos o bloques, la presente invención no se limita a la secuencia de los pasos, y algunos de los pasos se pueden realizar en un orden diferente al de otros o se pueden realizar simultáneamente con otros pasos. Además, las realizaciones descritas anteriormente incluyen varias formas de ejemplos. En consecuencia, la presente invención se debería interpretar como que incluye todos los demás reemplazos, modificaciones y cambios que caen dentro del alcance de las reivindicaciones.
En la descripción anterior con relación a la presente invención, cuando se hace referencia a un elemento descrito como que está "conectado a" o "acoplado con" el otro elemento, el elemento puede estar directamente conectado al otro elemento o puede estar acoplado con el otro elemento, pero se debería entender que se puede colocar un tercer elemento entre los dos elementos. Por el contrario, cuando se dice que un elemento se describe como que está "conectado directamente a" o "acoplado directamente con" el otro elemento, se debería entender que no se coloca un tercer elemento entre los dos elementos.

Claims (2)

REIVINDICACIONES
1. Un método de codificación de información de video, que comprende:
realizar interpredicción sobre un bloque actual (300; 910; 1000) en una imagen actual;
realizar la codificación de entropía sobre la información sobre la interpredicción, incluyendo la información del indicador; y
emitir la información codificada en entropía,
en donde en la realización de la interpredicción, el modo de fusión se aplica al bloque actual (300; 910; 1000), el modo de fusión es un modo de interpredicción basado en la información de movimiento de un candidato de fusión como información de movimiento actual del bloque actual (300; 910; 1000),
en donde realizar la interpredicción incluye:
determinar que el modo de fusión se aplica al bloque actual (300; 910; 1000);
configurar candidatos de fusión que incluyen candidatos de fusión espaciales y un candidato de fusión temporal, en donde los candidatos de fusión espaciales se derivan de bloques vecinos espaciales del bloque actual (300; 910; 1000) y el candidato de fusión temporal se deriva de un bloque coubicado en una imagen coubicada; seleccionar un candidato de fusión de los candidatos de fusión configurados;
generar la información de indicador que indica el candidato de fusión seleccionado;
derivar información de movimiento especificada por el candidato de fusión seleccionado como la información de movimiento actual del bloque actual (300; 910; 1000), en donde la información de movimiento actual incluye un vector de movimiento (600, 610, 620, 630) y un índice de referencia (refldxLX, refldxLXA, refldxLXB, refldxLXC); y derivar los píxeles predichos del bloque actual (300; 910; 1000) en base al vector de movimiento (600, 610, 620, 630) y una imagen de referencia indicada por el índice de referencia (refldxLX, refldxLXA, refldxLXB, refldxLXC) a partir de una lista de imágenes de referencia para el bloque actual (300; 910; 1000),
en donde un índice de referencia del candidato de fusión temporal se establece igual a 0, y
en donde los bloques vecinos espaciales del bloque actual (300; 910; 1000) son un bloque inferior izquierdo (1020), un bloque superior derecho (1040), un bloque de esquina inferior izquierda (1010), un bloque de esquina superior derecha (1030), y un bloque de esquina superior izquierda (1050) del bloque actual (300; 910; 1000).
2. Un método de decodificación de información de video, que comprende:
realizar decodificación de entropía en información recibida que incluye información de modo e información de indicador en una imagen actual;
realizar una interpredicción en un bloque actual (300; 910; 1000) en base a la información decodificada por entropía; y
reconstruir una imagen en base a un resultado de la predicción,
en donde, al realizar la interpredicción, el modo de fusión se aplica al bloque actual (300; 910; 1000) en base a la información de modo, el modo de fusión es un modo de interpredicción basado en la información de movimiento de un candidato de fusión como información de movimiento actual del bloque actual (300; 910; 1000), en donde realizar la interpredicción incluye:
configurar candidatos de fusión que incluyen candidatos de fusión espaciales y un candidato de fusión temporal, en donde los candidatos de fusión espaciales se derivan de bloques vecinos espaciales del bloque actual (300; 910; 1000) y el candidato de fusión temporal se deriva de un bloque coubicado en una imagen coubicada; seleccionar un candidato de fusión de los candidatos de fusión configurados en base a la información del indicador;
derivar información de movimiento especificada por el candidato de fusión seleccionado como la información de movimiento actual del bloque actual (300; 910; 1000), en donde la información de movimiento actual incluye un vector de movimiento (600, 610, 620, 630) y un índice de referencia (refldxLX, refldxLXA, refldxLXB, refldxLXC); y derivar los píxeles predichos del bloque actual (300; 910; 1000) en base al vector de movimiento (600, 610, 620, 630) y una imagen de referencia indicada por el índice de referencia (refldxLX, refldxLXA, refldxLXB, refldxLXC) a partir de una lista de imágenes de referencia para el bloque actual (300; 910; 1000), en donde un índice de referencia del candidato de fusión temporal se establece igual a 0, y
en donde los bloques vecinos espaciales del bloque actual (300; 910; 1000) son un bloque inferior izquierdo (1020), un bloque superior derecho (1040), un bloque de esquina inferior izquierda (1010), un bloque de esquina superior derecha (1030), y un bloque de esquina superior izquierda (1050) del bloque actual (300; 910; 1000).
ES19176192T 2011-01-07 2012-01-06 Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo Active ES2930367T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161430545P 2011-01-07 2011-01-07
US201161449699P 2011-03-06 2011-03-06
US201161543296P 2011-10-04 2011-10-04

Publications (1)

Publication Number Publication Date
ES2930367T3 true ES2930367T3 (es) 2022-12-09

Family

ID=46457881

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19176192T Active ES2930367T3 (es) 2011-01-07 2012-01-06 Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo

Country Status (10)

Country Link
US (7) US9924188B2 (es)
EP (3) EP4135329A3 (es)
KR (8) KR102390352B1 (es)
CN (4) CN106101723B (es)
ES (1) ES2930367T3 (es)
HR (1) HRP20221363T1 (es)
HU (1) HUE060453T2 (es)
PL (1) PL3554079T3 (es)
SI (1) SI3554079T1 (es)
WO (1) WO2012093898A2 (es)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9357229B2 (en) 2010-07-28 2016-05-31 Qualcomm Incorporated Coding motion vectors in video coding
US9066102B2 (en) * 2010-11-17 2015-06-23 Qualcomm Incorporated Reference picture list construction for generalized P/B frames in video coding
KR101912307B1 (ko) * 2010-12-08 2018-10-26 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
US9648334B2 (en) * 2011-03-21 2017-05-09 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
WO2012140821A1 (ja) 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
EP3614665B1 (en) * 2011-05-27 2022-03-23 Sun Patent Trust Apparatus, method and program for decoding moving pictures
TW201304552A (zh) 2011-05-31 2013-01-16 Panasonic Corp 動態圖像編碼方法、動態圖像編碼裝置、動態圖像解碼方法、動態圖像解碼裝置、及動態圖像編碼解碼裝置
WO2013001749A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
CN106851269B (zh) 2011-06-30 2019-11-15 太阳专利托管公司 图像解码方法及装置、图像编码方法及装置、编解码装置
IN2014CN00729A (es) 2011-08-03 2015-04-03 Panasonic Corp
KR20130030181A (ko) * 2011-09-16 2013-03-26 한국전자통신연구원 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치
WO2013042995A2 (ko) 2011-09-22 2013-03-28 엘지전자 주식회사 영상 정보 시그널링 방법 및 장치와 이를 이용한 디코딩 방법 및 장치
CN108881903B (zh) 2011-10-19 2022-01-04 太阳专利托管公司 图像编码方法及装置、图像解码方法及装置、编解码装置
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
EP2903285A4 (en) * 2012-09-28 2016-06-01 Sharp Kk IMAGE DECODING DEVICE AND IMAGE CODING DEVICE
US10904551B2 (en) 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
EP3058736B1 (en) 2013-10-14 2019-02-27 Microsoft Technology Licensing, LLC Encoder-side options for intra block copy prediction mode for video and image coding
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
KR102258427B1 (ko) * 2014-01-03 2021-06-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 이미지 코딩/디코딩에서의 블록 벡터 예측
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
EP4354856A2 (en) 2014-06-19 2024-04-17 Microsoft Technology Licensing, LLC Unified intra block copy and inter prediction modes
RU2679201C2 (ru) 2014-09-30 2019-02-06 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Правила для режимов внутрикадрового прогнозирования, когда активируется волновая параллельная обработка данных
US9992512B2 (en) * 2014-10-06 2018-06-05 Mediatek Inc. Method and apparatus for motion vector predictor derivation
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN117082237A (zh) 2016-04-29 2023-11-17 世宗大学校产学协力团 用于对图像信号进行编码/解码的方法和设备
CN116708783A (zh) 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
EP3509297B1 (en) * 2016-09-30 2021-06-23 Huawei Technologies Co., Ltd. Video encoding method, decoding method and terminal
KR102328179B1 (ko) * 2016-11-28 2021-11-18 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11343530B2 (en) * 2016-11-28 2022-05-24 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium having bitstream stored thereon
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
WO2019065444A1 (ja) * 2017-09-26 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN111164974B (zh) * 2017-09-29 2024-04-16 Lx半导体科技有限公司 图像编码/解码方法和设备以及非暂时性存储介质
WO2019061537A1 (en) * 2017-09-30 2019-04-04 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR DERIVING CANDIDATES FROM TIME MOVEMENT DATA IN VIDEO CODING
CN109922340B (zh) * 2017-12-13 2021-10-15 华为技术有限公司 图像编解码方法、装置、系统及存储介质
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN117156155A (zh) * 2018-03-14 2023-12-01 Lx 半导体科技有限公司 图像编码/解码方法、存储介质和发送方法
CN117640962A (zh) * 2018-03-19 2024-03-01 英迪股份有限公司 图像解码方法、图像编码方法和存储比特流的记录介质
TWI744661B (zh) * 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 要根據模式檢查的查找表中的運動候選的數量
US11758175B2 (en) 2018-06-30 2023-09-12 B1 Institute Of Image Technology, Inc Image encoding/decoding method and apparatus
US20200014931A1 (en) * 2018-07-06 2020-01-09 Mediatek Inc. Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems
US11019357B2 (en) * 2018-08-07 2021-05-25 Qualcomm Incorporated Motion vector predictor list generation
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
WO2020055169A1 (ko) * 2018-09-11 2020-03-19 김기백 인터 예측을 이용한 영상 부호화/복호화 방법 및 장치
US10958932B2 (en) 2018-09-12 2021-03-23 Qualcomm Incorporated Inter-prediction coding of video data using generated motion vector predictor list including non-adjacent blocks
CA3141117A1 (en) * 2018-09-25 2020-04-02 Digitalinsights Inc. Method and device for encoding or decoding image on basis of inter mode
WO2020067679A1 (ko) * 2018-09-29 2020-04-02 엘지전자 주식회사 머지 후보 리스트를 구성하는 방법 및 장치
CN111200735B (zh) * 2018-11-19 2023-03-17 华为技术有限公司 一种帧间预测的方法及装置
CN116847107A (zh) * 2018-12-06 2023-10-03 Lg电子株式会社 基于帧间预测处理和编码视频信号的方法和数据发送方法
WO2020138997A1 (ko) * 2018-12-28 2020-07-02 엘지전자 주식회사 화면간 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
US20220070463A1 (en) * 2018-12-28 2022-03-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium in which bitstream is stored
WO2020141910A1 (ko) * 2019-01-02 2020-07-09 엘지전자 주식회사 화면간 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
WO2020143292A1 (zh) * 2019-01-09 2020-07-16 华为技术有限公司 一种帧间预测方法及装置
CN111432219B (zh) * 2019-01-09 2023-06-06 华为技术有限公司 一种帧间预测方法及装置
CN117692660A (zh) 2019-03-12 2024-03-12 Lg电子株式会社 图像编码/解码方法以及数据的传输方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295614B1 (en) * 2000-09-08 2007-11-13 Cisco Technology, Inc. Methods and apparatus for encoding a video signal
EP2271110B1 (en) 2001-11-06 2016-09-21 Panasonic Intellectual Property Corporation of America Moving picture coding method and moving picture decoding method
PT3525465T (pt) 2002-04-19 2021-05-10 Panasonic Ip Corp America Método e aparelho de descodificação de imagens
US7433526B2 (en) 2002-04-30 2008-10-07 Hewlett-Packard Development Company, L.P. Method for compressing images and image sequences through adaptive partitioning
JP2003324742A (ja) * 2002-05-08 2003-11-14 Hitachi Ltd 画像符号化装置及び画像復号化装置
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
KR20050026318A (ko) 2003-09-09 2005-03-15 삼성전자주식회사 인트라 스킵 모드를 포함하는 비디오 인코딩_디코딩 장치및 방법
WO2006058921A1 (en) 2004-12-03 2006-06-08 Thomson Licensing Method for scalable video coding
US8208564B2 (en) * 2005-06-24 2012-06-26 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation
CN101455082B (zh) * 2006-03-30 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101072356B (zh) * 2006-05-12 2011-02-09 中国科学院计算技术研究所 一种运动矢量预测方法
EP2106666B1 (en) 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
CN101242530B (zh) * 2007-02-08 2011-06-01 华为技术有限公司 运动估计方法、基于运动估计的多视编解码方法及装置
US20100266042A1 (en) * 2007-03-02 2010-10-21 Han Suh Koo Method and an apparatus for decoding/encoding a video signal
BRPI0809512A2 (pt) 2007-04-12 2016-03-15 Thomson Licensing método e aparelho para mesclagem dependente de contexto para modos salto-direto para codificação e decodificação de vídeo
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
WO2009136743A2 (ko) 2008-05-07 2009-11-12 Lg전자 비디오 신호의 디코딩 방법 및 장치
WO2010041856A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
KR100930744B1 (ko) * 2009-03-04 2009-12-09 엘지전자 주식회사 모션 벡터 예측 방법
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
US8665959B2 (en) * 2010-04-12 2014-03-04 Qualcomm Incorporated Block and partition signaling techniques for video coding
BR122020007923B1 (pt) 2010-04-13 2021-08-03 Ge Video Compression, Llc Predição interplano
RS57809B1 (sr) 2010-07-09 2018-12-31 Samsung Electronics Co Ltd Metod za dekodiranje video zapisa korišćenjem objedinjavanja blokova
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US9813738B2 (en) * 2010-10-05 2017-11-07 Hfi Innovation Inc. Method and apparatus of adaptive loop filtering
CN107360427B (zh) * 2010-10-08 2020-09-01 Ge视频压缩有限责任公司 编码器和编码方法与解码器和解码方法
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
TW201246943A (en) * 2011-01-26 2012-11-16 Panasonic Corp Video image encoding method, video image encoding device, video image decoding method, video image decoding device, and video image encoding and decoding device
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding

Also Published As

Publication number Publication date
US20130272404A1 (en) 2013-10-17
KR102125035B1 (ko) 2020-06-19
US20210344945A1 (en) 2021-11-04
KR20220054711A (ko) 2022-05-03
HRP20221363T1 (hr) 2023-01-06
US20190158869A1 (en) 2019-05-23
KR102292708B1 (ko) 2021-08-23
CN106231339B (zh) 2019-07-09
KR20210047973A (ko) 2021-04-30
CN103299642B (zh) 2016-08-24
CN106101723B (zh) 2019-06-14
US9924188B2 (en) 2018-03-20
US20180160137A1 (en) 2018-06-07
EP2663079A4 (en) 2016-04-06
US11102502B2 (en) 2021-08-24
KR102504685B1 (ko) 2023-02-28
US20210006817A1 (en) 2021-01-07
PL3554079T3 (pl) 2023-02-06
KR20210104935A (ko) 2021-08-25
KR20140011477A (ko) 2014-01-28
EP3554079A1 (en) 2019-10-16
CN106231339A (zh) 2016-12-14
CN106210739A (zh) 2016-12-07
HUE060453T2 (hu) 2023-03-28
CN106060563A (zh) 2016-10-26
KR102028522B1 (ko) 2019-10-04
EP3554079B1 (en) 2022-10-19
WO2012093898A2 (ko) 2012-07-12
KR101929026B1 (ko) 2018-12-13
KR102390352B1 (ko) 2022-04-25
EP4135329A2 (en) 2023-02-15
EP2663079A2 (en) 2013-11-13
KR102245790B1 (ko) 2021-04-28
KR20190112859A (ko) 2019-10-07
US10257535B2 (en) 2019-04-09
CN106060563B (zh) 2019-06-21
KR20220003161A (ko) 2022-01-07
US11825110B2 (en) 2023-11-21
SI3554079T1 (sl) 2023-01-31
US20150229947A1 (en) 2015-08-13
KR20180135092A (ko) 2018-12-19
US9918101B2 (en) 2018-03-13
CN103299642A (zh) 2013-09-11
CN106101723A (zh) 2016-11-09
US10715825B2 (en) 2020-07-14
EP4135329A3 (en) 2023-04-05
KR102346666B1 (ko) 2022-01-03
WO2012093898A3 (ko) 2012-11-29
KR20200075031A (ko) 2020-06-25
US20240048752A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
ES2930367T3 (es) Método para codificar información de vídeo, método para decodificar información de vídeo y aparato de decodificación para decodificar información de vídeo
KR102531738B1 (ko) 영상 부호화/복호화 방법 및 장치
ES2954447T3 (es) Predicción de vectores de movimiento
KR102472399B1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
ES2841312T3 (es) Predicción de vectores de movimiento para modelos de movimiento afines en codificación de vídeo
ES2944310T3 (es) Selección de un predictor de vector de movimiento
ES2738215T3 (es) Método para la codificación y decodificación de datos de imagen con un predictor del vector de movimiento temporal y dispositivo que utiliza el mismo
EP3525460A1 (en) Method for processing video on basis of inter prediction mode and apparatus therefor
CN113196751B (zh) 通过使用基于子块的运动补偿处理视频信号的方法和设备
CN112840645B (zh) 视频编码系统中组合多个预测子用于块预测的方法及装置
KR20230074682A (ko) 영상 부호화/복호화 방법 및 장치