ES2631477B1 - Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo - Google Patents

Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo Download PDF

Info

Publication number
ES2631477B1
ES2631477B1 ES201730356A ES201730356A ES2631477B1 ES 2631477 B1 ES2631477 B1 ES 2631477B1 ES 201730356 A ES201730356 A ES 201730356A ES 201730356 A ES201730356 A ES 201730356A ES 2631477 B1 ES2631477 B1 ES 2631477B1
Authority
ES
Spain
Prior art keywords
block
prediction
fusion
candidate
mer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES201730356A
Other languages
English (en)
Other versions
ES2631477A2 (es
ES2631477R1 (es
Inventor
Bae Keun Lee
Jae Cheol Kwon
Joo Young Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039500A external-priority patent/KR101197176B1/ko
Application filed by KT Corp filed Critical KT Corp
Publication of ES2631477A2 publication Critical patent/ES2631477A2/es
Publication of ES2631477R1 publication Critical patent/ES2631477R1/es
Application granted granted Critical
Publication of ES2631477B1 publication Critical patent/ES2631477B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Abstract

La presente invención se refiere a un método para inducir un bloque candidato de fusión y a un dispositivo que usa el mismo. Un método de descodificación de imágenes comporta la descodificación de información en relación con la región de estimación de movimiento (MER); la determinación de si un bloque objetivo predicho y un bloque candidato de fusión espacial están incluidos o no en la misma MER; y la determinación de que el bloque candidato de fusión espacial es un bloque candidato de fusión no disponible cuando el bloque objetivo predicho y el bloque candidato de fusión espacial están incluidos en la misma MER. Por consiguiente, mediante la realización en paralelo del método para inducir un candidato de fusión, se habilita un procesamiento en paralelo y se reducen la cantidad de cálculo y la complejidad de implementación.

Description

5
10
15
20
25
30
35
40
45
50
55
60
de imágenes. El aparato puede incluir una unidad de descodificación de entropía para descodificar información en relación con la región de estimación de movimiento (MER) y una unidad de predicción para determinar si un bloque objeto de predicción y un bloque candidato de fusión espacial están incluidos en la misma MER y la decisión del bloque candidato de fusión espacial como un bloque candidato de fusión no disponible si el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER. La unidad de predicción puede ser una unidad de predicción que determina de forma adaptiva un bloque candidato de fusión espacial de acuerdo con el tamaño de la MER y el tamaño del bloque objeto de predicción si el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER. Si el tamaño de la MER es 8 x 8 y el tamaño del bloque objeto de predicción es 8 x 4 o 4 x 8, la unidad de predicción puede sustituir por lo menos uno de los bloques candidatos de fusión espacial del bloque objeto de predicción con un bloque que incluye un punto que se encuentra en el exterior de la MER. La unidad de predicción puede determinar si el bloque candidato de fusión espacial está incluido en una MER que se ha descodificado aún. La unidad de predicción puede ser una unidad de predicción que sustituye el bloque candidato de fusión espacial con un bloque incluido en otra MER cuando el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER. El bloque candidato de fusión espacial sustituido puede ser un bloque candidato de fusión espacial que se sustituye de forma adaptiva para incluirse en una MER diferente del bloque objeto de predicción de acuerdo con una ubicación del bloque candidato de fusión espacial incluido en la misma MER. La información en relación con la MER puede ser información en relación con el tamaño de la MER, y transmitirse en una unidad de una imagen. La unidad de predicción puede ser una unidad de predicción que determina si el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER basada en una ecuación de determinación de acuerdo con información de ubicación del bloque objeto de predicción, información de ubicación del bloque candidato de fusión espacial, e información de tamaño de la MER.
De acuerdo con otro aspecto de la invención, se proporciona un método de determinación de un bloque candidato de fusión temporal, comprendiendo el método: decidir si una frontera de un bloque actual es contigua, o no, a una frontera de una unidad de codificación que es la más grande; y determinar un bloque candidato de fusión temporal relacionado con el bloque actual de acuerdo con un resultado de la decisión, perteneciendo el bloque candidato de fusión temporal a una imagen descodificada, y teniendo la imagen de descodificación un orden temporal diferente al de una imagen actual que incluye el bloque actual. En algunas realizaciones, la frontera que es contigua del bloque actual y la unidad de codificación que es la más grande es una frontera de debajo. En algunas realizaciones, el bloque candidato de fusión temporal es representativo de uno de un primer bloque que incluye una posición de una muestra de debajo a la derecha en el bloque actual y un segundo bloque que incluye una posición de una muestra central en el bloque actual. En algunas realizaciones, cuando la frontera de debajo del bloque actual no es contigua a la frontera de debajo de la unidad de codificación que es la más grande, se determina que uno del primer bloque y el segundo bloque es el bloque candidato de fusión temporal, y, cuando la frontera de debajo del bloque actual es contigua a la frontera de debajo de la unidad de codificación que es la más grande, se determina que el otro del primer bloque y el segundo bloque es el bloque candidato de fusión temporal.
Efectos ventajosos
De acuerdo con un método de obtención de un bloque candidato de fusión y un aparato que usa el mismo que se describe en realizaciones a modo de ejemplo de la presente invención, un procesamiento en paralelo puede conseguirse mediante la realización del método de obtención del bloque candidato de fusión en paralelo, por lo tanto, la calidad de cálculo y la complejidad de implementación pueden reducirse.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que ilustra un codificador de vídeo de acuerdo con una realización a modo de ejemplo de la presente invención.
La figura 2 es un diagrama de bloques que ilustra un descodificador de vídeo de acuerdo con otra realización a modo de ejemplo de la presente invención.
La figura 3 es una vista conceptual que ilustra bloques candidatos para aplicar un modo de fusión y un modo de omisión de acuerdo con una realización a modo de ejemplo de la presente invención.
La figura 4 es una vista conceptual que ilustra un método de decisión de un bloque candidato de fusión de acuerdo con una realización a modo de ejemplo de la presente invención.
La figura 5 es una vista conceptual que ilustra un método de decisión de un bloque candidato de fusión de acuerdo con el tamaño de una MER de acuerdo con una realización a modo de ejemplo de la presente invención.
La figura 6 es una vista conceptual que ilustra un método de determinación de si un bloque candidato de fusión espacial de un bloque actual se encuentra disponible.
La figura 7 es un diagrama de flujo que ilustra un método de obtención de un bloque candidato
5
10
15
20
25
30
35
40
45
50
55
60
de fusión espacial en un modo de fusión de acuerdo con una realización a modo de ejemplo de la presente invención.
La figura 8 es un diagrama de flujo que ilustra un método de inter predicción que aplica un modo de fusión de acuerdo con una realización a modo de ejemplo de la presente invención.
Descripción detallada de un modo de la invención
A pesar de que pueden hacerse diversas modificaciones y realizaciones a modo de ejemplo, en el presente documento solo se describirán más completamente realizaciones a modo de ejemplo particulares con referencia a los dibujos adjuntos. No obstante, la presente invención no debería interpretarse como limitada a solo las realizaciones a modo de ejemplo que se exponen en el presente documento sino más bien, debería entenderse que cubre todas las modificaciones, equivalentes o alternativas que caiga dentro del alcance y las expresiones técnicas de la invención. Números similares hacen referencia a elementos similares a través de la totalidad de los dibujos.
Se entenderá que, a pesar de que las expresiones primero, segundo, etc. pueden usarse en el presente documento para describir diversos elementos, estos elementos no deberían estar limitados por estas expresiones. Estas expresiones solo se usan para distinguir un elemento de otro. Estas expresiones solo se usan para distinguir un elemento de otro elemento. Por ejemplo, un primer elemento podría denominarse un segundo elemento sin alejarse de las enseñanzas de la presente invención y, de forma similar, el segundo elemento podría denominarse el primer elemento. La expresión “y / o" incluye una combinación de una pluralidad de artículos enumerados asociados o cualquiera de la pluralidad de los artículos enumerados asociados.
Se entenderá que, cuando se haga referencia a una característica o elemento como que está “conectado" o “acoplado" con otra característica o elemento, este puede estar directamente conectado o acoplado con el otro elemento o pueden estar presentes elementos intermedios. Como contraste, cuando se haga referencia a una característica o elemento como que está “directamente conectado" o “directamente acoplado" con otro elemento, se entenderá que no existen elementos intermedios presentes.
La terminología que se usa en el presente documento es para el fin de describir solo realizaciones particulares y no se pretende que sea limitante de realizaciones a modo de ejemplo de la invención. Se pretende que las formas singulares “un", “una" y “el / la" incluyan así mismo las formas plurales, a menos que el contexto indique claramente lo contrario. Se entenderá que las expresiones “comprende", o “incluye", cuando se usan en el presente documento, especifiquen la presencia de características, enteros, etapas, operaciones, elementos, componentes indicados o cualesquiera combinaciones de los mismos, pero no excluyan la presencia o adición de una o más otras características, enteros, etapas, operaciones, elementos, componentes, o cualesquiera combinaciones de los mismos.
En lo sucesivo en el presente documento, la presente invención se describirá con detalle con referencia a los dibujos adjuntos. En lo sucesivo en el presente documento, los mismos números de referencia se usan a través de la totalidad de los dibujos para hacer referencia a las mismas partes y se omitirá una explicación repetitiva de las mismas partes.
La figura 1 es un diagrama de bloques que ilustra un codificador de vídeo de acuerdo con una realización a modo de ejemplo de la presente invención.
Haciendo referencia a la figura 1, un codificador de vídeo 100 puede incluir un módulo de subdivisión en particiones de imagen 110, un módulo de inter predicción 120, un módulo de intra predicción 125, un módulo de transformada 130, un módulo de cuantificación 135, un módulo de reordenamiento 160, un módulo de codificación con entropía 165, un módulo de descuantificación 140, un módulo de transformada inversa 145, un módulo de filtrado 150 y una memoria 155.
Cada módulo que se muestra en la figura 1 se ilustra de forma independiente con el fin de proporcionar diferentes características de funciones en el codificador de vídeo y no se pretende que signifique que cada módulo esté configurado como una unidad componente de soporte lógico o un soporte físico independiente. Es decir, cada módulo se enumera como un elemento respectivo para fines ilustrativos, y por lo menos dos módulos de entre los módulos pueden combinarse para dar un elemento o un módulo puede dividirse en una pluralidad de elementos para realizar una función, y una realización en la que los módulos respectivos se combinan o se dividen está incluida en el alcance de las reivindicaciones de la presente invención sin alejarse de la esencia de la presente invención.
Así mismo, una parte de elementos no puede ser un elemento indispensable para realizar una función esencial en la presente invención sino meramente un elemento selectivo para mejorar el rendimiento. La presente invención puede implementarse solo con elementos esenciales para implementar la esencia de la presente invención y excluir los elementos que se usan meramente para mejorar el rendimiento, y una configuración que incluye solo los elementos esenciales excluyendo los elementos selectivos, que se usan solo para mejorar el rendimiento, también está incluida en el alcance de las reivindicaciones de la presente invención.
El módulo de subdivisión en particiones de imagen 110 puede dividir una imagen de entrada en
5
10
15
20
25
30
35
40
45
50
55
60
por lo menos una unidad de procesamiento. En el presente caso, la unidad de procesamiento puede ser una unidad de predicción (PU), una unidad de transformada (TU), o una unidad de codificación (CU). El módulo de subdivisión en particiones de imagen 110 puede dividir una imagen en una combinación de una pluralidad de unidades de codificación, unidades de predicción y unidades de transformada y puede codificar la imagen mediante la selección de una combinación de una unidad de codificación, unidad o unidades de predicción y unidad o unidades de transformada basada en un criterio predeterminado (por ejemplo, una función de costes).
Por ejemplo, una imagen puede subdividirse en particiones en una pluralidad de las unidades de codificación. Con el fin de subdividir en particiones la unidad de codificación, puede usarse una estructura de árbol recursiva tal como una estructura de árbol cuadrangular, y una unidad de codificación que se divide en otras unidades de codificación con una imagen o una unidad de codificación que es la más grande como una raíz puede dividirse para tener un nodo hijo tantas veces como el número de unidades de codificación divididas. Una unidad de codificación que ya no se divide más de acuerdo con una determinada restricción se vuelve un nodo hoja. Dicho de otra forma, cuando se supone que solo se encuentra disponible una subdivisión en particiones cuadradas para una unidad de codificación, una unidad de codificación puede dividirse hasta en cuatro diferentes unidades de codificación.
En lo sucesivo en el presente documento, en realizaciones a modo de ejemplo de la presente invención, la unidad de codificación puede usarse para hacer referencia a no solo una unidad para codificar sino también una unidad para descodificar.
La unidad de predicción puede subdividirse en particiones con forma de cuadrados o rectángulos que tienen el mismo tamaño dentro de una unidad de codificación.
Cuando se genera la unidad de predicción para realizar una intra predicción basada en la unidad de codificación, si la unidad de codificación no es una unidad de codificación que es la más pequeña, la intra predicción puede realizarse sin dividirse en una pluralidad de unidades de predicción en una unidad N x N.
El módulo de predicción puede incluir el módulo de inter predicción 120 para realizar una inter predicción y el módulo de intra predicción 125 para realizar una intra predicción. Con respecto a la unidad de predicción, el módulo de predicción puede determinar si se realiza la inter predicción o si se realiza la intra predicción, y puede determinar información específica (por ejemplo, un modo de intra predicción, un vector de movimiento, una imagen de referencia, etc.) de acuerdo con cada método de predicción. En el presente caso, una unidad de procesamiento para realizar la predicción y una unidad de procesamiento para determinar el método de predicción y un detalle específico pueden ser diferentes. Por ejemplo, el método de predicción y el modo de predicción puede determinarse en la unidad de predicción y la predicción puede realizarse en la unidad de transformada. Un valor residual (un bloque residual) entre un bloque de predicción generado y un bloque original puede introducirse en el módulo de transformada 130. Así mismo, la información de modos de predicción, información de vector de movimiento, etc. que se usan para la predicción puede codificarse en el módulo de codificación con entropía 135 junto con el valor residual que va a transmitirse al descodificador. Cuando se usa un modo de codificación específico, es posible que el bloque de predicción no se genere a través del módulo de predicción 120, 125 sino que el bloque original se codifique a medida que este vaya a transmitirse a un descodificador.
El módulo de inter predicción puede predecir en la unidad de predicción basada en información de por lo menos una imagen de entre las imágenes antes o después para una imagen actual. El módulo de inter predicción puede incluir un módulo de interpolación de imágenes de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.
El módulo de interpolación de imágenes de referencia puede proveerse con información de imágenes de referencia a partir de la memoria 155 y puede generar información de píxeles en menos de una unidad de píxeles entera a partir de la imagen de referencia. En el caso de un píxel de luma, puede usarse un filtro de interpolación de 8 elementos de almacenamiento basado en DCT en el que se hace que un coeficiente de filtro varíe para generar información de píxeles menor que la unidad de píxeles entera en una unidad de 1 / 4 de píxel. En el caso de una señal de croma, puede usarse un filtro de interpolación de 4 elementos de almacenamiento basado en DCT en el que se hace que un coeficiente de filtro varíe para generar información de píxeles menor que la unidad de píxeles entera en una unidad de 1 / 8 de píxel.
El módulo de predicción de movimiento puede realizar una predicción de movimiento basada en una imagen de referencia interpolada por el módulo de interpolación de imágenes de referencia. Para un método de obtención del vector de movimiento, pueden usarse diversos métodos tales como FBMA (Fu// search-based B/ock Matching A/gorithm, Algoritmo de Puesta en Correspondencia de Bloques basado en Búsqueda completa), TSS (Three Step Search, Búsqueda en Tres Etapas), o NTS (New Three-Step Search A/gorithm, Nuevo Algoritmo de Búsqueda en Tres Etapas). El vector de movimiento puede tener un valor de vector de movimiento en una unidad de 1 / 2 o 1 / 4 de píxel basado en el píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad de predicción actual haciendo que varíe el método de predicción de movimiento. Como un método de predicción de movimiento, pueden usarse diversos métodos tal como un modo de omisión, un modo de fusión, o un modo de predicción de vector
5
10
15
20
25
30
35
40
45
50
55
60
de movimiento avanzada (AMVP, advanced motion vectorprediction).
De acuerdo con realizaciones a modo de ejemplo de la presente invención, cuando se realiza la inter predicción, la región de estimación de movimiento (MER, motion estimation region) puede definirse para realizar la predicción en paralelo. Por ejemplo, cuando se realiza la inter predicción usando el modo de fusión o el modo de omisión, puede determinarse si un bloque objeto de predicción y un bloque candidato de fusión espacial están incluidos en la misma MER, y cuando el bloque objeto de predicción y el bloque candidato de fusión espacial no están incluidos en la misma MER, el bloque candidato de fusión espacial puede determinarse como no disponible o un bloque candidato de fusión puede determinarse mediante la determinación de si el bloque candidato de fusión espacial está incluido en una MER que no se ha descodificado aún. En lo sucesivo en el presente documento, en realizaciones a modo de ejemplo de la presente invención, se describe un funcionamiento de la unidad de predicción cuando se realiza la inter predicción.
La unidad de inter predicción puede generar la unidad de predicción basada en información acerca de píxeles de referencia vecinos a un bloque actual, en la que los píxeles de referencia son píxeles dentro de la imagen actual. Si un bloque vecino de la unidad de predicción actual es un bloque sobre el que la inter predicción se realiza de tal modo que los píxeles de referencia son píxeles sobre los que se realiza la inter predicción, los píxeles de referencia incluidos en el bloque sobre el que la inter predicción se realiza pueden sustituirse con los píxeles de referencia del bloque vecino sobre el que se realiza la intra predicción. Dicho de otra forma, cuando el píxel de referencia no se encuentra disponible, los píxeles de referencia que no se encuentran disponibles pueden sustituirse con por lo menos un píxel de referencia de entre los píxeles de referencia disponibles.
La intra predicción puede tener unos modos de predicción direccional que usan información acerca de los píxeles de referencia de acuerdo con una dirección de predicción y unos modos no direccionales que no usan la información direccional cuando se realiza la predicción. Un modo para predecir información acerca de muestras de luma y un modo para predecir información acerca de muestras de croma pueden ser diferentes. Además, la información acerca del modo de intra predicción que se usa para las muestras de luma o la información acerca de la señal de luma predicha puede utilizarse para predecir información acerca de muestras de croma.
En un caso en el que el tamaño de la unidad de predicción y el tamaño de la unidad de transformada son el mismo cuando se realiza la intra predicción, la intra predicción puede realizarse sobre la unidad de predicción basada en píxeles que existen en un lado izquierdo de la unidad de predicción, píxeles que existen en una región superior izquierda, y píxeles que existen sobre una región superior. No obstante, en un caso en el que el tamaño de la unidad de predicción y el tamaño de la unidad de transformada son diferentes cuando se realiza la intra predicción, la intra predicción puede realizarse mediante el uso de los píxeles de referencia basada en la unidad de transformada. Así mismo, puede usarse la intra predicción que usa una división N x N solo con respecto a la unidad de codificación que es la más pequeña.
En el método de intra predicción, de acuerdo con el modo de predicción, puede aplicarse un filtro de intra suavizado dependiente de modo (MDIS, mode dependent intra smoothing) al píxel de referencia para generar el bloque de predicción. Un tipo del filtro de MDIS que es de aplicación al píxel de referencia puede ser diferente. Con el fin de realizar la intra predicción, el modo de intra predicción de la unidad de predicción actual puede predecirse a partir del modo de intra predicción de la unidad de predicción vecina a la unidad de predicción actual. Cuando se predice el modo de predicción de la unidad de predicción actual mediante el uso de una información de modo que se predice a partir de una unidad de predicción vecina, si los modos de intra predicción de la unidad de predicción actual y la unidad de predicción vecina son los mismos, la información de que los modos de predicción de la unidad de predicción actual y la unidad de predicción vecina son los mismos puede transmitirse usando una información de bandera predeterminada, y si los modos de predicción de la unidad de predicción actual y la unidad de predicción vecina son diferentes, la información de modos de predicción del bloque actual puede descodificarse mediante codificación con entropía.
Así mismo, un bloque residual que incluye una información de valor residual que es una diferencia entre la unidad de predicción sobre la que la predicción se realiza basándose en la unidad de predicción que se genera en el módulo de predicción 120, 125 y un bloque original de la unidad de predicción. El bloque residual generado puede introducirse en el módulo de transformada 130. El módulo de transformada 130 puede transformar el bloque residual que incluye la información de valor residual del bloque original y la unidad de predicción que se genera en el módulo de predicción 120, 125 mediante el uso de un método de transformada tal como una transformada de coseno discreta (DCT, discrete cosine transform) o una transformada de seno discreta (DST, discrete sine transform). Puede determinarse si aplicar la DCT o la DST con el fin de transformar el bloque residual basándose en la información de modos de intra predicción de la unidad de predicción que se usa para generar el bloque residual.
El módulo de cuantificación 135 puede cuantificar unos valores transformados en un dominio de frecuencia por el módulo de transformada 130. Dependiendo de un bloque o una importancia de una imagen, puede hacerse que un parámetro de cuantificación varíe. Un valor emitido por el módulo de
5
10
15
20
25
30
35
40
45
50
55
60
cuantificación 135 puede proporcionarse al módulo de descuantificación 140 y el módulo de reordenamiento 160.
El módulo de reordenamiento 160 puede reordenar el valor de coeficiente cuantificado con respecto al valor residual.
El módulo de reordenamiento 160 puede modificar un coeficiente de una agrupación bidimensional de forma de bloque para dar una forma de vector unidimensional a través de un método de exploración de coeficientes. Por ejemplo, en el módulo de reordenamiento 160, desde un coeficiente de DC hasta un coeficiente en un dominio de alta frecuencia puede explorarse para reordenarse en forma de vector unidimensional mediante el uso de un modo de exploración diagonal. De acuerdo con el tamaño de una unidad de transformada y el modo de intra predicción, un modo de exploración vertical de exploración de coeficientes bidimensionales en forma de bloque en una dirección de columna o un modo de exploración horizontal de exploración de los coeficientes bidimensionales en la forma de bloque en una dirección de fila puede usarse en lugar del modo de exploración diagonal. Dicho de otra forma, puede determinarse qué modo de exploración se usa de entre el modo de exploración diagonal, el modo de exploración vertical y el modo de exploración horizontal, de acuerdo con el tamaño de la unidad de transformada y el modo de intra predicción.
El módulo de codificación con entropía 165 realiza la codificación con entropía basada en valores emitidos a partir del módulo de reordenamiento 160. La codificación con entropía puede usar diversos métodos de codificación tal como, por ejemplo, Golomb Exponencial, Codificación Aritmética Binaria Adaptiva al Contexto (CABAC, Context-Adaptive Binar/ Anthmetic Coding).
La unidad de codificación con entropía 165 puede codificar una información diversa tal como información de coeficientes residuales de unidad de codificación e información de tipos de bloque, información de modos de predicción, información de unidad de partición, información de unidad de predicción, información de unidad de transmisión, información de vector de movimiento, información de imágenes de referencia, información de interpolación acerca de un bloque, información de filtrado, información de MER, etc. a partir del módulo de reordenamiento 160 y el módulo de predicción 120, 125.
La unidad de codificación con entropía 165 puede realizar la codificación con entropía sobre el valor de coeficiente en la unidad de codificación que se introduce a partir del módulo de reordenamiento 160 mediante el uso del método de codificación con entropía tal como CABAC.
El módulo de descuantificación 140 y el módulo de transformada inversa 145 descuantifican valores cuantificados por el módulo de cuantificación 135 y transforma de forma inversa los valores transformados por el módulo de transformada 130. El valor residual que se genera por el módulo de descuantificación 140 y el módulo de transformada inversa 145 puede añadirse a la unidad de predicción que se predice a través del módulo de estimación de movimiento, el módulo de compensación de movimiento y el módulo de intra predicción incluidos en el módulo de predicción 120, 125 para generar un bloque reconstruido.
El módulo de filtrado 150 puede incluir por lo menos uno de un filtro de desagrupamiento de bloques, un módulo de corrección de desplazamiento y un filtro de lazo adaptativo (ALF, adaptive loop filter).
El filtro de desagrupamiento de bloques puede eliminar una distorsión de bloques que se genera debido a una frontera entre bloques en una imagen reconstruida. Con el fin de determinar si se realiza el filtrado de desagrupamiento de bloques, puede determinarse si aplicar el filtro de desagrupamiento de bloques al bloque actual basado en píxeles incluidos en varias columnas o filas incluidas en el bloque. Cuando se aplica el filtro de desagrupamiento de bloques al bloque, puede aplicarse un filtro fuerte o un filtro débil dependiendo de una intensidad de filtrado de desagrupamiento de bloques requerida. Así mismo, en la aplicación del filtro de desagrupamiento de bloques, cuando se realiza un filtrado vertical y un filtrado horizontal, un filtrado en dirección horizontal y un filtrado en dirección vertical pueden procesarse en paralelo.
El módulo de corrección de desplazamiento puede corregir un desplazamiento a partir de una imagen original en una unidad de píxeles con respecto a la imagen sobre la que se realiza el filtrado de desagrupamiento de bloques. Con el fin de realizar la corrección de desplazamiento con respecto a una imagen específica, puede usarse un método de clasificación de los píxeles incluidos en la imagen para dar un número predeterminado de regiones, determinar una región sobre la que el desplazamiento va a realizarse y de aplicación del desplazamiento a una región correspondiente o un método de aplicación del desplazamiento al considerar la información de borde de cada píxel.
El filtro de lazo adaptativo (ALF) puede realizar el filtrado basándose en una comparación de la imagen reconstruida filtrada y la imagen original. Después de la clasificación de los píxeles incluidos en la imagen para dar un grupo predeterminado y de determinar un filtro que va a aplicarse a un grupo correspondiente y, a continuación, el filtrado puede aplicarse a cada grupo predeterminado para diferencialmente con cada filtro. La información acerca de si aplicar el ALF puede transmitirse por la unidad de codificación (CU) y el tamaño y un coeficiente del ALF que han de aplicarse pueden ser diferentes para cada bloque. El ALF puede tener diversas formas y, por lo tanto, un número de coeficientes en el filtro pueden ser diferentes para cada filtro. Puede incluirse información relacionada con
5
10
15
20
25
30
35
40
45
50
55
60
el filtrado de ALF (información de coeficientes de filtro, información de ALF Activo / No Activo, información de forma de filtro, etc.) y transmitirse en un conjunto de parámetros predeterminado en un tren de bits.
La memoria 155 puede almacenar un bloque o imagen reconstruido emitido a partir del módulo de filtrado 150, y el bloque o imagen reconstruido almacenado puede proporcionarse al módulo de predicción 120, 125 cuando se realiza la inter predicción.
La figura 2 es un diagrama de bloques que ilustra un descodificador de imágenes de acuerdo con otra realización a modo de ejemplo de la presente invención.
Haciendo referencia a la figura 2, un descodificador de vídeo puede incluir un módulo de descodificación de entropía 210, un módulo de reordenamiento 215, un módulo de descuantificación 220, un módulo de transformada inversa 225, un módulo de predicción 230, 235, un módulo de filtro 240 y una memoria 245.
Cuando un tren de bits de vídeo se introduce a partir del codificador de vídeo, el tren de bits de entrada puede descodificarse en un orden opuesto al orden de procesamiento en el codificador de vídeo.
El módulo de descodificación de entropía 210 puede realizar una descodificación de entropía en un orden opuesto de realización de la codificación con entropía en el módulo de codificación con entropía del codificador de vídeo. La información para generar el bloque de predicción de entre la información descodificada por el módulo de descodificación de entropía 210 puede proporcionarse al módulo de predicción 230, 235 y los valores residuales que se descodifican con entropía en el módulo de descodificación de entropía pueden introducirse en el módulo de reordenamiento 215.
El módulo de descodificación de entropía 210 puede descodificar información en relación con la intra predicción y la inter predicción realizadas por el codificador. Tal como se ha descrito en lo que antecede, cuando existe una restricción predeterminada para la intra predicción y la inter predicción en el codificador de vídeo, puede proporcionarse información en relación con la intra predicción y la inter predicción del bloque actual mediante la realización de la descodificación de entropía basada en la restricción.
El módulo de reordenamiento 215 puede realizar el reordenamiento del tren de bits que se descodifica con entropía por el módulo de descodificación de entropía 210 basándose en un método de reordenamiento del codificador. Los coeficientes representados en forma de vector unidimensional pueden reconstruirse y reordenarse en forma de bloque bidimensional.
El módulo de descuantificación 220 puede realizar una descuantificación basada en el parámetro de cuantificación que se proporciona a partir del codificador y el bloque de coeficientes reordenados.
El módulo de transformada inversa 225 puede realizar una DCT inversa y una DST inversa sobre un resultado de la cuantificación realizada por el codificador de vídeo con respecto a la DCT y la DST realizada por el módulo de transformada. La transformada inversa puede realizarse basándose en la unidad de transmisión que se determina por el codificador de vídeo. En el módulo de transformada del codificador de vídeo, la DCT y la DST pueden realizarse de manera selectiva de acuerdo con una pluralidad de información tal como el método de predicción, el tamaño del bloque actual y la dirección de predicción, y el módulo de transformada inversa 225 del descodificador de vídeo puede realizar una transformada inversa basándose en información de transformada realizada en el módulo de transformada del codificador de vídeo.
El módulo de predicción 230, 235 puede generar el bloque de predicción basándose en información en relación con la generación del bloque de predicción que se proporciona a partir del módulo de descodificación de entropía 210 e información del bloque o imagen descodificado previamente que se proporciona a partir de la memoria 245.
El módulo de predicción 230, 235 puede incluir un módulo de determinación de unidad de predicción, un módulo de inter predicción y un módulo de intra predicción. El módulo de determinación de unidad de predicción puede recibir una información diversa tal como información de unidad de predicción, información de modos de predicción del método de intra predicción, e información en relación con la predicción de movimiento del método de inter predicción que se introduce a partir del descodificador de entropía, distinguir la unidad de predicción en la unidad de codificación actual basada en la información recibida, y determinar si la inter predicción se realiza sobre la unidad de predicción o la intra predicción se realiza sobre la unidad de predicción. La unidad de inter predicción puede realizar la inter predicción con respecto a la unidad de predicción actual basada en información incluida en por lo menos una imagen entre las imágenes previas y las imágenes subsiguientes de la imagen actual que incluye la unidad de predicción actual mediante el uso de información requerida para la inter predicción de la unidad de predicción actual que se proporciona por el codificador de vídeo.
Con el fin de realizar la inter predicción, basada en la unidad de codificación puede determinarse si el método de predicción de movimiento en la unidad de predicción incluida en una unidad de codificación correspondiente es el modo de omisión, el modo de fusión o el modo de AMVP.
De acuerdo con una realización a modo de ejemplo de la presente invención, cuando se realiza la inter predicción, la región de estimación de movimiento (MER) puede definirse para realizar la predicción en paralelo. Por ejemplo, cuando se realiza la inter predicción usando la fusión o la omisión, puede determinarse si el bloque objeto de predicción y el bloque candidato de fusión espacial están
5
10
15
20
25
30
35
40
45
50
55
60
incluidos en la misma MER. Cuando el bloque objeto de predicción y el bloque candidato de fusión espacial no están incluidos en la misma MER, el bloque candidato de fusión espacial puede determinarse como no disponible o el bloque candidato de fusión espacial puede determinarse como bloque candidato de fusión mediante la determinación de si el bloque candidato de fusión espacial está incluido en una MER que no se ha descodificado aún. Un funcionamiento del módulo de predicción se describirá con detalle en una realización a modo de ejemplo de la presente invención.
El módulo de intra predicción puede generar un bloque de predicción basado en información de píxeles dentro de la imagen actual. Cuando la unidad de predicción es una unidad de predicción para realizar la intra predicción, la intra predicción puede realizarse basándose en información de modos de intra predicción de la unidad de predicción que se proporciona por el codificador de vídeo. El módulo de intra predicción puede incluir el filtro de MDIS, un módulo de interpolación de píxeles de referencia y un filtro de DC. El filtro de MDIS es un módulo para realizar un filtrado sobre el píxel de referencia del bloque actual, y puede determinarse si aplicar el filtro y aplicarse de acuerdo con el modo de predicción de la unidad de predicción actual. El filtrado puede realizarse sobre el píxel de referencia del bloque actual mediante el uso del modo de predicción de la unidad de predicción y la información de filtro de MDIS que se proporciona por el codificador de vídeo. Cuando el modo de predicción del bloque actual es un modo que no realiza el filtrado, el filtro de MDIS no puede ser de aplicación.
El módulo de interpolación de píxeles de referencia puede generar un píxel de referencia en una unidad de píxeles menor que un valor entero mediante la interpolación del píxel de referencia cuando el modo de predicción de la unidad de predicción es la unidad de predicción para realizar una intra predicción basada en un valor de píxel del píxel de referencia interpolado. Cuando el modo de predicción de la unidad de predicción actual es un modo de predicción que genera el bloque de predicción sin interpolar el píxel de referencia, el píxel de referencia no puede interpolarse. El filtro de DC puede generar el bloque de predicción a través de filtrado si el modo de predicción del bloque actual es un modo de DC.
El bloque o imagen reconstruido puede proporcionarse al módulo de filtro 240. El módulo de filtro 240 puede incluir un filtro de desagrupamiento de bloques, un módulo de corrección de desplazamiento, un ALF.
La información acerca de si el filtro de desagrupamiento de bloques se aplica a un bloque o imagen correspondiente y si se aplica un filtro fuerte o un filtro débil si se aplica el filtro de desagrupamiento de bloques puede proporcionarse a partir del codificador de vídeo. El filtro de desagrupamiento de bloques del descodificador de vídeo puede proveerse con información acerca del filtro de desagrupamiento de bloques a partir del codificador de vídeo y realizar un filtrado de desagrupamiento de bloques para el bloque correspondiente en el descodificador de vídeo. Al igual que con el codificador de vídeo, en primer lugar se realizan un filtrado de desagrupamiento de bloques vertical y un filtrado de desagrupamiento de bloques horizontal, mientras que por lo menos uno del desagrupamiento de bloques vertical y el desagrupamiento de bloques horizontal puede realizarse en un área solapada. En el área solapada del filtrado de desagrupamiento de bloques vertical y el filtrado de desagrupamiento de bloques horizontal, puede realizarse el filtrado de desagrupamiento de bloques vertical o el filtrado de desagrupamiento de bloques horizontal que no se ha realizado previamente. A través de este proceso de filtrado de desagrupamiento de bloques, un procesamiento en paralelo del filtrado de desagrupamiento de bloques puede ser posible.
El módulo de corrección de desplazamiento puede realizar una corrección de desplazamiento sobre la imagen reconstruida basándose en un tipo de la corrección de desplazamiento que se aplica a la imagen e información de valor de desplazamiento.
El ALF puede realizar un filtrado basándose en un valor de comparación de la imagen original y la imagen reconstruida a través de filtrado. El ALF puede aplicarse a la unidad de codificación basada en información acerca de si aplicar el ALF, información acerca de un coeficiente de ALF que se proporciona a partir del descodificador. La información de ALF puede incluirse en un conjunto de parámetros particular que ha de proporcionarse.
La memoria 245 puede almacenar el bloque o imagen reconstruido para usarse como la imagen de referencia o el bloque de referencia y la imagen reconstruida puede proporcionarse al módulo de salida.
Tal como se ha descrito en lo que antecede, a pesar de que la unidad de codificación se usa para hacer referencia a una unidad de codificación en una realización a modo de ejemplo, la unidad de codificación puede ser una unidad para realizar no solo la codificación sino también la descodificación. En lo sucesivo en el presente documento, un método de predicción que se describe en las figuras 3 a 11 de acuerdo con una realización a modo de ejemplo de la presente invención puede realizarse por un elemento tal como el módulo de predicción incluido en la figura 1 y la figura 2.
La figura 3 es una vista conceptual que ilustra bloques candidatos para aplicar el modo de fusión y el modo de omisión de acuerdo con una realización a modo de ejemplo de la presente invención.
En lo sucesivo en el presente documento, para fines ilustrativos, una descripción se hace con respecto al modo de fusión en una realización a modo de ejemplo de la presente invención; no obstante, el mismo método puede aplicarse al modo de omisión y tal realización también está incluida en el alcance
5
10
15
20
25
30
35
40
45
50
55
60
de las reivindicaciones en la presente invención.
Haciendo referencia a la figura 3, con el fin de realizar la inter predicción a través del modo de fusión, pueden usarse los bloques candidatos de fusión espacial 300, 305, 310, 315, 320 y los bloques candidatos de fusión temporal 350, 355.
Cuando un punto (xP, yP) que se encuentra sobre una porción izquierda superior del bloque objeto de predicción en relación con una ubicación del bloque objeto de predicción, con una anchura del bloque objeto de predicción, nPSW y una altura del bloque objeto de predicción, sPSH, cada bloque de los bloques candidatos de fusión espacial 300, 305, 310, 315, 320 puede ser uno de un primer bloque 300 que incluye un punto (xP - 1, yP + nPSH - MinPuSize), un segundo bloque 305 que incluye un punto (xP + nPSW - MinPuSize, yP - 1), un tercer bloque 310 que incluye un punto (xP + nPSW, yP - 1), un cuarto bloque 315 que incluye un punto (xP - 1, yP + nPSH), y un quinto bloque 320 que incluye un punto (xP - MinPuSize, yP - 1).
El candidato de fusión temporal puede usar una pluralidad de bloques candidatos y un primer bloque Col (bloque co-ubicado) 350 puede ser un bloque que incluye un punto (xP + nPSW, yP + nPSH) que se encuentra sobre una imagen Col (imagen co-ubicada). Si el primer bloque Col 350 no existe o no se encuentra disponible (por ejemplo, si el primer bloque Col no realiza la inter predicción), puede usarse un segundo bloque Col 355 que incluye un punto (xP + (nPSW >> 1), yP + (nPSH >> 1)) que se encuentra sobre la imagen Col en su lugar.
De acuerdo con una realización a modo de ejemplo de la presente invención, con el fin de realizar la inter predicción usando el modo de fusión en paralelo cuando se realiza la predicción de movimiento, puede determinarse si usar el bloque candidato de fusión en relación con una determinada área. Por ejemplo, con el fin de determinar el bloque candidato de fusión para realizar el modo de fusión, en relación con un área predeterminada de un determinado tamaño, puede determinarse si el bloque candidato de fusión existe dentro del área predeterminada junto con el bloque objeto de predicción para determinar si usar el bloque candidato de fusión o no, o sustituir con otro bloque candidato de fusión, realizando de este modo la predicción de movimiento en paralelo en relación con el área predeterminada. En lo sucesivo en el presente documento, un método de predicción de movimiento en paralelo usando el modo de fusión se describirá en una realización a modo de ejemplo de la presente invención.
La figura 4 es una vista conceptual que ilustra un método de determinación de un bloque candidato de fusión de acuerdo con una realización a modo de ejemplo de la presente invención.
Haciendo referencia a la figura 4, se supone que una unidad de codificación que es la más grande (LCU) se divide en cuatro regiones de estimación de movimiento (MER).
En el caso de un primer bloque de predicción PU0 incluido en una primera MER (MER0), similar a la figura 4, cuando la inter predicción se realiza mediante el uso del modo de fusión con respecto al primer bloque de predicción PU0, pueden existir cinco bloques candidatos de fusión espacial 400, 405, 410, 415, 420 como los bloques candidatos de fusión espacial. Los cinco bloques candidatos de fusión 400, 405, 410, 415, 420 pueden existir en una ubicación no incluida en la primera MER (MER0) y pueden ser bloques sobre los que ya se ha realizado la codificación / descodificación.
El segundo bloque de predicción (PUI) es un bloque de predicción incluido en una segunda MER (MER1) y cuatro bloques candidatos de fusión 430, 435, 445, 450 de entre los bloques candidatos de fusión espacial 430, 435, 440, 445, 450 para realizar la inter predicción usando el modo de fusión pueden ser bloques que existen dentro de la segunda MER (MER1) y bloques que pertenecen a la misma MER que actualmente realiza la predicción. El restante un bloque candidato de fusión 440 puede ser un bloque que existe en el lado derecho de la MER actual y un bloque incluido en la LCU o MER sobre la que no se ha realizado aún la codificación / descodificación.
De acuerdo con una realización a modo de ejemplo de la presente invención, cuando el bloque candidato de fusión del bloque actual y el bloque actual pertenecen a la misma MER, el bloque candidato de fusión del bloque actual se excluye y la información de movimiento de por lo menos un bloque en otra ubicación puede añadirse como el candidato de fusión de acuerdo con el tamaño del bloque actual y el tamaño de MER.
Un bloque que incluye un punto que existe en otra MER en una dirección vertical u horizontal puede añadirse como el bloque candidato de fusión. Como alternativa, un bloque que pertenece a otra MER en una ubicación que es la más cercana al bloque candidato puede añadirse como el bloque candidato de fusión. Como alternativa, un bloque en una ubicación predeterminada de acuerdo con la forma y el tamaño del bloque actual puede añadirse como un bloque candidato de fusión.
Por ejemplo, en el caso del bloque candidato de fusión 435 que se encuentra en un lado superior de la segunda unidad de predicción (PU1) y el bloque candidato de fusión 450 que se encuentra en un lado izquierdo superior de la segunda unidad de predicción, los bloques 455, 460 que incluyen puntos que se encuentran en el exterior de la segunda MER en la dirección vertical pueden usarse como bloques candidatos de fusión sustituidos. Para el bloque candidato de fusión 430 que se encuentra en un lado izquierdo de la segunda unidad de predicción y el bloque candidato de fusión 445 que se encuentra en un lado izquierdo inferior de la segunda unidad de predicción, los bloques 465, 470 que incluyen puntos en el exterior de la MER en la dirección horizontal pueden usarse como los bloques candidatos de fusión
5
10
15
20
25
30
35
40
45
50
55
60
sustituidos. Cuando un bloque está incluido en la misma MER con la unidad de predicción actual y, por lo tanto, no puede usarse como el bloque candidato de fusión, el bloque candidato de fusión puede sustituirse con otro bloque que incluye un punto en otra MER de acuerdo con una ubicación del bloque candidato de fusión.
En el caso de un tercer bloque de predicción (PU2), un bloque candidato de fusión 475 incluido en la misma MER con el tercer bloque de predicción puede sustituirse para usarse por un bloque 480, que existe en un lado superior en la dirección vertical. Además, como otra realización a modo de ejemplo de la presente invención, es posible sustituir la ubicación del bloque candidato de fusión mediante la sustitución de una ubicación del bloque candidato de fusión espacial con un bloque incluido en otra MER en una dirección que no sea la dirección vertical u horizontal y la presente realización a modo de ejemplo también está incluida en el alcance de las reivindicaciones de la presente invención.
Las siguientes etapas pueden realizarse con el fin de realizar un método para determinar los bloques candidatos de fusión.
1) Etapa de descodificación de información en relación con la región de estimación de movimiento (MER)
La información en relación con la MER puede incluir información acerca del tamaño de la MER. Puede determinarse si el bloque objeto de predicción está incluido en la MER basada en la información acerca del tamaño de la MER y el tamaño del bloque objeto de predicción.
2) Etapa de determinación de si el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER
En el caso de que el bloque objeto de predicción y el bloque candidato de fusión espacial estén incluidos en la misma mEr, las siguientes etapas pueden realizarse para determinar de forma adaptiva el bloque candidato de fusión espacial de acuerdo con el tamaño de la MER y el tamaño del bloque objeto de predicción.
3) Etapa de determinación de que el bloque candidato de fusión espacial se encuentra no disponible cuando el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER
Cuando el bloque objeto de predicción y el bloque candidato de fusión espacial están incluidos en la misma MER, el bloque candidato de fusión espacial puede determinarse como no disponible y el bloque candidato de fusión espacial incluido en la misma MER puede sustituirse con otro bloque candidato de fusión. Así mismo, tal como se describe en lo sucesivo, es posible que el bloque candidato de fusión que se determina como no disponible no pueda usarse en la inter predicción con el modo de fusión.
De acuerdo con otra realización a modo de ejemplo de la presente invención, puede aplicarse un método que no usa el bloque candidato de fusión incluido en la misma MER con el bloque objeto de predicción también.
Por ejemplo, de entre los bloques candidatos de fusión, los bloques en los que está incluida una MER sobre la que ya se ha realizado una codificación / descodificación y si es diferente de una MER actual sobre la cual se está realizado actualmente una predicción, se encuentran disponibles para la inter predicción aplicando el modo de fusión en paralelo. Los bloques pueden usarse como los bloques candidatos de inter predicción con el modo de fusión. No obstante, los bloques que pertenecen a la MER sobre la que la predicción se está realizado actualmente no pueden usarse como el bloque candidato de inter predicción para la inter predicción con el modo de fusión. El bloque sobre el que no se realiza la codificación / descodificación tampoco puede usarse como el bloque candidato de inter predicción. La presente realización a modo de ejemplo también está incluida en el alcance de las reivindicaciones de la presente invención.
La figura 5 es una vista conceptual que ilustra un método de determinación de un bloque candidato de fusión basado en el tamaño de una MER de acuerdo con una realización a modo de ejemplo de la presente invención.
Haciendo referencia a la figura 5, el candidato de fusión puede determinarse de forma adaptiva de acuerdo con el tamaño de la MER y el tamaño de la unidad de predicción actual. Por ejemplo, en un caso en el que un candidato de fusión que se corresponde con una de la ubicación de los candidatos de fusión A, B, C, D, E está incluido en la misma MER con la unidad de predicción actual, el candidato de fusión se determina como no disponible. En el presente caso, la información de movimiento de por lo menos un bloque en otra ubicación puede añadirse como el candidato de fusión de acuerdo con el tamaño del bloque actual y el tamaño de la MER.
En la figura 5, se supone que el tamaño de la MER es 8 x 8 y el bloque objeto de predicción es 4 x 8. Cuando el tamaño de MER es 8 x 8, un bloque de A incluido en el bloque objeto de predicción pertenece a la misma MER con el bloque objeto de predicción y los bloques de B, C, D y E están incluidos en una MER diferente del bloque objeto de predicción.
En el caso del bloque de A, el bloque puede sustituirse con una ubicación de un bloque (por ejemplo, el bloque de A') que está incluido en la MER diferente. Por lo tanto, de acuerdo con una realización a modo de ejemplo de la presente invención, cuando el bloque candidato de fusión del bloque
actual y el bloque actual pertenecen a la misma MER, el bloque candidato de fusión del bloque actual puede excluirse de un bloque para candidato de fusión de tal modo que la información de movimiento de por lo menos un bloque en otra ubicación puede añadirse como el candidato de fusión de acuerdo con el tamaño del bloque actual y el tamaño de MER.
5 De acuerdo con una realización a modo de ejemplo de la presente invención, la información de
tamaño de la MER puede incluirse en una información de sintaxis de nivel superior que va a transmitirse.
La tabla 1 en lo sucesivo está asociada con un método de transmisión de la información de tamaño acerca de la MER en la sintaxis de nivel superior.
10
<Tabla 1>
pic_paiainctei_set_ibsp() (
Devcriptor
p ic p a ra meterset id
ue(v)
seq patameterxet id
ue(v}
entropy coding mode flag
“(i)
num temporal layer witcliing point flags
ue(vl
for( i = 0: i < num_l«nporalJayer_sw¡tchmg_poirit_flags: i—)
teniporal_layer_switching_point_flag[ i ]
u(H
num reí idx tO default active minuxl
Ȓ(v)
num ref idx 11 deíault active minusl
ue(y}
pie init qp tninus26 /* en relación con 26 7
setv)
constrained_intra_pred_flas;
u(l)
shared pps info enabled flag
«0)
if( shared pps info enabled flag)
if( adapiive_loop_filter_enabled_flag)
alf_param()
if( cu qp delta enabled_flag)
max_cu_qp_delta_depth
utn
log2_parallel_ineige_l?vel_iniinis2
ue(v)
rbsp_lrailing_bits()
\ J
Haciendo referencia a la tabla 1, la información de tamaño de la MER puede obtenerse 15 basándose en un elemento de sintaxis log2_parallel_merge_level_minus2 incluido en una estructura de sintaxis de alto nivel tal como un conjunto de parámetros de imagen. Un elemento de sintaxis log2_parallel_merge_level_minus2 también puede incluirse en una estructura de sintaxis de alto nivel que no sea el conjunto de parámetros de imagen, y la presente realización a modo de ejemplo también está incluida en el alcance de las reivindicaciones de la presente invención.
20 La tabla 2 en lo sucesivo describe una relación entre un valor de
log2_parallel_merge_level_minus2 y el tamaño de la MER.
<Tabla 2>
log2_parallel_merge_level_minus2
Tamaño de Observación MER
0
4 x 4 Modo de fusión omisión secuencial para todas las PU en una LCU debido a que el mínimo tamaño de PU que se permite por HEVC es 4 x 4
1
8 x 8 Búsqueda de modo de fusión omisión en paralelo que se permite para todas las PU dentro de un bloque 8 x 8
5
10
15
20
25
30
35
40
45
2
16 x 16 Búsqueda de modo de fusión omisión en paralelo que se permite para todas las PU dentro de un bloque 16 x 16
3
32 x 32 Búsqueda de modo de fusión omisión en paralelo que se permite para todas las PU dentro de un bloque 32 x 32
4
64 x 64 Búsqueda de modo de fusión omisión en paralelo que se permite para todas las PU dentro de un bloque 64 x 64
Haciendo referencia a la tabla 2, el valor de log2_parallel_merge_level_minus2 puede tener un valor de 0 a 4, de manera inclusiva, y el tamaño del tamaño de MER puede especificarse de manera diferente de acuerdo con el valor del elemento de sintaxis. Cuando la MER es 0, esto es lo mismo que la realización de la inter predicción usando el modo de fusión sin usar la MER.
El elemento de sintaxis que incluye la información de tamaño de la MER puede, en una realización a modo de ejemplo de la presente invención, representarse y usarse como la expresión “elemento de sintaxis de información de tamaño de MER” y definir el elemento de sintaxis de información de tamaño de MER como en la tabla 2 es un ejemplo y es posible especificar el tamaño de MER usando diversos métodos diferentes y un método de expresión de elementos de sintaxis de este tipo también está incluido en el alcance de las reivindicaciones de la presente invención.
La figura 6 es una vista conceptual que ilustra un método de determinación de si un bloque candidato de fusión espacial del bloque actual se encuentra disponible.
Haciendo referencia a la figura 6, basándose en ubicaciones de un bloque objeto de predicción 600 y un bloque candidato de fusión espacial 650 vecino al bloque objeto de predicción 600 y el elemento de sintaxis de información de tamaño de MER, puede determinarse la disponibilidad del bloque candidato de fusión espacial.
Cuando se supone que (xP, yP) es un punto en la parte de arriba izquierda del bloque objeto de predicción y (xN, yN) es un punto en la parte de arriba izquierda del bloque candidato de fusión, puede determinarse si el bloque candidato de fusión espacial se encuentra disponible a través de las siguientes Expresión matemática 1 y Expresión matemática 2.
<Expresión matemática 1>
(xP »(log2_paralleI_mer ge_level_miinis2+2))
== (xN »(Iog2_parallel_merge_level_miims2+2))
<Expresión matemática 2>
(yP (log2_parallel_inerge_level_iiiimis2+2))
== (yN »(log2_parallel_merge_level_inmus2+2))
La Expresión matemática 1 y la Expresión matemática 2 anteriores son unas ecuaciones a modo de ejemplo para determinar si el bloque candidato de fusión y el bloque objeto de predicción están incluidos en la misma MER. Además, puede determinarse si el bloque candidato de fusión y el bloque objeto de predicción están incluidos en la misma MER mediante el uso de un método que no sea el método de determinación anterior siempre que este no se aleje de la esencia de la presente invención.
La figura 7 es un diagrama de flujo que ilustra un método de obtención de un bloque candidato de fusión espacial en un modo de fusión de acuerdo con una realización a modo de ejemplo de la presente invención.
Haciendo referencia a la figura 7, se descodifica la información en relación con la MER (etapa
S700).
La información en relación con la MER puede ser información de elementos de sintaxis, tal como se ha descrito en lo que antecede, y puede incluirse en la estructura de sintaxis de alto nivel. Basándose en la información en relación con la MER descodificada, puede determinarse si el bloque candidato de fusión espacial y el bloque objeto de predicción están incluidos en la misma MER o en diferentes MER.
Se determina si el bloque candidato de fusión espacial y el bloque objeto de predicción están incluidos en la misma MER (etapa S710).
De acuerdo con una realización a modo de ejemplo de la presente invención, cuando el bloque candidato de fusión del bloque actual y el bloque actual están incluidos en la misma MER, el bloque candidato de fusión del bloque actual puede excluirse y la información de movimiento de por lo menos un bloque de ubicación diferente del bloque candidato de fusión puede añadirse como un candidato de fusión de acuerdo con el tamaño del bloque actual y el tamaño de MER (etapa S720). De acuerdo con otra realización a modo de ejemplo de la presente invención, cuando un bloque candidato de fusión espacial y el bloque objeto de predicción están incluidos en la misma MER, en lugar de usar el bloque candidato de
5
10
15
20
25
30
35
40
45
50
55
60
fusión espacial incluido en la MER como el bloque candidato de fusión, un bloque incluido en otra MER con otra ubicación puede sustituir el bloque candidato de fusión espacial para realizar la inter predicción.
Así mismo, en otra realización a modo de ejemplo, cuando un bloque candidato de fusión espacial y el bloque objeto de predicción están incluidos en la misma MER, el bloque candidato de fusión espacial incluido en la MER no puede usarse como el bloque candidato de fusión, tal como se ha descrito en lo que antecede.
Cuando el bloque candidato de fusión espacial y el bloque candidato de predicción no están incluidos en la misma MER, la inter predicción se realiza basándose en un bloque candidato de fusión espacial correspondiente (etapa S730).
La figura 8 es un diagrama de flujo que ilustra un método de inter predicción usando un modo de fusión de acuerdo con una realización a modo de ejemplo de la presente invención.
Haciendo referencia a la figura 8, la información en relación con la predicción de movimiento se obtiene a partir del candidato de fusión espacial (etapa S800).
El candidato de fusión espacial puede obtenerse a partir de la unidad de predicción vecina del bloque objeto de predicción. Con el fin de obtener el candidato de fusión espacial, puede proporcionarse una información de anchura y de altura de la unidad de predicción, la información de MER, información de singleMCLFlag, e información acerca de la ubicación de subdivisión en particiones. Basándose en la información de entrada anterior, la información (availableFlagN) acerca de la disponibilidad del candidato de fusión espacial, información de imágenes de referencia (refIdxL0, refIdxL1), información de utilización de listas (predFlagL0N, predFlagL1N), e información de vector de movimiento (mvL0N, mvL1N) puede obtenerse de acuerdo con una ubicación del candidato de fusión espacial. El candidato de fusión espacial puede ser una pluralidad de bloques vecinos al bloque objeto de predicción.
De acuerdo con una realización a modo de ejemplo de la presente invención, el bloque candidato de fusión espacial puede clasificarse para dar tres tal como sigue: 1) un bloque candidato de fusión espacial que no está incluido en la misma MER y ya se ha codificado o descodificado, 2) un bloque candidato de fusión espacial que está incluido en la misma MER, y 3) un bloque candidato de fusión espacial sobre el que no se ha procesado aún la codificación y la descodificación.
De acuerdo con una realización a modo de ejemplo de la presente invención, con el fin de realizar la inter predicción en paralelo en una unidad de la MER, de entre los bloques candidatos de fusión espacial para realizar la inter predicción, el bloque candidato de fusión espacial que no está incluido en la misma MER y ya se ha codificado o descodificado puede usarse como el bloque candidato de fusión espacial. Además, el bloque candidato de fusión espacial que sustituye una ubicación del bloque candidato de fusión espacial incluido en la misma MER puede usarse como el bloque candidato de fusión espacial. Dicho de otra forma, de acuerdo con una realización a modo de ejemplo de la presente invención, cuando el bloque candidato de fusión del bloque actual está incluido en la misma MER que el bloque actual, el bloque candidato de fusión del bloque actual se excluye y la información de movimiento de por lo menos un bloque de otra ubicación puede añadirse como el candidato de fusión de acuerdo con el tamaño del bloque actual y el tamaño de MER. Tal como se ha descrito en lo que antecede, un método de determinación del bloque candidato de fusión puede realizarse a través de una etapa de descodificación de información en relación con la MER (Región de Estimación de Movimiento), una etapa de determinación de si el bloque objeto de predicción y el bloque candidato de fusión están incluidos en la misma MER, y una etapa de determinación de que el bloque candidato de fusión se encuentra no disponible para la inter predicción con el modo de fusión cuando el bloque candidato de fusión y el bloque objeto de predicción están incluidos en la misma MER.
De acuerdo con otra realización a modo de ejemplo de la presente invención, de entre los bloques candidatos de fusión espacial para realizar la inter predicción, solo el bloque candidato de fusión espacial que no está incluido en la misma MER y ya se ha codificado o descodificado puede usarse para realizar la inter predicción.
Se obtiene un valor de índice de imagen de referencia del candidato de fusión temporal (etapa
S810).
El valor de índice de imagen de referencia del candidato de fusión temporal es un valor de índice de la imagen Col que incluye el candidato de fusión temporal (bloque Col) y puede obtenerse a través de una condición particular como en lo sucesivo. Por ejemplo, cuando un punto en la parte izquierda de arriba del bloque objeto de predicción es (xP, yP), una anchura del es nPSW, y una altura del bloque objeto de predicción es nPSH, el valor de índice de imagen de referencia del candidato de fusión temporal puede determinarse como el mismo valor que el valor de índice de imagen de referencia de la unidad de predicción vecina (a la que se hace referencia en lo sucesivo en el presente documento como “unidad de predicción vecina para obtener el índice de imagen de referencia") si 1) existe la unidad de predicción vecina del bloque objeto de predicción que se corresponde con una ubicación (xP - 1, yP + nPSH - 1), 2) un valor de índice de partición de la unidad de predicción vecina para obtener el índice de imagen de referencia es 0, 3) la unidad de predicción vecina para obtener el índice de imagen de referencia no es un bloque que realiza la predicción usando el modo de intra predicción, y 4) el bloque objeto de predicción y la unidad de predicción vecina para obtener el índice de imagen de referencia no están incluidos en la
5
10
15
20
25
30
misma MER (Región de Estimación de Movimiento). Si las condiciones anteriores no se satisfacen, el valor de índice de imagen de referencia del candidato de fusión temporal puede ajustarse a 0.
El candidato de fusión temporal se determina y la información en relación con la predicción de movimiento se obtiene a partir del candidato de fusión temporal (etapa S820).
Con el fin de determinar el bloque candidato de fusión temporal (bloque Col) y obtener la información en relación con la predicción de movimiento basada en el bloque candidato de fusión temporal determinado (bloque Col), una ubicación del bloque Col que se usa para obtener un vector de movimiento de predicción temporal puede determinarse basándose en condiciones tales como, por ejemplo, si el bloque Col se encuentra disponible para el bloque objeto de predicción, o donde una ubicación del bloque objeto de predicción es relativa a la LCU (por ejemplo, si la ubicación del bloque objeto de predicción se encuentra en una frontera de debajo o una frontera derecha relativa a la LCU). A través de la obtención de la información en relación con la predicción de movimiento basada en la información de imágenes de referencia determinada del bloque Col y la información de vector de predicción de movimiento, la información en relación con la predicción de movimiento puede obtenerse a partir del bloque candidato de fusión temporal (bloque Col).
Se construye una lista de candidatos de fusión (etapa S830).
La lista de candidatos de fusión puede construirse mediante la inclusión de por lo menos uno del candidato de fusión espacial y el candidato de fusión temporal. El candidato de fusión espacial y el candidato de fusión temporal incluido en la lista de candidatos de fusión pueden disponerse con una prioridad fijada.
La lista de candidatos de fusión puede construirse mediante la inclusión de un número fijo de candidatos de fusión. Cuando los candidatos de fusión son deficientes para generar el número fijo de los candidatos de fusión, un candidato de fusión puede generarse mediante la combinación de la información en relación con la predicción de movimiento del candidato de fusión o la lista de candidatos de fusión puede generarse mediante la adición de un vector cero como el candidato de fusión.
Tal como se ha descrito en lo que antecede, el método anterior de obtención del candidato de fusión puede usarse no solo en el método de predicción inter-tramas usando el modo de fusión sino también en el modo de predicción inter-tramas usando el modo de omisión y la presente realización a modo de ejemplo también está incluida en el alcance de las reivindicaciones de la presente invención.
A pesar de que la presente divulgación se ha descrito con referencia a realizaciones a modo de ejemplo de la misma, los expertos en la materia entenderán que pueden hacerse diversos cambios y modificaciones en la misma sin alejarse del espíritu y el alcance de la presente invención, tal como se define por las siguientes reivindicaciones.
5
10
15
20
25
REIVINDICACIONES
1. Un método de determinación de un bloque candidato de fusión temporal, comprendiendo el método: decidir si una frontera de un bloque actual es contigua, o no, a una frontera de una unidad de codificación que es la más grande; y
determinar un bloque candidato de fusión temporal relacionado con el bloque actual de acuerdo con un resultado de la decisión, perteneciendo el bloque candidato de fusión temporal a una imagen descodificada, y teniendo la imagen de descodificación un orden temporal diferente al de una imagen actual que incluye el bloque actual.
2. El método de la reivindicación 1, en el que la frontera que es contigua del bloque actual y la unidad de codificación que es la más grande es una frontera de debajo.
3. El método de la reivindicación 2, en el que el bloque candidato de fusión temporal es representativo de uno de un primer bloque que incluye una posición de una muestra de debajo a la derecha en el bloque actual y un segundo bloque que incluye una posición de una muestra central en el bloque actual.
4. El método de la reivindicación 3, en el que, cuando la frontera de debajo del bloque actual no es contigua a la frontera de debajo de la unidad de codificación que es la más grande, se determina que uno del primer bloque y el segundo bloque es el bloque candidato de fusión temporal, y
en el que, cuando la frontera de debajo del bloque actual es contigua a la frontera de debajo de la unidad de codificación que es la más grande, se determina que el otro del primer bloque y el segundo bloque es el bloque candidato de fusión temporal.

Claims (1)

  1. FIG. 1
    IMAGEN
    ACTUAL
    110
    /
    MODULÓ DE
    SUBDIVISION EN PARTICIONES DE IMAGEN
    BLOQUE OBJETO
    imagen1
    165
    mm CODIFICACION
    CCN ENTROPÍA
    ■NAL
    ES 2 631 477 A2
ES201730356A 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo Active ES2631477B1 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-00961382011 2011-09-23
KR20110096138 2011-09-23
KR10-2012-00395002012 2012-04-17
KR1020120039500A KR101197176B1 (ko) 2011-09-23 2012-04-17 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치

Publications (3)

Publication Number Publication Date
ES2631477A2 ES2631477A2 (es) 2017-08-31
ES2631477R1 ES2631477R1 (es) 2017-12-12
ES2631477B1 true ES2631477B1 (es) 2018-09-20

Family

ID=47914988

Family Applications (16)

Application Number Title Priority Date Filing Date
ES201730967A Active ES2647622B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201630378A Active ES2580278B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850006A Active ES2705355B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730982A Active ES2647572B1 (es) 2011-09-23 2012-09-06 Metodo para inducir un bloque candidato de fusion y dispositivo que usa el mismo
ES201730356A Active ES2631477B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850007A Active ES2705357B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850004A Active ES2705331B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631233A Active ES2612493B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201531656A Active ES2572577B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850003A Active ES2705251B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201490030A Active ES2532857B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850008A Active ES2705337B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631232A Active ES2612494B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631231A Active ES2602201B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730968A Active ES2647600B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850005A Active ES2705334B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo

Family Applications Before (4)

Application Number Title Priority Date Filing Date
ES201730967A Active ES2647622B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201630378A Active ES2580278B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850006A Active ES2705355B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730982A Active ES2647572B1 (es) 2011-09-23 2012-09-06 Metodo para inducir un bloque candidato de fusion y dispositivo que usa el mismo

Family Applications After (11)

Application Number Title Priority Date Filing Date
ES201850007A Active ES2705357B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850004A Active ES2705331B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631233A Active ES2612493B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201531656A Active ES2572577B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850003A Active ES2705251B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201490030A Active ES2532857B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850008A Active ES2705337B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631232A Active ES2612494B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631231A Active ES2602201B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730968A Active ES2647600B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850005A Active ES2705334B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo

Country Status (14)

Country Link
US (10) US9253498B2 (es)
EP (2) EP3754990B1 (es)
JP (10) JP5746792B2 (es)
CN (10) CN107105269B (es)
AU (1) AU2012310514B2 (es)
BR (1) BR112013018993B1 (es)
CA (2) CA2824755C (es)
ES (16) ES2647622B1 (es)
GB (5) GB2557517B (es)
MX (4) MX341932B (es)
PL (2) PL2787728T3 (es)
RU (6) RU2694018C2 (es)
SE (10) SE1651203A2 (es)
WO (1) WO2013042888A2 (es)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI1011698B1 (pt) 2009-03-23 2019-04-02 Ntt Docomo, Inc. Método de decodificação preditiva de imagem, dispositivo de decodificação preditiva de imagem, método de codificação preditiva de imagem, e dispositivo de codificação preditiva de imagem
FR2959376A1 (fr) * 2010-04-22 2011-10-28 France Telecom Procede de traitement d'une information de mouvement, procedes de codage et de decodage, dispositifs, signal et programme d'ordinateur correspondants
SG187094A1 (en) * 2010-07-20 2013-03-28 Ntt Docomo Inc Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
WO2013006386A1 (en) * 2011-07-01 2013-01-10 General Instrument Corporation Motion vector prediction design simplification
US9819963B2 (en) * 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
JP2014529254A (ja) * 2011-09-09 2014-10-30 エルジー エレクトロニクス インコーポレイティド インタ予測方法及びその装置
CA2824755C (en) * 2011-09-23 2018-01-16 Kt Corporation Method for deriving a merge candidate block and device using same
JP2013118627A (ja) * 2011-10-31 2013-06-13 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
RU2632154C1 (ru) 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Способ и устройство для совместного использования списка кандидатов
JP5842803B2 (ja) * 2011-12-28 2016-01-13 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5835208B2 (ja) * 2011-12-28 2015-12-24 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
WO2016085231A1 (ko) * 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR102551609B1 (ko) 2014-11-27 2023-07-05 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR20180085714A (ko) * 2015-12-17 2018-07-27 삼성전자주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
CN116743991A (zh) * 2016-08-03 2023-09-12 株式会社Kt 视频解码方法、视频编码方法和视频数据的传送方法
CN116866564A (zh) * 2016-10-04 2023-10-10 株式会社Kt 用于处理视频信号的方法和装置
US10484703B2 (en) * 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10655846B2 (en) 2017-09-18 2020-05-19 Haier Us Appliance Solutions, Inc. Gas burner assembly for a cooktop appliance
US11350118B2 (en) 2018-05-30 2022-05-31 Digitalinsights Inc. Image encoding/decoding method and device
GB2613272B (en) 2018-06-08 2023-11-15 Kt Corp Method and apparatus for processing a video signal
TWI750486B (zh) 2018-06-29 2021-12-21 大陸商北京字節跳動網絡技術有限公司 運動資訊共用的限制
WO2020035029A1 (en) * 2018-08-17 2020-02-20 Mediatek Inc. Method and apparatus of simplified sub-mode for video coding
WO2020048366A1 (en) 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Coding method, device, system with merge mode
CN110650344B (zh) * 2018-09-14 2022-01-21 北京达佳互联信息技术有限公司 生成合并候选列表的方法、装置以及电子设备、存储介质
WO2020060376A1 (ko) * 2018-09-22 2020-03-26 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
CN110944184B (zh) * 2018-09-25 2022-05-31 华为技术有限公司 视频解码方法及视频解码器
CN110958452B (zh) * 2018-09-27 2023-11-03 华为技术有限公司 视频解码方法及视频解码器
US11172214B2 (en) * 2018-12-21 2021-11-09 Qualcomm Incorporated Derivation of processing area for parallel processing in video coding
CN110832869B (zh) * 2019-01-02 2023-04-14 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置
CN113475075B (zh) * 2019-02-13 2023-09-08 北京字节跳动网络技术有限公司 基于共享Merge列表的运动预测
CN111240622B (zh) * 2020-01-07 2022-01-25 卡莱特云科技股份有限公司 一种绘制方法及装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1234567A (es) * 1967-06-22 1971-06-03
CH682614A5 (fr) * 1990-02-21 1993-10-15 Kudelski Sa Procédé d'embrouillage et de désembrouillage d'un signal vidéo.
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
KR0134483B1 (ko) * 1994-06-14 1998-05-15 배순훈 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder)
US5666170A (en) * 1995-07-12 1997-09-09 Thomson Consumer Electronics, Inc. Apparatus for decoding video signals encoded in different formats
US7099949B1 (en) * 1995-10-23 2006-08-29 Imec Vzw Interprocess communication protocol system
CN1293759C (zh) * 2001-09-06 2007-01-03 佳能株式会社 图象处理方法和装置,图象处理系统以及存储介质
CN1219283C (zh) * 2001-08-07 2005-09-14 北京大恒鼎芯科技有限公司 可视音带的图文数据生成和编码方法及图文数据播放装置
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
JP3977716B2 (ja) * 2002-09-20 2007-09-19 株式会社東芝 動画像符号化/復号化方法及び装置
JP2005175997A (ja) * 2003-12-12 2005-06-30 Sony Corp 復号化装置、電子機器、コンピュータ、復号化方法、プログラム及び記録媒体
KR20050075483A (ko) * 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP5089878B2 (ja) * 2005-10-28 2012-12-05 パナソニック株式会社 画像符号化装置
KR100959538B1 (ko) * 2006-03-30 2010-05-27 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US8213509B2 (en) * 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
RU2387094C1 (ru) * 2006-11-09 2010-04-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для кодирования/декодирования видеосигнала
RU2426267C2 (ru) * 2007-01-08 2011-08-10 Нокиа Корпорейшн Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала
KR20090132629A (ko) * 2007-04-09 2009-12-30 가부시키가이샤 엔.티.티.도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
KR100921465B1 (ko) * 2007-04-19 2009-10-13 엘지전자 주식회사 디지털 방송 신호 송수신기 및 그 제어 방법
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
ES2634162T3 (es) * 2007-10-25 2017-09-26 Nippon Telegraph And Telephone Corporation Método de codificación escalable de vídeo y métodos de decodificación que utilizan predicción ponderada, dispositivos para ello, programas para ello, y medio de grabación donde se graba el programa
US7844937B2 (en) * 2007-12-06 2010-11-30 Freescale Semiconductor, Inc. Method and apparatus for making a semiconductor device using hardware description having merged functional and test logic blocks
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
KR101578052B1 (ko) * 2008-04-02 2015-12-17 삼성전자주식회사 움직임 추정 장치 및 이를 구비하는 동영상 부호화 장치
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4670918B2 (ja) * 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
US8665964B2 (en) * 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US8379718B2 (en) 2009-09-02 2013-02-19 Sony Computer Entertainment Inc. Parallel digital picture encoding
KR20110033676A (ko) 2009-09-25 2011-03-31 삼성중공업 주식회사 해수 유입 차단 장치
KR101348613B1 (ko) * 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120068743A (ko) 2010-12-17 2012-06-27 한국전자통신연구원 인터 예측 방법 및 그 장치
WO2012097749A1 (en) 2011-01-19 2012-07-26 Mediatek Inc. Method and apparatus for parsing error robustness of temporal motion vector prediction
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
WO2012122927A1 (en) * 2011-03-14 2012-09-20 Mediatek Inc. Method and apparatus for derivation of motion vector candidate and motion vector prediction candidate
AU2011362447B2 (en) 2011-03-14 2015-09-24 Hfi Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9313494B2 (en) 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
KR101391829B1 (ko) * 2011-09-09 2014-05-07 주식회사 케이티 시간적 후보 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
JP2014529254A (ja) * 2011-09-09 2014-10-30 エルジー エレクトロニクス インコーポレイティド インタ予測方法及びその装置
PL231159B1 (pl) 2011-09-09 2019-01-31 Kt Corp Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu
CA2824755C (en) * 2011-09-23 2018-01-16 Kt Corporation Method for deriving a merge candidate block and device using same
RU2632154C1 (ru) 2011-11-08 2017-10-02 Электроникс Энд Телекоммьюникейшнз Рисерч Инститьют Способ и устройство для совместного использования списка кандидатов
US20130125904A1 (en) 2011-11-18 2013-05-23 R.J. Reynolds Tobacco Company Smokeless tobacco product comprising pectin component
EP2802146B1 (en) 2011-12-16 2019-02-27 JVC KENWOOD Corporation Dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
CA2855777C (en) 2011-12-23 2017-10-24 Electronics And Telecommunications Research Institute Method and apparatus for setting reference picture index of temporal merging candidate
TW201334565A (zh) 2011-12-28 2013-08-16 Jvc Kenwood Corp 動態影像編碼裝置、動態影像編碼方法及動態影像編碼程式、以及動態影像解碼裝置、動態影像解碼方法及動態影像解碼程式
CN104054346A (zh) 2012-01-19 2014-09-17 索尼公司 图像处理装置和方法

Also Published As

Publication number Publication date
US9930359B2 (en) 2018-03-27
RU2013134438A (ru) 2015-10-27
US10165295B2 (en) 2018-12-25
CN107105269A (zh) 2017-08-29
RU2696301C2 (ru) 2019-08-01
GB2562132A (en) 2018-11-07
GB2557517A (en) 2018-06-20
RU2016101153A (ru) 2018-11-19
CN106878743B (zh) 2020-07-17
CN107105268B (zh) 2020-10-23
US9578348B2 (en) 2017-02-21
SE1850159A2 (sv) 2018-12-11
ES2612493B1 (es) 2018-01-26
SE1850158A1 (en) 2018-02-14
SE1850140A2 (sv) 2018-12-11
CN107094259B (zh) 2020-10-13
SE1850159A1 (en) 2018-02-14
GB2557516B (en) 2018-11-14
EP2787728A2 (en) 2014-10-08
ES2705251B1 (es) 2020-01-29
US10182237B2 (en) 2019-01-15
US20180160135A1 (en) 2018-06-07
SE1651051A1 (sv) 2016-07-13
ES2612494A2 (es) 2017-05-17
PL231926B1 (pl) 2019-04-30
GB2556695B (en) 2018-11-14
JP6279699B2 (ja) 2018-02-14
ES2705251R1 (es) 2019-04-23
JP2016007044A (ja) 2016-01-14
ES2572577B1 (es) 2017-06-13
US20160100182A1 (en) 2016-04-07
RU2016100984A (ru) 2018-11-19
JP6279700B2 (ja) 2018-02-14
EP2787728A4 (en) 2015-07-08
US20160105683A1 (en) 2016-04-14
JP5969654B2 (ja) 2016-08-17
US20170094309A1 (en) 2017-03-30
ES2612494R1 (es) 2017-06-08
GB201402657D0 (en) 2014-04-02
MX341932B (es) 2016-09-08
SE1450126A1 (sv) 2014-04-23
SE1651203A2 (en) 2017-01-10
GB201717601D0 (en) 2017-12-13
CN107087193A (zh) 2017-08-22
ES2705337R1 (es) 2019-04-29
ES2705337B1 (es) 2020-02-05
AU2012310514A1 (en) 2013-08-08
AU2012310514B2 (en) 2014-12-04
SE1651201A1 (sv) 2016-09-07
RU2015153835A3 (es) 2019-05-29
ES2647572A2 (es) 2017-12-22
ES2647622R1 (es) 2018-02-28
ES2705357R1 (es) 2019-04-23
ES2705355R1 (es) 2019-04-23
ES2705334A2 (es) 2019-03-22
ES2631477A2 (es) 2017-08-31
JP2015180074A (ja) 2015-10-08
JP6595019B2 (ja) 2019-10-23
CN107094259A (zh) 2017-08-25
JP2016007043A (ja) 2016-01-14
SE542456C2 (sv) 2020-05-05
ES2532857B1 (es) 2015-12-04
JP6130430B2 (ja) 2017-05-17
SE542454C2 (sv) 2020-05-05
ES2705355B1 (es) 2020-01-29
EP2787728B1 (en) 2020-11-11
MX2013008349A (es) 2013-11-04
ES2612494B1 (es) 2018-01-26
JP2015180075A (ja) 2015-10-08
JP5746792B2 (ja) 2015-07-08
MX352016B (es) 2017-11-06
ES2705334B1 (es) 2020-01-29
ES2705357B1 (es) 2020-01-29
ES2612493A2 (es) 2017-05-17
ES2705251A2 (es) 2019-03-22
ES2612493R1 (es) 2017-05-31
ES2647622A2 (es) 2017-12-22
SE1651202A2 (en) 2017-01-10
RU2696304C2 (ru) 2019-08-01
RU2696229C2 (ru) 2019-07-31
ES2631477R1 (es) 2017-12-12
SE1651202A1 (en) 2016-09-07
CN107105279A (zh) 2017-08-29
ES2647600R1 (es) 2018-03-06
JP6062509B2 (ja) 2017-01-18
JP2018088696A (ja) 2018-06-07
CA2968598C (en) 2019-04-30
RU2016101150A3 (es) 2019-05-29
GB2557516A8 (en) 2018-07-11
RU2016101153A3 (es) 2019-05-06
SE1850158A2 (sv) 2018-12-11
ES2602201B1 (es) 2018-01-26
SE1651199A1 (sv) 2016-09-07
ES2602201R1 (es) 2017-05-23
GB201803930D0 (en) 2018-04-25
US20150172695A1 (en) 2015-06-18
CN107087193B (zh) 2020-10-09
RU2694018C2 (ru) 2019-07-08
GB2507910A (en) 2014-05-14
EP3754990B1 (en) 2024-05-08
SE1651201A2 (en) 2017-01-10
BR112013018993A2 (pt) 2021-02-02
US9357225B2 (en) 2016-05-31
US9554144B2 (en) 2017-01-24
SE539969C2 (sv) 2018-02-13
SE1651199A2 (en) 2017-01-10
ES2647622B1 (es) 2018-11-07
EP3754990A1 (en) 2020-12-23
JP2018088695A (ja) 2018-06-07
US20160295236A1 (en) 2016-10-06
US20160323593A1 (en) 2016-11-03
CN106878744A (zh) 2017-06-20
ES2705357A2 (es) 2019-03-22
RU2016101148A (ru) 2018-11-16
JP2014520478A (ja) 2014-08-21
US10165294B2 (en) 2018-12-25
GB201717600D0 (en) 2017-12-13
CN103444172A (zh) 2013-12-11
ES2705331R1 (es) 2019-04-23
GB2557517A8 (en) 2018-07-11
US20130279595A1 (en) 2013-10-24
RU2016101150A (ru) 2018-11-19
CA2824755C (en) 2018-01-16
BR112013018993B1 (pt) 2022-05-03
RU2696237C2 (ru) 2019-07-31
GB2557516A (en) 2018-06-20
ES2532857A2 (es) 2015-04-01
JP6545838B2 (ja) 2019-07-17
SE542569C2 (sv) 2020-06-09
ES2705331B1 (es) 2020-01-29
ES2647572B1 (es) 2019-01-17
GB2562132B (en) 2019-01-23
CN104349170A (zh) 2015-02-11
US9924185B2 (en) 2018-03-20
ES2532857R1 (es) 2015-04-30
CN107105267B (zh) 2020-09-04
GB2557517B (en) 2018-11-14
GB2507910B (en) 2018-12-12
RU2015153835A (ru) 2019-01-16
SE542455C2 (sv) 2020-05-05
GB2556695A (en) 2018-06-06
JP6009633B2 (ja) 2016-10-19
ES2647600A2 (es) 2017-12-22
PL407774A1 (pl) 2015-05-25
ES2647572R1 (es) 2018-04-02
RU2576499C2 (ru) 2016-03-10
JP6595020B2 (ja) 2019-10-23
ES2705355A2 (es) 2019-03-22
GB201803926D0 (en) 2018-04-25
WO2013042888A3 (ko) 2013-05-30
ES2580278R1 (es) 2016-09-28
MX352017B (es) 2017-11-06
CA2968598A1 (en) 2013-03-28
CN107105269B (zh) 2020-01-10
CN107071456B (zh) 2020-09-04
ES2705337A2 (es) 2019-03-22
CN107105267A (zh) 2017-08-29
SE1651050A1 (sv) 2016-07-13
CN107071456A (zh) 2017-08-18
ES2705334R1 (es) 2019-04-23
ES2580278B1 (es) 2017-07-05
ES2572577A2 (es) 2016-06-01
ES2572577R1 (es) 2016-07-01
JP2017085609A (ja) 2017-05-18
US20180152717A1 (en) 2018-05-31
SE1850140A1 (en) 2018-02-09
RU2016100984A3 (es) 2019-05-29
JP2018088697A (ja) 2018-06-07
JP2017085611A (ja) 2017-05-18
CN106878743A (zh) 2017-06-20
CN107105279B (zh) 2020-03-06
ES2647600B1 (es) 2018-11-07
US20180152718A1 (en) 2018-05-31
CA2824755A1 (en) 2013-03-28
RU2016101148A3 (es) 2019-05-27
WO2013042888A2 (ko) 2013-03-28
CN103444172B (zh) 2017-02-08
ES2705331A2 (es) 2019-03-22
CN106878744B (zh) 2020-06-19
CN107105268A (zh) 2017-08-29
SE1651203A1 (sv) 2016-09-07
ES2602201A2 (es) 2017-02-20
ES2580278A2 (es) 2016-08-23
US9253498B2 (en) 2016-02-02
PL2787728T3 (pl) 2021-05-17
US9253499B2 (en) 2016-02-02

Similar Documents

Publication Publication Date Title
ES2631477B1 (es) Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
KR102591695B1 (ko) 영상 부호화/복호화 방법 및 이를 위한 기록 매체
ES2948265T3 (es) Método de codificación/descodificación de señales de imagen y aparato para el mismo
ES2955938T3 (es) Intrapredicción en codificación de vídeo
ES2699749B2 (es) Método y aparato para procesar una señal de vídeo
ES2694041T3 (es) Aparato para codificar una imagen
ES2677193B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2967280T3 (es) Método para partición de bloque y dispositivo de decodificación

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2631477

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20180920