ES2631477A2 - Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo - Google Patents

Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo Download PDF

Info

Publication number
ES2631477A2
ES2631477A2 ES201730356A ES201730356A ES2631477A2 ES 2631477 A2 ES2631477 A2 ES 2631477A2 ES 201730356 A ES201730356 A ES 201730356A ES 201730356 A ES201730356 A ES 201730356A ES 2631477 A2 ES2631477 A2 ES 2631477A2
Authority
ES
Spain
Prior art keywords
block
fusion
prediction
candidate
mer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201730356A
Other languages
English (en)
Other versions
ES2631477B1 (es
ES2631477R1 (es
Inventor
Bae Keun Lee
Jae Cheol Kwon
Joo Young Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039500A external-priority patent/KR101197176B1/ko
Application filed by KT Corp filed Critical KT Corp
Publication of ES2631477A2 publication Critical patent/ES2631477A2/es
Publication of ES2631477R1 publication Critical patent/ES2631477R1/es
Application granted granted Critical
Publication of ES2631477B1 publication Critical patent/ES2631477B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

La presente invención se refiere a un método para inducir un bloque candidato de fusión y a un dispositivo que usa el mismo. Un método de descodificación de imágenes comporta la descodificación de información en relación con la región de estimación de movimiento (MER); la determinación de si un bloque objetivo predicho y un bloque candidato de fusión espacial están incluidos o no en la misma MER; y la determinación de que el bloque candidato de fusión espacial es un bloque candidato de fusión no disponible cuando el bloque objetivo predicho y el bloque candidato de fusión espacial están incluidos en la misma MER. Por consiguiente, mediante la realización en paralelo del método para inducir un candidato de fusión, se habilita un procesamiento en paralelo y se reducen la cantidad de cálculo y la complejidad de implementación.

Description

5
10
15
20
25
30
35
40
45
50
55
60
METODO PARA INDUCIR UN BLOQUE CANDIDATO DE FUSION Y DISPOSITIVO QUE USA EL
MISMO
Campo de la tecnica
La presente invencion se refiere a un metodo de codificacion y descodificacion de video y, mas en particular, a un metodo de obtencion de un bloque candidato de fusion y a un aparato que usa el mismo.
Tecnica anterior
Recientemente, la demanda para un video con una alta resolucion y una alta calidad tal como un video de alta definicion (HD, high definition) y un video de alta ultra definition (UHD, ultra high definition) se ha visto aumentada en diversos campos de aplicacion. A medida que la resolucion y la calidad de video se vuelven mas altas, la cantidad de video aumenta de forma relativa en comparacion con un video existente y, por lo tanto, en un caso en el que, cuando el video se transmite usando un medio tal como una red de banda ancha inalambrica o un hilo existente o se almacena en un medio de almacenamiento existente, el coste de transmision y el coste de almacenamiento se aumentarian. Con el fin de resolver estos problemas que se generan a medida que la resolucion y la calidad se estan haciendo mas altas, pueden utilizarse tecnicas de compresion de video de alta eficiencia.
Las tecnicas de compresion de video incluyen diversas tecnicas, tal como una tecnica de inter prediction (de imagen) para predecir un valor de pixel incluido en una imagen actual a partir de una imagen de antes o de despues de la imagen actual, una tecnica de intra prediccion (de imagen) para predecir el valor de pixel incluido en una imagen actual mediante el uso de information de pixeles dentro de la imagen actual, y una tecnica de codificacion con entropia para asignar un codigo mas corto a un valor de frecuencia de alta aparicion y asignar un codigo mas largo a un valor de frecuencia de baja aparicion, y los datos de video pueden comprimirse de forma efectiva para transmitirse o almacenarse mediante el uso de tal tecnica de compresion de video.
Objeto de la invencion
El primer fin de la presente invencion es la provision de un metodo de obtencion de un candidato de fusion con un procesamiento en paralelo.
El segundo fin de la presente invencion es la provision de un aparato para realizar un metodo de obtencion de un candidato de fusion con un procesamiento en paralelo.
Descripcion de la invencion
De acuerdo con un aspecto de la presente invencion para conseguir el primer objetivo de la presente invencion que se ha descrito en lo que antecede, se proporciona un metodo de obtencion de un candidato de fusion. El metodo puede incluir la descodificacion de informacion en relation con la region de estimation de movimiento (MER); la determination de si un bloque objeto de prediccion y un bloque candidato de fusion espacial estan incluidos en la misma MER; y decidir que el bloque candidato de fusion espacial es un bloque candidato de fusion no disponible si se esta determinando un bloque candidato de fusion que no usa el bloque candidato de fusion espacial cuando el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER. El metodo puede incluir ademas la determinacion de forma adaptiva de un bloque candidato de fusion espacial de acuerdo con el tamano de la MER y el tamano del bloque objeto de prediccion si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER. Si el tamano de la MER es 8 x 8 y el tamano del bloque objeto de prediccion es 8 x 4 o 4 x 8, por lo menos uno de los bloques candidatos de fusion espacial del bloque objeto de prediccion puede sustituirse con un bloque que incluye un punto que se encuentra en el exterior de la MER. El metodo puede incluir ademas la determinacion de si el bloque candidato de fusion espacial esta incluido en una MER que no se ha descodificado aun. El metodo puede incluir ademas la sustitucion del bloque candidato de fusion espacial con un bloque incluido en otra MER si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER. El bloque candidato de fusion espacial sustituido puede ser un bloque candidato de fusion espacial que se sustituye de forma adaptiva para incluirse en una MER diferente del bloque objeto de prediccion de acuerdo con una ubicacion del bloque candidato de fusion espacial incluido en la misma MER. La informacion en relacion con la MER puede ser informacion en relacion con el tamano de la MER y transmitirse en una unidad de una imagen. La determinacion de si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER puede incluir la determinacion de si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER de acuerdo con una ecuacion de determinacion basada en informacion de ubicacion del bloque objeto de prediccion, informacion de ubicacion del bloque candidato de fusion espacial, e informacion de tamano de la MER.
De acuerdo con otro aspecto de la presente invencion para conseguir el segundo objetivo de la presente invencion que se ha descrito en lo que antecede, se proporciona un aparato de descodificacion
5
10
15
20
25
30
35
40
45
50
55
60
de imagenes. El aparato puede incluir una unidad de descodificacion de entropia para descodificar informacion en relacion con la region de estimation de movimiento (MER) y una unidad de prediction para determinar si un bloque objeto de prediccion y un bloque candidato de fusion espacial estan incluidos en la misma MER y la decision del bloque candidato de fusion espacial como un bloque candidato de fusion no disponible si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER. La unidad de prediccion puede ser una unidad de prediccion que determina de forma adaptiva un bloque candidato de fusion espacial de acuerdo con el tamano de la MER y el tamano del bloque objeto de prediccion si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER. Si el tamano de la MER es 8 x 8 y el tamano del bloque objeto de prediccion es 8 x 4 o 4 x 8, la unidad de prediccion puede sustituir por lo menos uno de los bloques candidatos de fusion espacial del bloque objeto de prediccion con un bloque que incluye un punto que se encuentra en el exterior de la MER. La unidad de prediccion puede determinar si el bloque candidato de fusion espacial esta incluido en una MER que se ha descodificado aun. La unidad de prediccion puede ser una unidad de prediccion que sustituye el bloque candidato de fusion espacial con un bloque incluido en otra MER cuando el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER. El bloque candidato de fusion espacial sustituido puede ser un bloque candidato de fusion espacial que se sustituye de forma adaptiva para incluirse en una MER diferente del bloque objeto de prediccion de acuerdo con una ubicacion del bloque candidato de fusion espacial incluido en la misma MER. La informacion en relacion con la MER puede ser informacion en relacion con el tamano de la MER, y transmitirse en una unidad de una imagen. La unidad de prediccion puede ser una unidad de prediccion que determina si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER basada en una ecuacion de determination de acuerdo con informacion de ubicacion del bloque objeto de prediccion, informacion de ubicacion del bloque candidato de fusion espacial, e informacion de tamano de la MER.
De acuerdo con otro aspecto de la invention, se proporciona un metodo de determinacion de un bloque candidato de fusion temporal, comprendiendo el metodo: decidir si una frontera de un bloque actual es contigua, o no, a una frontera de una unidad de codification que es la mas grande; y determinar un bloque candidato de fusion temporal relacionado con el bloque actual de acuerdo con un resultado de la decision, perteneciendo el bloque candidato de fusion temporal a una imagen descodificada, y teniendo la imagen de descodificacion un orden temporal diferente al de una imagen actual que incluye el bloque actual. En algunas realizaciones, la frontera que es contigua del bloque actual y la unidad de codificacion que es la mas grande es una frontera de debajo. En algunas realizaciones, el bloque candidato de fusion temporal es representativo de uno de un primer bloque que incluye una position de una muestra de debajo a la derecha en el bloque actual y un segundo bloque que incluye una posicion de una muestra central en el bloque actual. En algunas realizaciones, cuando la frontera de debajo del bloque actual no es contigua a la frontera de debajo de la unidad de codificacion que es la mas grande, se determina que uno del primer bloque y el segundo bloque es el bloque candidato de fusion temporal, y, cuando la frontera de debajo del bloque actual es contigua a la frontera de debajo de la unidad de codificacion que es la mas grande, se determina que el otro del primer bloque y el segundo bloque es el bloque candidato de fusion temporal.
Efectos ventajosos
De acuerdo con un metodo de obtencion de un bloque candidato de fusion y un aparato que usa el mismo que se describe en realizaciones a modo de ejemplo de la presente invencion, un procesamiento en paralelo puede conseguirse mediante la realization del metodo de obtencion del bloque candidato de fusion en paralelo, por lo tanto, la calidad de calculo y la complejidad de implementation pueden reducirse.
Breve descripcion de los dibujos
La figura 1 es un diagrama de bloques que ilustra un codificador de video de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
La figura 2 es un diagrama de bloques que ilustra un descodificador de video de acuerdo con otra realizacion a modo de ejemplo de la presente invencion.
La figura 3 es una vista conceptual que ilustra bloques candidatos para aplicar un modo de fusion y un modo de omision de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
La figura 4 es una vista conceptual que ilustra un metodo de decision de un bloque candidato de fusion de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
La figura 5 es una vista conceptual que ilustra un metodo de decision de un bloque candidato de fusion de acuerdo con el tamano de una MER de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
La figura 6 es una vista conceptual que ilustra un metodo de determinacion de si un bloque candidato de fusion espacial de un bloque actual se encuentra disponible.
La figura 7 es un diagrama de flujo que ilustra un metodo de obtencion de un bloque candidato
5
10
15
20
25
30
35
40
45
50
55
60
de fusion espacial en un modo de fusion de acuerdo con una realization a modo de ejemplo de la presente invention.
La figura 8 es un diagrama de flujo que ilustra un metodo de inter prediction que aplica un modo de fusion de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
Descripcion detallada de un modo de la invencion
A pesar de que pueden hacerse diversas modificaciones y realizaciones a modo de ejemplo, en el presente documento solo se describiran mas completamente realizaciones a modo de ejemplo particulares con referencia a los dibujos adjuntos. No obstante, la presente invencion no deberia interpretarse como limitada a solo las realizaciones a modo de ejemplo que se exponen en el presente documento sino mas bien, deberia entenderse que cubre todas las modificaciones, equivalentes o alternativas que caiga dentro del alcance y las expresiones tecnicas de la invencion. Numeros similares hacen referencia a elementos similares a traves de la totalidad de los dibujos.
Se entendera que, a pesar de que las expresiones primero, segundo, etc. pueden usarse en el presente documento para describir diversos elementos, estos elementos no deberian estar limitados por estas expresiones. Estas expresiones solo se usan para distinguir un elemento de otro. Estas expresiones solo se usan para distinguir un elemento de otro elemento. Por ejemplo, un primer elemento podria denominarse un segundo elemento sin alejarse de las ensenanzas de la presente invencion y, de forma similar, el segundo elemento podria denominarse el primer elemento. La expresion “y / o” incluye una combination de una pluralidad de articulos enumerados asociados o cualquiera de la pluralidad de los articulos enumerados asociados.
Se entendera que, cuando se haga referencia a una caracteristica o elemento como que esta “conectado” o “acoplado” con otra caracteristica o elemento, este puede estar directamente conectado o acoplado con el otro elemento o pueden estar presentes elementos intermedios. Como contraste, cuando se haga referencia a una caracteristica o elemento como que esta “directamente conectado” o “directamente acoplado” con otro elemento, se entendera que no existen elementos intermedios presentes.
La terminologia que se usa en el presente documento es para el fin de describir solo realizaciones particulares y no se pretende que sea limitante de realizaciones a modo de ejemplo de la invencion. Se pretende que las formas singulares “un”, “una” y “el / la” incluyan asi mismo las formas plurales, a menos que el contexto indique claramente lo contrario. Se entendera que las expresiones “comprende”, o “incluye”, cuando se usan en el presente documento, especifiquen la presencia de caracteristicas, enteros, etapas, operaciones, elementos, componentes indicados o cualesquiera combinaciones de los mismos, pero no excluyan la presencia o adicion de una o mas otras caracteristicas, enteros, etapas, operaciones, elementos, componentes, o cualesquiera combinaciones de los mismos.
En lo sucesivo en el presente documento, la presente invencion se describira con detalle con referencia a los dibujos adjuntos. En lo sucesivo en el presente documento, los mismos numeros de referencia se usan a traves de la totalidad de los dibujos para hacer referencia a las mismas partes y se omitira una explication repetitiva de las mismas partes.
La figura 1 es un diagrama de bloques que ilustra un codificador de video de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
Haciendo referencia a la figura 1, un codificador de video 100 puede incluir un modulo de subdivision en particiones de imagen 110, un modulo de inter prediccion 120, un modulo de intra prediccion 125, un modulo de transformada 130, un modulo de cuantificacion 135, un modulo de reordenamiento 160, un modulo de codification con entropia 165, un modulo de descuantificacion 140, un modulo de transformada inversa 145, un modulo de filtrado 150 y una memoria 155.
Cada modulo que se muestra en la figura 1 se ilustra de forma independiente con el fin de proporcionar diferentes caracteristicas de funciones en el codificador de video y no se pretende que signifique que cada modulo este configurado como una unidad componente de soporte logico o un soporte fisico independiente. Es decir, cada modulo se enumera como un elemento respectivo para fines ilustrativos, y por lo menos dos modulos de entre los modulos pueden combinarse para dar un elemento o un modulo puede dividirse en una pluralidad de elementos para realizar una funcion, y una realizacion en la que los modulos respectivos se combinan o se dividen esta incluida en el alcance de las reivindicaciones de la presente invencion sin alejarse de la esencia de la presente invencion.
Asi mismo, una parte de elementos no puede ser un elemento indispensable para realizar una funcion esencial en la presente invencion sino meramente un elemento selectivo para mejorar el rendimiento. La presente invencion puede implementarse solo con elementos esenciales para implementar la esencia de la presente invencion y excluir los elementos que se usan meramente para mejorar el rendimiento, y una configuration que incluye solo los elementos esenciales excluyendo los elementos selectivos, que se usan solo para mejorar el rendimiento, tambien esta incluida en el alcance de las reivindicaciones de la presente invencion.
El modulo de subdivision en particiones de imagen 110 puede dividir una imagen de entrada en
5
10
15
20
25
30
35
40
45
50
55
60
por lo menos una unidad de procesamiento. En el presente caso, la unidad de procesamiento puede ser una unidad de prediction (PU), una unidad de transformada (TU), o una unidad de codification (CU). El modulo de subdivision en particiones de imagen 110 puede dividir una imagen en una combination de una pluralidad de unidades de codificacion, unidades de prediccion y unidades de transformada y puede codificar la imagen mediante la selection de una combinacion de una unidad de codificacion, unidad o unidades de prediccion y unidad o unidades de transformada basada en un criterio predeterminado (por ejemplo, una funcion de costes).
Por ejemplo, una imagen puede subdividirse en particiones en una pluralidad de las unidades de codificacion. Con el fin de subdividir en particiones la unidad de codificacion, puede usarse una estructura de arbol recursiva tal como una estructura de arbol cuadrangular, y una unidad de codificacion que se divide en otras unidades de codificacion con una imagen o una unidad de codificacion que es la mas grande como una raiz puede dividirse para tener un nodo hijo tantas veces como el numero de unidades de codificacion divididas. Una unidad de codificacion que ya no se divide mas de acuerdo con una determinada restriction se vuelve un nodo hoja. Dicho de otra forma, cuando se supone que solo se encuentra disponible una subdivision en particiones cuadradas para una unidad de codificacion, una unidad de codificacion puede dividirse hasta en cuatro diferentes unidades de codificacion.
En lo sucesivo en el presente documento, en realizaciones a modo de ejemplo de la presente invention, la unidad de codificacion puede usarse para hacer referencia a no solo una unidad para codificar sino tambien una unidad para descodificar.
La unidad de prediccion puede subdividirse en particiones con forma de cuadrados o rectangulos que tienen el mismo tamano dentro de una unidad de codificacion.
Cuando se genera la unidad de prediccion para realizar una intra prediccion basada en la unidad de codificacion, si la unidad de codificacion no es una unidad de codificacion que es la mas pequena, la intra prediccion puede realizarse sin dividirse en una pluralidad de unidades de prediccion en una unidad N x N.
El modulo de prediccion puede incluir el modulo de inter prediccion 120 para realizar una inter prediccion y el modulo de intra prediccion 125 para realizar una intra prediccion. Con respecto a la unidad de prediccion, el modulo de prediccion puede determinar si se realiza la inter prediccion o si se realiza la intra prediccion, y puede determinar information especifica (por ejemplo, un modo de intra prediccion, un vector de movimiento, una imagen de referencia, etc.) de acuerdo con cada metodo de prediccion. En el presente caso, una unidad de procesamiento para realizar la prediccion y una unidad de procesamiento para determinar el metodo de prediccion y un detalle especifico pueden ser diferentes. Por ejemplo, el metodo de prediccion y el modo de prediccion puede determinarse en la unidad de prediccion y la prediccion puede realizarse en la unidad de transformada. Un valor residual (un bloque residual) entre un bloque de prediccion generado y un bloque original puede introducirse en el modulo de transformada 130. Asi mismo, la informacion de modos de prediccion, informacion de vector de movimiento, etc. que se usan para la prediccion puede codificarse en el modulo de codificacion con entropia 135 junto con el valor residual que va a transmitirse al descodificador. Cuando se usa un modo de codificacion especifico, es posible que el bloque de prediccion no se genere a traves del modulo de prediccion 120, 125 sino que el bloque original se codifique a medida que este vaya a transmitirse a un descodificador.
El modulo de inter prediccion puede predecir en la unidad de prediccion basada en informacion de por lo menos una imagen de entre las imagenes antes o despues para una imagen actual. El modulo de inter prediccion puede incluir un modulo de interpolation de imagenes de referencia, un modulo de prediccion de movimiento y un modulo de compensation de movimiento.
El modulo de interpolacion de imagenes de referencia puede proveerse con informacion de imagenes de referencia a partir de la memoria 155 y puede generar informacion de pixeles en menos de una unidad de pixeles entera a partir de la imagen de referencia. En el caso de un pixel de luma, puede usarse un filtro de interpolacion de 8 elementos de almacenamiento basado en DCT en el que se hace que un coeficiente de filtro varie para generar informacion de pixeles menor que la unidad de pixeles entera en una unidad de 1 / 4 de pixel. En el caso de una senal de croma, puede usarse un filtro de interpolacion de 4 elementos de almacenamiento basado en DCT en el que se hace que un coeficiente de filtro varie para generar informacion de pixeles menor que la unidad de pixeles entera en una unidad de 1 / 8 de pixel.
El modulo de prediccion de movimiento puede realizar una prediccion de movimiento basada en una imagen de referencia interpolada por el modulo de interpolacion de imagenes de referencia. Para un metodo de obtencion del vector de movimiento, pueden usarse diversos metodos tales como FBMA (Full search-based Block Matching Algorithm, Algoritmo de Puesta en Correspondencia de Bloques basado en Busqueda completa), TSS (Three Step Search, Busqueda en Tres Etapas), o NTS (New Three-Step Search Algorithm, Nuevo Algoritmo de Busqueda en Tres Etapas). El vector de movimiento puede tener un valor de vector de movimiento en una unidad de 1 / 2 o 1 / 4 de pixel basado en el pixel interpolado. El modulo de prediccion de movimiento puede predecir una unidad de prediccion actual haciendo que varie el metodo de prediccion de movimiento. Como un metodo de prediccion de movimiento, pueden usarse diversos metodos tal como un modo de omision, un modo de fusion, o un modo de prediccion de vector
5
10
15
20
25
30
35
40
45
50
55
60
de movimiento avanzada (AMVP, advanced motion vector prediction).
De acuerdo con realizaciones a modo de ejemplo de la presente invencion, cuando se realiza la inter prediccion, la region de estimacion de movimiento (MER, motion estimation region) puede definirse para realizar la prediccion en paralelo. Por ejemplo, cuando se realiza la inter prediccion usando el modo de fusion o el modo de omision, puede determinarse si un bloque objeto de prediccion y un bloque candidato de fusion espacial estan incluidos en la misma MER, y cuando el bloque objeto de prediccion y el bloque candidato de fusion espacial no estan incluidos en la misma MER, el bloque candidato de fusion espacial puede determinarse como no disponible o un bloque candidato de fusion puede determinarse mediante la determinacion de si el bloque candidato de fusion espacial esta incluido en una MER que no se ha descodificado aun. En lo sucesivo en el presente documento, en realizaciones a modo de ejemplo de la presente invencion, se describe un funcionamiento de la unidad de prediccion cuando se realiza la inter prediccion.
La unidad de inter prediccion puede generar la unidad de prediccion basada en informacion acerca de pixeles de referencia vecinos a un bloque actual, en la que los pixeles de referencia son pixeles dentro de la imagen actual. Si un bloque vecino de la unidad de prediccion actual es un bloque sobre el que la inter prediccion se realiza de tal modo que los pixeles de referencia son pixeles sobre los que se realiza la inter prediccion, los pixeles de referencia incluidos en el bloque sobre el que la inter prediccion se realiza pueden sustituirse con los pixeles de referencia del bloque vecino sobre el que se realiza la intra prediccion. Dicho de otra forma, cuando el pixel de referencia no se encuentra disponible, los pixeles de referencia que no se encuentran disponibles pueden sustituirse con por lo menos un pixel de referencia de entre los pixeles de referencia disponibles.
La intra prediccion puede tener unos modos de prediccion direccional que usan informacion acerca de los pixeles de referencia de acuerdo con una direccion de prediccion y unos modos no direccionales que no usan la informacion direccional cuando se realiza la prediccion. Un modo para predecir informacion acerca de muestras de luma y un modo para predecir informacion acerca de muestras de croma pueden ser diferentes. Ademas, la informacion acerca del modo de intra prediccion que se usa para las muestras de luma o la informacion acerca de la senal de luma predicha puede utilizarse para predecir informacion acerca de muestras de croma.
En un caso en el que el tamano de la unidad de prediccion y el tamano de la unidad de transformada son el mismo cuando se realiza la intra prediccion, la intra prediccion puede realizarse sobre la unidad de prediccion basada en pixeles que existen en un lado izquierdo de la unidad de prediccion, pixeles que existen en una region superior izquierda, y pixeles que existen sobre una region superior. No obstante, en un caso en el que el tamano de la unidad de prediccion y el tamano de la unidad de transformada son diferentes cuando se realiza la intra prediccion, la intra prediccion puede realizarse mediante el uso de los pixeles de referencia basada en la unidad de transformada. Asi mismo, puede usarse la intra prediccion que usa una division N x N solo con respecto a la unidad de codificacion que es la mas pequena.
En el metodo de intra prediccion, de acuerdo con el modo de prediccion, puede aplicarse un filtro de intra suavizado dependiente de modo (MDIS, mode dependent intra smoothing) al pixel de referencia para generar el bloque de prediccion. Un tipo del filtro de MDIS que es de aplicacion al pixel de referencia puede ser diferente. Con el fin de realizar la intra prediccion, el modo de intra prediccion de la unidad de prediccion actual puede predecirse a partir del modo de intra prediccion de la unidad de prediccion vecina a la unidad de prediccion actual. Cuando se predice el modo de prediccion de la unidad de prediccion actual mediante el uso de una informacion de modo que se predice a partir de una unidad de prediccion vecina, si los modos de intra prediccion de la unidad de prediccion actual y la unidad de prediccion vecina son los mismos, la informacion de que los modos de prediccion de la unidad de prediccion actual y la unidad de prediccion vecina son los mismos puede transmitirse usando una informacion de bandera predeterminada, y si los modos de prediccion de la unidad de prediccion actual y la unidad de prediccion vecina son diferentes, la informacion de modos de prediccion del bloque actual puede descodificarse mediante codificacion con entropia.
Asi mismo, un bloque residual que incluye una informacion de valor residual que es una diferencia entre la unidad de prediccion sobre la que la prediccion se realiza basandose en la unidad de prediccion que se genera en el modulo de prediccion 120, 125 y un bloque original de la unidad de prediccion. El bloque residual generado puede introducirse en el modulo de transformada 130. El modulo de transformada 130 puede transformar el bloque residual que incluye la informacion de valor residual del bloque original y la unidad de prediccion que se genera en el modulo de prediccion 120, 125 mediante el uso de un metodo de transformada tal como una transformada de coseno discreta (DCT, discrete cosine transform) o una transformada de seno discreta (DST, discrete sine transform). Puede determinarse si aplicar la DCT o la DST con el fin de transformar el bloque residual basandose en la informacion de modos de intra prediccion de la unidad de prediccion que se usa para generar el bloque residual.
El modulo de cuantificacion 135 puede cuantificar unos valores transformados en un dominio de frecuencia por el modulo de transformada 130. Dependiendo de un bloque o una importancia de una imagen, puede hacerse que un parametro de cuantificacion varie. Un valor emitido por el modulo de
5
10
15
20
25
30
35
40
45
50
55
60
cuantificacion 135 puede proporcionarse al modulo de descuantificacion 140 y el modulo de reordenamiento 160.
El modulo de reordenamiento 160 puede reordenar el valor de coeficiente cuantificado con respecto al valor residual.
El modulo de reordenamiento 160 puede modificar un coeficiente de una agrupacion bidimensional de forma de bloque para dar una forma de vector unidimensional a traves de un metodo de exploracion de coeficientes. Por ejemplo, en el modulo de reordenamiento 160, desde un coeficiente de DC hasta un coeficiente en un dominio de alta frecuencia puede explorarse para reordenarse en forma de vector unidimensional mediante el uso de un modo de exploracion diagonal. De acuerdo con el tamano de una unidad de transformada y el modo de intra prediccion, un modo de exploracion vertical de exploracion de coeficientes bidimensionales en forma de bloque en una direction de columna o un modo de exploracion horizontal de exploracion de los coeficientes bidimensionales en la forma de bloque en una direccion de fila puede usarse en lugar del modo de exploracion diagonal. Dicho de otra forma, puede determinarse que modo de exploracion se usa de entre el modo de exploracion diagonal, el modo de exploracion vertical y el modo de exploracion horizontal, de acuerdo con el tamano de la unidad de transformada y el modo de intra prediccion.
El modulo de codification con entropia 165 realiza la codification con entropia basada en valores emitidos a partir del modulo de reordenamiento 160. La codificacion con entropia puede usar diversos metodos de codificacion tal como, por ejemplo, Golomb Exponencial, Codificacion Aritmetica Binaria Adaptiva al Contexto (CABAC, Context-Adaptive Binary Arithmetic Coding).
La unidad de codificacion con entropia 165 puede codificar una information diversa tal como information de coeficientes residuales de unidad de codificacion e informacion de tipos de bloque, informacion de modos de prediccion, informacion de unidad de partition, informacion de unidad de prediccion, informacion de unidad de transmision, informacion de vector de movimiento, informacion de imagenes de referencia, informacion de interpolation acerca de un bloque, informacion de filtrado, informacion de MER, etc. a partir del modulo de reordenamiento 160 y el modulo de prediccion 120, 125.
La unidad de codificacion con entropia 165 puede realizar la codificacion con entropia sobre el valor de coeficiente en la unidad de codificacion que se introduce a partir del modulo de reordenamiento 160 mediante el uso del metodo de codificacion con entropia tal como CABAC.
El modulo de descuantificacion 140 y el modulo de transformada inversa 145 descuantifican valores cuantificados por el modulo de cuantificacion 135 y transforma de forma inversa los valores transformados por el modulo de transformada 130. El valor residual que se genera por el modulo de descuantificacion 140 y el modulo de transformada inversa 145 puede anadirse a la unidad de prediccion que se predice a traves del modulo de estimacion de movimiento, el modulo de compensacion de movimiento y el modulo de intra prediccion incluidos en el modulo de prediccion 120, 125 para generar un bloque reconstruido.
El modulo de filtrado 150 puede incluir por lo menos uno de un filtro de desagrupamiento de bloques, un modulo de correction de desplazamiento y un filtro de lazo adaptativo (ALF, adaptive loop filte?).
El filtro de desagrupamiento de bloques puede eliminar una distorsion de bloques que se genera debido a una frontera entre bloques en una imagen reconstruida. Con el fin de determinar si se realiza el filtrado de desagrupamiento de bloques, puede determinarse si aplicar el filtro de desagrupamiento de bloques al bloque actual basado en pixeles incluidos en varias columnas o filas incluidas en el bloque. Cuando se aplica el filtro de desagrupamiento de bloques al bloque, puede aplicarse un filtro fuerte o un filtro debil dependiendo de una intensidad de filtrado de desagrupamiento de bloques requerida. Asi mismo, en la aplicacion del filtro de desagrupamiento de bloques, cuando se realiza un filtrado vertical y un filtrado horizontal, un filtrado en direccion horizontal y un filtrado en direccion vertical pueden procesarse en paralelo.
El modulo de correccion de desplazamiento puede corregir un desplazamiento a partir de una imagen original en una unidad de pixeles con respecto a la imagen sobre la que se realiza el filtrado de desagrupamiento de bloques. Con el fin de realizar la correccion de desplazamiento con respecto a una imagen especifica, puede usarse un metodo de clasificacion de los pixeles incluidos en la imagen para dar un numero predeterminado de regiones, determinar una region sobre la que el desplazamiento va a realizarse y de aplicacion del desplazamiento a una region correspondiente o un metodo de aplicacion del desplazamiento al considerar la informacion de borde de cada pixel.
El filtro de lazo adaptativo (ALF) puede realizar el filtrado basandose en una comparacion de la imagen reconstruida filtrada y la imagen original. Despues de la clasificacion de los pixeles incluidos en la imagen para dar un grupo predeterminado y de determinar un filtro que va a aplicarse a un grupo correspondiente y, a continuation, el filtrado puede aplicarse a cada grupo predeterminado para diferencialmente con cada filtro. La informacion acerca de si aplicar el ALF puede transmitirse por la unidad de codificacion (CU) y el tamano y un coeficiente del ALF que han de aplicarse pueden ser diferentes para cada bloque. El ALF puede tener diversas formas y, por lo tanto, un numero de coeficientes en el filtro pueden ser diferentes para cada filtro. Puede incluirse informacion relacionada con
5
10
15
20
25
30
35
40
45
50
55
60
el filtrado de ALF (informacion de coeficientes de filtro, information de ALF Activo / No Activo, information de forma de filtro, etc.) y transmitirse en un conjunto de parametros predeterminado en un tren de bits.
La memoria 155 puede almacenar un bloque o imagen reconstruido emitido a partir del modulo de filtrado 150, y el bloque o imagen reconstruido almacenado puede proporcionarse al modulo de prediction 120, 125 cuando se realiza la inter prediction.
La figura 2 es un diagrama de bloques que ilustra un descodificador de imagenes de acuerdo con otra realization a modo de ejemplo de la presente invention.
Haciendo referencia a la figura 2, un descodificador de video puede incluir un modulo de descodificacion de entropia 210, un modulo de reordenamiento 215, un modulo de descuantificacion 220, un modulo de transformada inversa 225, un modulo de prediccion 230, 235, un modulo de filtro 240 y una memoria 245.
Cuando un tren de bits de video se introduce a partir del codificador de video, el tren de bits de entrada puede descodificarse en un orden opuesto al orden de procesamiento en el codificador de video.
El modulo de descodificacion de entropia 210 puede realizar una descodificacion de entropia en un orden opuesto de realizacion de la codification con entropia en el modulo de codification con entropia del codificador de video. La informacion para generar el bloque de prediccion de entre la informacion descodificada por el modulo de descodificacion de entropia 210 puede proporcionarse al modulo de prediccion 230, 235 y los valores residuales que se descodifican con entropia en el modulo de descodificacion de entropia pueden introducirse en el modulo de reordenamiento 215.
El modulo de descodificacion de entropia 210 puede descodificar informacion en relation con la intra prediccion y la inter prediccion realizadas por el codificador. Tal como se ha descrito en lo que antecede, cuando existe una restriction predeterminada para la intra prediccion y la inter prediccion en el codificador de video, puede proporcionarse informacion en relacion con la intra prediccion y la inter prediccion del bloque actual mediante la realizacion de la descodificacion de entropia basada en la restriccion.
El modulo de reordenamiento 215 puede realizar el reordenamiento del tren de bits que se descodifica con entropia por el modulo de descodificacion de entropia 210 basandose en un metodo de reordenamiento del codificador. Los coeficientes representados en forma de vector unidimensional pueden reconstruirse y reordenarse en forma de bloque bidimensional.
El modulo de descuantificacion 220 puede realizar una descuantificacion basada en el parametro de cuantificacion que se proporciona a partir del codificador y el bloque de coeficientes reordenados.
El modulo de transformada inversa 225 puede realizar una DCT inversa y una DST inversa sobre un resultado de la cuantificacion realizada por el codificador de video con respecto a la DCT y la DST realizada por el modulo de transformada. La transformada inversa puede realizarse basandose en la unidad de transmision que se determina por el codificador de video. En el modulo de transformada del codificador de video, la DCT y la DST pueden realizarse de manera selectiva de acuerdo con una pluralidad de informacion tal como el metodo de prediccion, el tamano del bloque actual y la direction de prediccion, y el modulo de transformada inversa 225 del descodificador de video puede realizar una transformada inversa basandose en informacion de transformada realizada en el modulo de transformada del codificador de video.
El modulo de prediccion 230, 235 puede generar el bloque de prediccion basandose en informacion en relacion con la generation del bloque de prediccion que se proporciona a partir del modulo de descodificacion de entropia 210 e informacion del bloque o imagen descodificado previamente que se proporciona a partir de la memoria 245.
El modulo de prediccion 230, 235 puede incluir un modulo de determinacion de unidad de prediccion, un modulo de inter prediccion y un modulo de intra prediccion. El modulo de determinacion de unidad de prediccion puede recibir una informacion diversa tal como informacion de unidad de prediccion, informacion de modos de prediccion del metodo de intra prediccion, e informacion en relacion con la prediccion de movimiento del metodo de inter prediccion que se introduce a partir del descodificador de entropia, distinguir la unidad de prediccion en la unidad de codificacion actual basada en la informacion recibida, y determinar si la inter prediccion se realiza sobre la unidad de prediccion o la intra prediccion se realiza sobre la unidad de prediccion. La unidad de inter prediccion puede realizar la inter prediccion con respecto a la unidad de prediccion actual basada en informacion incluida en por lo menos una imagen entre las imagenes previas y las imagenes subsiguientes de la imagen actual que incluye la unidad de prediccion actual mediante el uso de informacion requerida para la inter prediccion de la unidad de prediccion actual que se proporciona por el codificador de video.
Con el fin de realizar la inter prediccion, basada en la unidad de codificacion puede determinarse si el metodo de prediccion de movimiento en la unidad de prediccion incluida en una unidad de codificacion correspondiente es el modo de omision, el modo de fusion o el modo de AMVP.
De acuerdo con una realizacion a modo de ejemplo de la presente invencion, cuando se realiza la inter prediccion, la region de estimation de movimiento (mEr) puede definirse para realizar la prediccion en paralelo. Por ejemplo, cuando se realiza la inter prediccion usando la fusion o la omision, puede determinarse si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan
5
10
15
20
25
30
35
40
45
50
55
60
incluidos en la misma MER. Cuando el bloque objeto de prediccion y el bloque candidato de fusion espacial no estan incluidos en la misma MER, el bloque candidato de fusion espacial puede determinate como no disponible o el bloque candidato de fusion espacial puede determinate como bloque candidato de fusion mediante la determinacion de si el bloque candidato de fusion espacial esta incluido en una MER que no se ha descodificado aun. Un funcionamiento del modulo de prediccion se describira con detalle en una realization a modo de ejemplo de la presente invention.
El modulo de intra prediccion puede generar un bloque de prediccion basado en information de pixeles dentro de la imagen actual. Cuando la unidad de prediccion es una unidad de prediccion para realizar la intra prediccion, la intra prediccion puede realizarse basandose en informacion de modos de intra prediccion de la unidad de prediccion que se proporciona por el codificador de video. El modulo de intra prediccion puede incluir el filtro de MDIS, un modulo de interpolation de pixeles de referencia y un filtro de DC. El filtro de MDIS es un modulo para realizar un filtrado sobre el pixel de referencia del bloque actual, y puede determinarse si aplicar el filtro y aplicarse de acuerdo con el modo de prediccion de la unidad de prediccion actual. El filtrado puede realizarse sobre el pixel de referencia del bloque actual mediante el uso del modo de prediccion de la unidad de prediccion y la informacion de filtro de MDIS que se proporciona por el codificador de video. Cuando el modo de prediccion del bloque actual es un modo que no realiza el filtrado, el filtro de MDIS no puede ser de aplicacion.
El modulo de interpolacion de pixeles de referencia puede generar un pixel de referencia en una unidad de pixeles menor que un valor entero mediante la interpolacion del pixel de referencia cuando el modo de prediccion de la unidad de prediccion es la unidad de prediccion para realizar una intra prediccion basada en un valor de pixel del pixel de referencia interpolado. Cuando el modo de prediccion de la unidad de prediccion actual es un modo de prediccion que genera el bloque de prediccion sin interpolar el pixel de referencia, el pixel de referencia no puede interpolarse. El filtro de DC puede generar el bloque de prediccion a traves de filtrado si el modo de prediccion del bloque actual es un modo de DC.
El bloque o imagen reconstruido puede proporcionarse al modulo de filtro 240. El modulo de filtro 240 puede incluir un filtro de desagrupamiento de bloques, un modulo de correction de desplazamiento, un ALF.
La informacion acerca de si el filtro de desagrupamiento de bloques se aplica a un bloque o imagen correspondiente y si se aplica un filtro fuerte o un filtro debil si se aplica el filtro de desagrupamiento de bloques puede proporcionarse a partir del codificador de video. El filtro de desagrupamiento de bloques del descodificador de video puede proveerse con informacion acerca del filtro de desagrupamiento de bloques a partir del codificador de video y realizar un filtrado de desagrupamiento de bloques para el bloque correspondiente en el descodificador de video. Al igual que con el codificador de video, en primer lugar se realizan un filtrado de desagrupamiento de bloques vertical y un filtrado de desagrupamiento de bloques horizontal, mientras que por lo menos uno del desagrupamiento de bloques vertical y el desagrupamiento de bloques horizontal puede realizarse en un area solapada. En el area solapada del filtrado de desagrupamiento de bloques vertical y el filtrado de desagrupamiento de bloques horizontal, puede realizarse el filtrado de desagrupamiento de bloques vertical o el filtrado de desagrupamiento de bloques horizontal que no se ha realizado previamente. A traves de este proceso de filtrado de desagrupamiento de bloques, un procesamiento en paralelo del filtrado de desagrupamiento de bloques puede ser posible.
El modulo de correccion de desplazamiento puede realizar una correccion de desplazamiento sobre la imagen reconstruida basandose en un tipo de la correccion de desplazamiento que se aplica a la imagen e informacion de valor de desplazamiento.
El ALF puede realizar un filtrado basandose en un valor de comparacion de la imagen original y la imagen reconstruida a traves de filtrado. El ALF puede aplicarse a la unidad de codification basada en informacion acerca de si aplicar el ALF, informacion acerca de un coeficiente de ALF que se proporciona a partir del descodificador. La informacion de ALF puede incluirse en un conjunto de parametros particular que ha de proporcionarse.
La memoria 245 puede almacenar el bloque o imagen reconstruido para usarse como la imagen de referencia o el bloque de referencia y la imagen reconstruida puede proporcionarse al modulo de salida.
Tal como se ha descrito en lo que antecede, a pesar de que la unidad de codificacion se usa para hacer referencia a una unidad de codificacion en una realizacion a modo de ejemplo, la unidad de codificacion puede ser una unidad para realizar no solo la codificacion sino tambien la descodificacion. En lo sucesivo en el presente documento, un metodo de prediccion que se describe en las figuras 3 a 11 de acuerdo con una realizacion a modo de ejemplo de la presente invencion puede realizarse por un elemento tal como el modulo de prediccion incluido en la figura 1 y la figura 2.
La figura 3 es una vista conceptual que ilustra bloques candidatos para aplicar el modo de fusion y el modo de omision de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
En lo sucesivo en el presente documento, para fines ilustrativos, una description se hace con respecto al modo de fusion en una realizacion a modo de ejemplo de la presente invencion; no obstante, el mismo metodo puede aplicarse al modo de omision y tal realizacion tambien esta incluida en el alcance
5
10
15
20
25
30
35
40
45
50
55
60
de las reivindicaciones en la presente invention.
Haciendo referencia a la figura 3, con el fin de realizar la inter prediction a traves del modo de fusion, pueden usarse los bloques candidatos de fusion espacial 300, 305, 310, 315, 320 y los bloques candidatos de fusion temporal 350, 355.
Cuando un punto (xP, yP) que se encuentra sobre una portion izquierda superior del bloque objeto de prediccion en relation con una ubicacion del bloque objeto de prediccion, con una anchura del bloque objeto de prediccion, nPSW y una altura del bloque objeto de prediccion, sPSH, cada bloque de los bloques candidatos de fusion espacial 300, 305, 310, 315, 320 puede ser uno de un primer bloque 300 que incluye un punto (xP - 1, yP + nPSH - MinPuSize), un segundo bloque 305 que incluye un punto (xP + nPSW - MinPuSize, yP - 1), un tercer bloque 310 que incluye un punto (xP + nPSW, yP - 1), un cuarto bloque 315 que incluye un punto (xP - 1, yP + nPSH), y un quinto bloque 320 que incluye un punto (xP - MinPuSize, yP - 1).
El candidato de fusion temporal puede usar una pluralidad de bloques candidatos y un primer bloque Col (bloque co-ubicado) 350 puede ser un bloque que incluye un punto (xP + nPSW, yP + nPSH) que se encuentra sobre una imagen Col (imagen co-ubicada). Si el primer bloque Col 350 no existe o no se encuentra disponible (por ejemplo, si el primer bloque Col no realiza la inter prediccion), puede usarse un segundo bloque Col 355 que incluye un punto (xP + (nPSW >> 1), yP + (nPSH >> 1)) que se encuentra sobre la imagen Col en su lugar.
De acuerdo con una realization a modo de ejemplo de la presente invencion, con el fin de realizar la inter prediccion usando el modo de fusion en paralelo cuando se realiza la prediccion de movimiento, puede determinarse si usar el bloque candidato de fusion en relacion con una determinada area. Por ejemplo, con el fin de determinar el bloque candidato de fusion para realizar el modo de fusion, en relacion con un area predeterminada de un determinado tamano, puede determinarse si el bloque candidato de fusion existe dentro del area predeterminada junto con el bloque objeto de prediccion para determinar si usar el bloque candidato de fusion o no, o sustituir con otro bloque candidato de fusion, realizando de este modo la prediccion de movimiento en paralelo en relacion con el area predeterminada. En lo sucesivo en el presente documento, un metodo de prediccion de movimiento en paralelo usando el modo de fusion se describira en una realizacion a modo de ejemplo de la presente invencion.
La figura 4 es una vista conceptual que ilustra un metodo de determination de un bloque candidato de fusion de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
Haciendo referencia a la figura 4, se supone que una unidad de codification que es la mas grande (LCU) se divide en cuatro regiones de estimation de movimiento (MER).
En el caso de un primer bloque de prediccion PU0 incluido en una primera MER (MER0), similar a la figura 4, cuando la inter prediccion se realiza mediante el uso del modo de fusion con respecto al primer bloque de prediccion PU0, pueden existir cinco bloques candidatos de fusion espacial 400, 405, 410, 415, 420 como los bloques candidatos de fusion espacial. Los cinco bloques candidatos de fusion 400, 405, 410, 415, 420 pueden existir en una ubicacion no incluida en la primera MER (MER0) y pueden ser bloques sobre los que ya se ha realizado la codificacion / descodificacion.
El segundo bloque de prediccion (PUI) es un bloque de prediccion incluido en una segunda MER (MER1) y cuatro bloques candidatos de fusion 430, 435, 445, 450 de entre los bloques candidatos de fusion espacial 430, 435, 440, 445, 450 para realizar la inter prediccion usando el modo de fusion pueden ser bloques que existen dentro de la segunda MER (MER1) y bloques que pertenecen a la misma MER que actualmente realiza la prediccion. El restante un bloque candidato de fusion 440 puede ser un bloque que existe en el lado derecho de la MER actual y un bloque incluido en la LCU o MER sobre la que no se ha realizado aun la codificacion / descodificacion.
De acuerdo con una realizacion a modo de ejemplo de la presente invencion, cuando el bloque candidato de fusion del bloque actual y el bloque actual pertenecen a la misma MER, el bloque candidato de fusion del bloque actual se excluye y la information de movimiento de por lo menos un bloque en otra ubicacion puede anadirse como el candidato de fusion de acuerdo con el tamano del bloque actual y el tamano de MER.
Un bloque que incluye un punto que existe en otra MER en una direction vertical u horizontal puede anadirse como el bloque candidato de fusion. Como alternativa, un bloque que pertenece a otra MER en una ubicacion que es la mas cercana al bloque candidato puede anadirse como el bloque candidato de fusion. Como alternativa, un bloque en una ubicacion predeterminada de acuerdo con la forma y el tamano del bloque actual puede anadirse como un bloque candidato de fusion.
Por ejemplo, en el caso del bloque candidato de fusion 435 que se encuentra en un lado superior de la segunda unidad de prediccion (PU1) y el bloque candidato de fusion 450 que se encuentra en un lado izquierdo superior de la segunda unidad de prediccion, los bloques 455, 460 que incluyen puntos que se encuentran en el exterior de la segunda MER en la direccion vertical pueden usarse como bloques candidatos de fusion sustituidos. Para el bloque candidato de fusion 430 que se encuentra en un lado izquierdo de la segunda unidad de prediccion y el bloque candidato de fusion 445 que se encuentra en un lado izquierdo inferior de la segunda unidad de prediccion, los bloques 465, 470 que incluyen puntos en el exterior de la MER en la direccion horizontal pueden usarse como los bloques candidatos de fusion
5
10
15
20
25
30
35
40
45
50
55
60
sustituidos. Cuando un bloque esta incluido en la misma MER con la unidad de prediccion actual y, por lo tanto, no puede usarse como el bloque candidato de fusion, el bloque candidato de fusion puede sustituirse con otro bloque que incluye un punto en otra MER de acuerdo con una ubicacion del bloque candidato de fusion.
En el caso de un tercer bloque de prediccion (PU2), un bloque candidato de fusion 475 incluido en la misma MER con el tercer bloque de prediccion puede sustituirse para usarse por un bloque 480, que existe en un lado superior en la direccion vertical. Ademas, como otra realizacion a modo de ejemplo de la presente invention, es posible sustituir la ubicacion del bloque candidato de fusion mediante la sustitucion de una ubicacion del bloque candidato de fusion espacial con un bloque incluido en otra MER en una direccion que no sea la direccion vertical u horizontal y la presente realizacion a modo de ejemplo tambien esta incluida en el alcance de las reivindicaciones de la presente invencion.
Las siguientes etapas pueden realizarse con el fin de realizar un metodo para determinar los bloques candidatos de fusion.
1) Etapa de descodificacion de information en relation con la region de estimation de movimiento (MER)
La informacion en relacion con la MER puede incluir informacion acerca del tamano de la MER. Puede determinarse si el bloque objeto de prediccion esta incluido en la MER basada en la informacion acerca del tamano de la MER y el tamano del bloque objeto de prediccion.
2) Etapa de determination de si el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER
En el caso de que el bloque objeto de prediccion y el bloque candidato de fusion espacial esten incluidos en la misma mEr, las siguientes etapas pueden realizarse para determinar de forma adaptiva el bloque candidato de fusion espacial de acuerdo con el tamano de la MER y el tamano del bloque objeto de prediccion.
3) Etapa de determinacion de que el bloque candidato de fusion espacial se encuentra no disponible cuando el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER
Cuando el bloque objeto de prediccion y el bloque candidato de fusion espacial estan incluidos en la misma MER, el bloque candidato de fusion espacial puede determinarse como no disponible y el bloque candidato de fusion espacial incluido en la misma MER puede sustituirse con otro bloque candidato de fusion. Asi mismo, tal como se describe en lo sucesivo, es posible que el bloque candidato de fusion que se determina como no disponible no pueda usarse en la inter prediccion con el modo de fusion.
De acuerdo con otra realizacion a modo de ejemplo de la presente invencion, puede aplicarse un metodo que no usa el bloque candidato de fusion incluido en la misma MER con el bloque objeto de prediccion tambien.
Por ejemplo, de entre los bloques candidatos de fusion, los bloques en los que esta incluida una MER sobre la que ya se ha realizado una codification / descodificacion y si es diferente de una MER actual sobre la cual se esta realizado actualmente una prediccion, se encuentran disponibles para la inter prediccion aplicando el modo de fusion en paralelo. Los bloques pueden usarse como los bloques candidatos de inter prediccion con el modo de fusion. No obstante, los bloques que pertenecen a la MER sobre la que la prediccion se esta realizado actualmente no pueden usarse como el bloque candidato de inter prediccion para la inter prediccion con el modo de fusion. El bloque sobre el que no se realiza la codificacion / descodificacion tampoco puede usarse como el bloque candidato de inter prediccion. La presente realizacion a modo de ejemplo tambien esta incluida en el alcance de las reivindicaciones de la presente invencion.
La figura 5 es una vista conceptual que ilustra un metodo de determinacion de un bloque candidato de fusion basado en el tamano de una MER de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
Haciendo referencia a la figura 5, el candidato de fusion puede determinarse de forma adaptiva de acuerdo con el tamano de la MER y el tamano de la unidad de prediccion actual. Por ejemplo, en un caso en el que un candidato de fusion que se corresponde con una de la ubicacion de los candidatos de fusion A, B, C, D, E esta incluido en la misma MER con la unidad de prediccion actual, el candidato de fusion se determina como no disponible. En el presente caso, la informacion de movimiento de por lo menos un bloque en otra ubicacion puede anadirse como el candidato de fusion de acuerdo con el tamano del bloque actual y el tamano de la MER.
En la figura 5, se supone que el tamano de la MER es 8 x 8 y el bloque objeto de prediccion es 4 x 8. Cuando el tamano de MER es 8 x 8, un bloque de A incluido en el bloque objeto de prediccion pertenece a la misma MER con el bloque objeto de prediccion y los bloques de B, C, D y E estan incluidos en una MER diferente del bloque objeto de prediccion.
En el caso del bloque de A, el bloque puede sustituirse con una ubicacion de un bloque (por ejemplo, el bloque de A') que esta incluido en la MER diferente. Por lo tanto, de acuerdo con una realizacion a modo de ejemplo de la presente invencion, cuando el bloque candidato de fusion del bloque
actual y el bloque actual pertenecen a la misma MER, el bloque candidato de fusion del bloque actual puede excluirse de un bloque para candidato de fusion de tal modo que la informacion de movimiento de por lo menos un bloque en otra ubicacion puede anadirse como el candidato de fusion de acuerdo con el tamano del bloque actual y el tamano de MER.
5 De acuerdo con una realizacion a modo de ejemplo de la presente invencion, la informacion de
tamano de la MER puede incluirse en una informacion de sintaxis de nivel superior que va a transmitirse.
La tabla 1 en lo sucesivo esta asociada con un metodo de transmision de la informacion de tamano acerca de la MER en la sintaxis de nivel superior.
10
<Tabla 1>
pic_paiainetei_set_ibsp() (
Descriptor
p ic p a ra meterset id
ue(v)
seq para in eter_ set id
ue(v)
entropy coding mode flag
num temporal layer switching point (lags
ue(vl
for( i = 0: i < tium teinporalJayei switching point flags: i—)
teniporal_layer_switching_point_flag[ i ]
u(H
num ref idx to default active minusl
uo(y)
num ref idx 11 default active minusl
uetv}
pic init qp minus26 /* en relation con 26 7
sets)
constrained_intra_pred_nag
u(l)
shared pps info enabled flag
if( shared pps ittfo enabled flag)
if( adaptive_loop_filtei_enabled_flag)
alf_paratn()
if( cu qp deltaenabledflag)
max_cu_qp_delta_depth
mn
log2_parallel_ineige_level_iniinis2
ue(s-)
rbsp_lrailing_bits()
\ J
Haciendo referencia a la tabla 1, la informacion de tamano de la MER puede obtenerse 15 basandose en un elemento de sintaxis log2_parallel_merge_level_minus2 incluido en una estructura de sintaxis de alto nivel tal como un conjunto de parametros de imagen. Un elemento de sintaxis log2_parallel_merge_level_minus2 tambien puede incluirse en una estructura de sintaxis de alto nivel que no sea el conjunto de parametros de imagen, y la presente realizacion a modo de ejemplo tambien esta incluida en el alcance de las reivindicaciones de la presente invencion.
20 La tabla 2 en lo sucesivo describe una relacion entre un valor de
log2_parallel_merge_level_minus2 y el tamano de la MER.
<Tabla 2>
log2_parallel_merge_level_minus2
Tamano de Observacion MER
0
4 x 4 Modo de fusion omision secuencial para todas las PU en una LCU debido a que el minimo tamano de PU que se permite por HEVC es 4 x 4
1
8 x 8 Busqueda de modo de fusion omision en paralelo que se permite para todas las PU dentro de un bloque 8 x 8
5
10
15
20
25
30
35
40
45
2
16 x 16 Busqueda de modo de fusion omision en paralelo que se permite para todas las PU dentro de un bloque 16 x 16
3
32 x 32 Busqueda de modo de fusion omision en paralelo que se permite para todas las PU dentro de un bloque 32 x 32
4
64 x 64 Busqueda de modo de fusion omision en paralelo que se permite para todas las PU dentro de un bloque 64 x 64
Haciendo referencia a la tabla 2, el valor de log2_parallel_merge_level_minus2 puede tener un valor de 0 a 4, de manera inclusiva, y el tamano del tamano de MER puede especificarse de manera diferente de acuerdo con el valor del elemento de sintaxis. Cuando la MER es 0, esto es lo mismo que la realization de la inter prediction usando el modo de fusion sin usar la MER.
El elemento de sintaxis que incluye la information de tamano de la MER puede, en una realizacion a modo de ejemplo de la presente invention, representarse y usarse como la expresion “elemento de sintaxis de informacion de tamano de MER” y definir el elemento de sintaxis de informacion de tamano de MER como en la tabla 2 es un ejemplo y es posible especificar el tamano de MER usando diversos metodos diferentes y un metodo de expresion de elementos de sintaxis de este tipo tambien esta incluido en el alcance de las reivindicaciones de la presente invencion.
La figura 6 es una vista conceptual que ilustra un metodo de determination de si un bloque candidato de fusion espacial del bloque actual se encuentra disponible.
Haciendo referencia a la figura 6, basandose en ubicaciones de un bloque objeto de prediccion 600 y un bloque candidato de fusion espacial 650 vecino al bloque objeto de prediccion 600 y el elemento de sintaxis de informacion de tamano de MER, puede determinarse la disponibilidad del bloque candidato de fusion espacial.
Cuando se supone que (xP, yP) es un punto en la parte de arriba izquierda del bloque objeto de prediccion y (xN, yN) es un punto en la parte de arriba izquierda del bloque candidato de fusion, puede determinarse si el bloque candidato de fusion espacial se encuentra disponible a traves de las siguientes Expresion matematica 1 y Expresion matematica 2.
<Expresion matematica 1>
(xP »(log2_paralleI_mer ge_level_miinis2+2))
== (xN »(Iog2_parallel_merge_level_miims2+2))
<Expresion matematica 2>
(yP (log2_parallel_inerge_level_iiiiniis2+2))
== (yN »(log2_parallel_merge_level_inmus2+2))
La Expresion matematica 1 y la Expresion matematica 2 anteriores son unas ecuaciones a modo de ejemplo para determinar si el bloque candidato de fusion y el bloque objeto de prediccion estan incluidos en la misma MER. Ademas, puede determinarse si el bloque candidato de fusion y el bloque objeto de prediccion estan incluidos en la misma MER mediante el uso de un metodo que no sea el metodo de determinacion anterior siempre que este no se aleje de la esencia de la presente invencion.
La figura 7 es un diagrama de flujo que ilustra un metodo de obtencion de un bloque candidato de fusion espacial en un modo de fusion de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
Haciendo referencia a la figura 7, se descodifica la informacion en relation con la MER (etapa
S700).
La informacion en relacion con la MER puede ser informacion de elementos de sintaxis, tal como se ha descrito en lo que antecede, y puede incluirse en la estructura de sintaxis de alto nivel. Basandose en la informacion en relacion con la MER descodificada, puede determinarse si el bloque candidato de fusion espacial y el bloque objeto de prediccion estan incluidos en la misma MER o en diferentes MER.
Se determina si el bloque candidato de fusion espacial y el bloque objeto de prediccion estan incluidos en la misma MER (etapa S710).
De acuerdo con una realizacion a modo de ejemplo de la presente invencion, cuando el bloque candidato de fusion del bloque actual y el bloque actual estan incluidos en la misma MER, el bloque candidato de fusion del bloque actual puede excluirse y la informacion de movimiento de por lo menos un bloque de ubicacion diferente del bloque candidato de fusion puede anadirse como un candidato de fusion de acuerdo con el tamano del bloque actual y el tamano de MER (etapa S720). De acuerdo con otra realizacion a modo de ejemplo de la presente invencion, cuando un bloque candidato de fusion espacial y el bloque objeto de prediccion estan incluidos en la misma MER, en lugar de usar el bloque candidato de
5
10
15
20
25
30
35
40
45
50
55
60
fusion espacial incluido en la MER como el bloque candidato de fusion, un bloque incluido en otra MER con otra ubicacion puede sustituir el bloque candidato de fusion espacial para realizar la inter prediccion.
Asi mismo, en otra realizacion a modo de ejemplo, cuando un bloque candidato de fusion espacial y el bloque objeto de prediccion estan incluidos en la misma MER, el bloque candidato de fusion espacial incluido en la MER no puede usarse como el bloque candidato de fusion, tal como se ha descrito en lo que antecede.
Cuando el bloque candidato de fusion espacial y el bloque candidato de prediccion no estan incluidos en la misma MER, la inter prediccion se realiza basandose en un bloque candidato de fusion espacial correspondiente (etapa S730).
La figura 8 es un diagrama de flujo que ilustra un metodo de inter prediccion usando un modo de fusion de acuerdo con una realizacion a modo de ejemplo de la presente invencion.
Haciendo referencia a la figura 8, la informacion en relacion con la prediccion de movimiento se obtiene a partir del candidato de fusion espacial (etapa S800).
El candidato de fusion espacial puede obtenerse a partir de la unidad de prediccion vecina del bloque objeto de prediccion. Con el fin de obtener el candidato de fusion espacial, puede proporcionarse una informacion de anchura y de altura de la unidad de prediccion, la informacion de MER, informacion de singleMCLFlag, e informacion acerca de la ubicacion de subdivision en particiones. Basandose en la informacion de entrada anterior, la informacion (availableFlagN) acerca de la disponibilidad del candidato de fusion espacial, informacion de imagenes de referencia (refIdxLO, refIdxLI), informacion de utilizacion de listas (predFlagLON, predFlagLIN), e informacion de vector de movimiento (mvLON, mvLIN) puede obtenerse de acuerdo con una ubicacion del candidato de fusion espacial. El candidato de fusion espacial puede ser una pluralidad de bloques vecinos al bloque objeto de prediccion.
De acuerdo con una realizacion a modo de ejemplo de la presente invencion, el bloque candidato de fusion espacial puede clasificarse para dar tres tal como sigue: 1) un bloque candidato de fusion espacial que no esta incluido en la misma MER y ya se ha codificado o descodificado, 2) un bloque candidato de fusion espacial que esta incluido en la misma MER, y 3) un bloque candidato de fusion espacial sobre el que no se ha procesado aun la codificacion y la descodificacion.
De acuerdo con una realizacion a modo de ejemplo de la presente invencion, con el fin de realizar la inter prediccion en paralelo en una unidad de la MER, de entre los bloques candidatos de fusion espacial para realizar la inter prediccion, el bloque candidato de fusion espacial que no esta incluido en la misma MER y ya se ha codificado o descodificado puede usarse como el bloque candidato de fusion espacial. Ademas, el bloque candidato de fusion espacial que sustituye una ubicacion del bloque candidato de fusion espacial incluido en la misma MER puede usarse como el bloque candidato de fusion espacial. Dicho de otra forma, de acuerdo con una realizacion a modo de ejemplo de la presente invencion, cuando el bloque candidato de fusion del bloque actual esta incluido en la misma MER que el bloque actual, el bloque candidato de fusion del bloque actual se excluye y la informacion de movimiento de por lo menos un bloque de otra ubicacion puede anadirse como el candidato de fusion de acuerdo con el tamano del bloque actual y el tamano de MER. Tal como se ha descrito en lo que antecede, un metodo de determinacion del bloque candidato de fusion puede realizarse a traves de una etapa de descodificacion de informacion en relacion con la MER (Region de Estimacion de Movimiento), una etapa de determinacion de si el bloque objeto de prediccion y el bloque candidato de fusion estan incluidos en la misma MER, y una etapa de determinacion de que el bloque candidato de fusion se encuentra no disponible para la inter prediccion con el modo de fusion cuando el bloque candidato de fusion y el bloque objeto de prediccion estan incluidos en la misma MER.
De acuerdo con otra realizacion a modo de ejemplo de la presente invencion, de entre los bloques candidatos de fusion espacial para realizar la inter prediccion, solo el bloque candidato de fusion espacial que no esta incluido en la misma MER y ya se ha codificado o descodificado puede usarse para realizar la inter prediccion.
Se obtiene un valor de indice de imagen de referencia del candidato de fusion temporal (etapa
S810).
El valor de indice de imagen de referencia del candidato de fusion temporal es un valor de indice de la imagen Col que incluye el candidato de fusion temporal (bloque Col) y puede obtenerse a traves de una condicion particular como en lo sucesivo. Por ejemplo, cuando un punto en la parte izquierda de arriba del bloque objeto de prediccion es (xP, yP), una anchura del es nPSW, y una altura del bloque objeto de prediccion es nPSH, el valor de indice de imagen de referencia del candidato de fusion temporal puede determinarse como el mismo valor que el valor de indice de imagen de referencia de la unidad de prediccion vecina (a la que se hace referencia en lo sucesivo en el presente documento como “unidad de prediccion vecina para obtener el indice de imagen de referencia") si 1) existe la unidad de prediccion vecina del bloque objeto de prediccion que se corresponde con una ubicacion (xP - 1, yP + nPSH - 1), 2) un valor de indice de particion de la unidad de prediccion vecina para obtener el indice de imagen de referencia es 0, 3) la unidad de prediccion vecina para obtener el indice de imagen de referencia no es un bloque que realiza la prediccion usando el modo de intra prediccion, y 4) el bloque objeto de prediccion y la unidad de prediccion vecina para obtener el indice de imagen de referencia no estan incluidos en la
5
10
15
20
25
30
misma MER (Region de Estimacion de Movimiento). Si las condiciones anteriores no se satisfacen, el valor de indice de imagen de referencia del candidato de fusion temporal puede ajustarse a 0.
El candidato de fusion temporal se determina y la informacion en relacion con la prediction de movimiento se obtiene a partir del candidato de fusion temporal (etapa S820).
Con el fin de determinar el bloque candidato de fusion temporal (bloque Col) y obtener la informacion en relacion con la prediccion de movimiento basada en el bloque candidato de fusion temporal determinado (bloque Col), una ubicacion del bloque Col que se usa para obtener un vector de movimiento de prediccion temporal puede determinarse basandose en condiciones tales como, por ejemplo, si el bloque Col se encuentra disponible para el bloque objeto de prediccion, o donde una ubicacion del bloque objeto de prediccion es relativa a la LCU (por ejemplo, si la ubicacion del bloque objeto de prediccion se encuentra en una frontera de debajo o una frontera derecha relativa a la LCU). A traves de la obtencion de la informacion en relacion con la prediccion de movimiento basada en la informacion de imagenes de referencia determinada del bloque Col y la informacion de vector de prediccion de movimiento, la informacion en relacion con la prediccion de movimiento puede obtenerse a partir del bloque candidato de fusion temporal (bloque Col).
Se construye una lista de candidatos de fusion (etapa S830).
La lista de candidatos de fusion puede construirse mediante la inclusion de por lo menos uno del candidato de fusion espacial y el candidato de fusion temporal. El candidato de fusion espacial y el candidato de fusion temporal incluido en la lista de candidatos de fusion pueden disponerse con una prioridad fijada.
La lista de candidatos de fusion puede construirse mediante la inclusion de un numero fijo de candidatos de fusion. Cuando los candidatos de fusion son deficientes para generar el numero fijo de los candidatos de fusion, un candidato de fusion puede generarse mediante la combination de la informacion en relacion con la prediccion de movimiento del candidato de fusion o la lista de candidatos de fusion puede generarse mediante la adicion de un vector cero como el candidato de fusion.
Tal como se ha descrito en lo que antecede, el metodo anterior de obtencion del candidato de fusion puede usarse no solo en el metodo de prediccion inter-tramas usando el modo de fusion sino tambien en el modo de prediccion inter-tramas usando el modo de omision y la presente realization a modo de ejemplo tambien esta incluida en el alcance de las reivindicaciones de la presente invention.
A pesar de que la presente divulgation se ha descrito con referencia a realizaciones a modo de ejemplo de la misma, los expertos en la materia entenderan que pueden hacerse diversos cambios y modificaciones en la misma sin alejarse del espiritu y el alcance de la presente invencion, tal como se define por las siguientes reivindicaciones.

Claims (4)

  1. 5
    10
    15
    20
    25
    REIVINDICACIONES
    1. Un metodo de determinacion de un bloque candidate de fusion temporal, comprendiendo el metodo: decidir si una frontera de un bloque actual es contigua, o no, a una frontera de una unidad de codificacion que es la mas grande; y
    determinar un bloque candidato de fusion temporal relacionado con el bloque actual de acuerdo con un resultado de la decision, perteneciendo el bloque candidato de fusion temporal a una imagen descodificada, y teniendo la imagen de descodificacion un orden temporal diferente al de una imagen actual que incluye el bloque actual.
  2. 2. El metodo de la reivindicacion 1, en el que la frontera que es contigua del bloque actual y la unidad de codificacion que es la mas grande es una frontera de debajo.
  3. 3. El metodo de la reivindicacion 2, en el que el bloque candidato de fusion temporal es representativo de uno de un primer bloque que incluye una posicion de una muestra de debajo a la derecha en el bloque actual y un segundo bloque que incluye una posicion de una muestra central en el bloque actual.
  4. 4. El metodo de la reivindicacion 3, en el que, cuando la frontera de debajo del bloque actual no es contigua a la frontera de debajo de la unidad de codificacion que es la mas grande, se determina que uno del primer bloque y el segundo bloque es el bloque candidato de fusion temporal, y
    en el que, cuando la frontera de debajo del bloque actual es contigua a la frontera de debajo de la unidad de codificacion que es la mas grande, se determina que el otro del primer bloque y el segundo bloque es el bloque candidato de fusion temporal.
ES201730356A 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo Active ES2631477B1 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-00961382011 2011-09-23
KR20110096138 2011-09-23
KR1020120039500A KR101197176B1 (ko) 2011-09-23 2012-04-17 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-00395002012 2012-04-17

Publications (3)

Publication Number Publication Date
ES2631477A2 true ES2631477A2 (es) 2017-08-31
ES2631477R1 ES2631477R1 (es) 2017-12-12
ES2631477B1 ES2631477B1 (es) 2018-09-20

Family

ID=47914988

Family Applications (16)

Application Number Title Priority Date Filing Date
ES201631233A Active ES2612493B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201531656A Active ES2572577B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730356A Active ES2631477B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850004A Active ES2705331B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730982A Active ES2647572B1 (es) 2011-09-23 2012-09-06 Metodo para inducir un bloque candidato de fusion y dispositivo que usa el mismo
ES201850008A Active ES2705337B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850006A Active ES2705355B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850003A Active ES2705251B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850007A Active ES2705357B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730968A Active ES2647600B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201630378A Active ES2580278B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631231A Active ES2602201B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631232A Active ES2612494B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201490030A Active ES2532857B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730967A Active ES2647622B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850005A Active ES2705334B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES201631233A Active ES2612493B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201531656A Active ES2572577B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo

Family Applications After (13)

Application Number Title Priority Date Filing Date
ES201850004A Active ES2705331B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730982A Active ES2647572B1 (es) 2011-09-23 2012-09-06 Metodo para inducir un bloque candidato de fusion y dispositivo que usa el mismo
ES201850008A Active ES2705337B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850006A Active ES2705355B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850003A Active ES2705251B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850007A Active ES2705357B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730968A Active ES2647600B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201630378A Active ES2580278B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631231A Active ES2602201B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201631232A Active ES2612494B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201490030A Active ES2532857B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201730967A Active ES2647622B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES201850005A Active ES2705334B1 (es) 2011-09-23 2012-09-06 Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo

Country Status (14)

Country Link
US (10) US9253498B2 (es)
EP (2) EP3754990B1 (es)
JP (10) JP5746792B2 (es)
CN (10) CN107071456B (es)
AU (1) AU2012310514B2 (es)
BR (1) BR112013018993B1 (es)
CA (2) CA2968598C (es)
ES (16) ES2612493B1 (es)
GB (5) GB2507910B (es)
MX (4) MX2013008349A (es)
PL (2) PL231926B1 (es)
RU (6) RU2696229C2 (es)
SE (10) SE539969C2 (es)
WO (1) WO2013042888A2 (es)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2549170C2 (ru) 2009-03-23 2015-04-20 Нтт Докомо, Инк. Устройство кодирования с предсказанием изображений, способ кодирования с предсказанием изображений, программа кодирования с предсказанием изображений, устройство декодирования с предсказанием изображений, способ декодирования с предсказанием изображений, программа декодирования с предсказанием изображений
FR2959376A1 (fr) * 2010-04-22 2011-10-28 France Telecom Procede de traitement d'une information de mouvement, procedes de codage et de decodage, dispositifs, signal et programme d'ordinateur correspondants
ES2887236T3 (es) * 2010-07-20 2021-12-22 Ntt Docomo Inc Método de decodificación predictiva de imágenes
EP2727357A1 (en) * 2011-07-01 2014-05-07 Motorola Mobility LLC Motion vector prediction design simplification
US9819963B2 (en) * 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
SI4009641T1 (sl) * 2011-09-09 2023-12-29 Lg Electronics Inc. Postopek za dekodiranje slik, postopek za kodiranje slik, postopek za prenos podatkov za informacije o sliki in računalniško berljiv pomnilniški medij s shranjenim bitnim tokom, ki vključuje informacije o zakodirani sliki
CN107071456B (zh) 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
JP2013118627A (ja) * 2011-10-31 2013-06-13 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
JP5969041B2 (ja) * 2011-11-08 2016-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置
JP5835208B2 (ja) * 2011-12-28 2015-12-24 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5842803B2 (ja) * 2011-12-28 2016-01-13 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
WO2016085229A1 (ko) 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2016085231A1 (ko) * 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017105097A1 (ko) * 2015-12-17 2017-06-22 삼성전자 주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
CN116506597A (zh) * 2016-08-03 2023-07-28 株式会社Kt 视频解码方法、视频编码方法和视频数据的传送方法
CN116866568A (zh) * 2016-10-04 2023-10-10 株式会社Kt 用于处理视频信号的方法和装置
US10484703B2 (en) 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10655846B2 (en) 2017-09-18 2020-05-19 Haier Us Appliance Solutions, Inc. Gas burner assembly for a cooktop appliance
US11350118B2 (en) * 2018-05-30 2022-05-31 Digitalinsights Inc. Image encoding/decoding method and device
US11412246B2 (en) 2018-06-08 2022-08-09 Kt Corporation Method and apparatus for processing video signal
CN116320489A (zh) 2018-06-29 2023-06-23 北京字节跳动网络技术有限公司 视频处理方法、编码装置和解码装置
EP3831062A4 (en) * 2018-08-17 2022-07-06 HFI Innovation Inc. SIMPLIFIED SUBMODE METHOD AND APPARATUS FOR VIDEO CODING
WO2020048366A1 (en) 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Coding method, device, system with merge mode
CN110650344B (zh) * 2018-09-14 2022-01-21 北京达佳互联信息技术有限公司 生成合并候选列表的方法、装置以及电子设备、存储介质
KR102616766B1 (ko) * 2018-09-22 2023-12-27 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
CN110944184B (zh) * 2018-09-25 2022-05-31 华为技术有限公司 视频解码方法及视频解码器
CN110958452B (zh) * 2018-09-27 2023-11-03 华为技术有限公司 视频解码方法及视频解码器
US11172214B2 (en) * 2018-12-21 2021-11-09 Qualcomm Incorporated Derivation of processing area for parallel processing in video coding
WO2020140218A1 (zh) * 2019-01-02 2020-07-09 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置
WO2020164544A1 (en) 2019-02-13 2020-08-20 Beijing Bytedance Network Technology Co., Ltd. Updating of history based motion vector prediction tables
CN111240622B (zh) * 2020-01-07 2022-01-25 卡莱特云科技股份有限公司 一种绘制方法及装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1234567A (es) * 1967-06-22 1971-06-03
CH682614A5 (fr) * 1990-02-21 1993-10-15 Kudelski Sa Procédé d'embrouillage et de désembrouillage d'un signal vidéo.
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
KR0134483B1 (ko) * 1994-06-14 1998-05-15 배순훈 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder)
US5666170A (en) * 1995-07-12 1997-09-09 Thomson Consumer Electronics, Inc. Apparatus for decoding video signals encoded in different formats
US7099949B1 (en) * 1995-10-23 2006-08-29 Imec Vzw Interprocess communication protocol system
CN1293759C (zh) * 2001-09-06 2007-01-03 佳能株式会社 图象处理方法和装置,图象处理系统以及存储介质
CN1219283C (zh) * 2001-08-07 2005-09-14 北京大恒鼎芯科技有限公司 可视音带的图文数据生成和编码方法及图文数据播放装置
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
JP3977716B2 (ja) * 2002-09-20 2007-09-19 株式会社東芝 動画像符号化/復号化方法及び装置
JP2005175997A (ja) * 2003-12-12 2005-06-30 Sony Corp 復号化装置、電子機器、コンピュータ、復号化方法、プログラム及び記録媒体
KR20050075483A (ko) * 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP5089878B2 (ja) * 2005-10-28 2012-12-05 パナソニック株式会社 画像符号化装置
KR100934674B1 (ko) * 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US8213509B2 (en) * 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
TWI368443B (en) * 2006-11-09 2012-07-11 Lg Electronics Inc Method and apparatus for decoding/encoding a video signal
EP2106666B1 (en) * 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
EP2453655A1 (en) * 2007-04-09 2012-05-16 NTT DoCoMo, Inc. Image coding using template matching
KR100921465B1 (ko) * 2007-04-19 2009-10-13 엘지전자 주식회사 디지털 방송 신호 송수신기 및 그 제어 방법
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
KR101123285B1 (ko) * 2007-10-25 2012-03-20 니폰덴신뎅와 가부시키가이샤 동화상 스케일러블 부호화 방법 및 복호 방법, 그 장치, 그 프로그램 및 프로그램을 기록한 기록매체
US7844937B2 (en) * 2007-12-06 2010-11-30 Freescale Semiconductor, Inc. Method and apparatus for making a semiconductor device using hardware description having merged functional and test logic blocks
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
KR101578052B1 (ko) * 2008-04-02 2015-12-17 삼성전자주식회사 움직임 추정 장치 및 이를 구비하는 동영상 부호화 장치
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4670918B2 (ja) * 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
US8665964B2 (en) * 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US8379718B2 (en) 2009-09-02 2013-02-19 Sony Computer Entertainment Inc. Parallel digital picture encoding
KR20110033676A (ko) 2009-09-25 2011-03-31 삼성중공업 주식회사 해수 유입 차단 장치
KR101348613B1 (ko) * 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
US8755437B2 (en) 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
AU2012208842B2 (en) 2011-01-19 2014-08-07 Hfi Innovation Inc. Method and apparatus for parsing error robustness of temporal Motion Vector Prediction
CN103583047B (zh) * 2011-03-14 2017-03-29 寰发股份有限公司 导出运动矢量预测子的方法与装置
KR101532665B1 (ko) 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
SI4009641T1 (sl) 2011-09-09 2023-12-29 Lg Electronics Inc. Postopek za dekodiranje slik, postopek za kodiranje slik, postopek za prenos podatkov za informacije o sliki in računalniško berljiv pomnilniški medij s shranjenim bitnim tokom, ki vključuje informacije o zakodirani sliki
KR101391829B1 (ko) * 2011-09-09 2014-05-07 주식회사 케이티 시간적 후보 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
GB2559226B (en) * 2011-09-09 2018-11-28 Kt Corp Method for deriving a temporal predictive motion vector
CN107071456B (zh) 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
JP5969041B2 (ja) 2011-11-08 2016-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置
US20130125904A1 (en) 2011-11-18 2013-05-23 R.J. Reynolds Tobacco Company Smokeless tobacco product comprising pectin component
DK3503554T3 (da) 2011-12-16 2020-05-11 Jvc Kenwood Corp Dynamisk billedkodningsapparat, dynamisk billedkodningsfremgangsmåde, dynamisk billedkodningsprogram
EP2797325A4 (en) 2011-12-23 2015-09-16 Korea Electronics Telecomm METHOD AND DEVICE FOR DETERMINING A REFERENCE FILE INDEX OF A TIMELY COMBINATION CANDIDATE
WO2013099285A1 (ja) * 2011-12-28 2013-07-04 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
EP2806636A1 (en) * 2012-01-19 2014-11-26 Sony Corporation Image processing device and method

Also Published As

Publication number Publication date
PL407774A1 (pl) 2015-05-25
GB201803930D0 (en) 2018-04-25
CN107105269A (zh) 2017-08-29
ES2705331R1 (es) 2019-04-23
CN107105269B (zh) 2020-01-10
EP3754990A1 (en) 2020-12-23
RU2016101148A3 (es) 2019-05-27
US20130279595A1 (en) 2013-10-24
ES2580278B1 (es) 2017-07-05
CA2824755A1 (en) 2013-03-28
ES2647600B1 (es) 2018-11-07
CN107087193A (zh) 2017-08-22
US20180152718A1 (en) 2018-05-31
US9253499B2 (en) 2016-02-02
CN107094259A (zh) 2017-08-25
SE1651051A1 (sv) 2016-07-13
ES2647622B1 (es) 2018-11-07
US9930359B2 (en) 2018-03-27
ES2647572B1 (es) 2019-01-17
ES2647572A2 (es) 2017-12-22
ES2705251R1 (es) 2019-04-23
RU2696229C2 (ru) 2019-07-31
RU2016101150A3 (es) 2019-05-29
JP5969654B2 (ja) 2016-08-17
RU2696304C2 (ru) 2019-08-01
US20170094309A1 (en) 2017-03-30
JP6279700B2 (ja) 2018-02-14
ES2612493R1 (es) 2017-05-31
US9924185B2 (en) 2018-03-20
SE1850158A1 (en) 2018-02-14
ES2612494B1 (es) 2018-01-26
RU2016100984A (ru) 2018-11-19
US10182237B2 (en) 2019-01-15
US20150172695A1 (en) 2015-06-18
CA2824755C (en) 2018-01-16
ES2647622R1 (es) 2018-02-28
GB201402657D0 (en) 2014-04-02
US20160105683A1 (en) 2016-04-14
ES2647572R1 (es) 2018-04-02
CN103444172A (zh) 2013-12-11
ES2580278A2 (es) 2016-08-23
RU2016100984A3 (es) 2019-05-29
GB201717601D0 (en) 2017-12-13
WO2013042888A2 (ko) 2013-03-28
GB2556695B (en) 2018-11-14
BR112013018993A2 (pt) 2021-02-02
US9578348B2 (en) 2017-02-21
RU2015153835A3 (es) 2019-05-29
RU2013134438A (ru) 2015-10-27
CN107105268A (zh) 2017-08-29
EP2787728B1 (en) 2020-11-11
CN103444172B (zh) 2017-02-08
ES2572577R1 (es) 2016-07-01
US20160323593A1 (en) 2016-11-03
CA2968598C (en) 2019-04-30
RU2696237C2 (ru) 2019-07-31
SE542454C2 (sv) 2020-05-05
ES2631477B1 (es) 2018-09-20
RU2015153835A (ru) 2019-01-16
CN107071456B (zh) 2020-09-04
ES2705251B1 (es) 2020-01-29
SE1651203A1 (sv) 2016-09-07
GB2557516A (en) 2018-06-20
JP2018088695A (ja) 2018-06-07
JP2014520478A (ja) 2014-08-21
SE1850140A2 (sv) 2018-12-11
ES2705355R1 (es) 2019-04-23
GB2557517A8 (en) 2018-07-11
SE1651199A2 (en) 2017-01-10
RU2696301C2 (ru) 2019-08-01
CN106878744A (zh) 2017-06-20
GB2562132B (en) 2019-01-23
ES2612494R1 (es) 2017-06-08
ES2612493A2 (es) 2017-05-17
ES2705251A2 (es) 2019-03-22
GB2557516B (en) 2018-11-14
US20160100182A1 (en) 2016-04-07
GB2556695A (en) 2018-06-06
ES2532857B1 (es) 2015-12-04
ES2647600R1 (es) 2018-03-06
RU2016101150A (ru) 2018-11-19
ES2647600A2 (es) 2017-12-22
SE1450126A1 (sv) 2014-04-23
SE1651203A2 (en) 2017-01-10
CN107105279A (zh) 2017-08-29
JP5746792B2 (ja) 2015-07-08
ES2602201A2 (es) 2017-02-20
ES2705357A2 (es) 2019-03-22
ES2572577B1 (es) 2017-06-13
WO2013042888A3 (ko) 2013-05-30
ES2631477R1 (es) 2017-12-12
SE542455C2 (sv) 2020-05-05
JP2017085609A (ja) 2017-05-18
JP6595019B2 (ja) 2019-10-23
AU2012310514A1 (en) 2013-08-08
MX2013008349A (es) 2013-11-04
ES2705334R1 (es) 2019-04-23
SE1651199A1 (sv) 2016-09-07
JP6595020B2 (ja) 2019-10-23
ES2705334A2 (es) 2019-03-22
AU2012310514B2 (en) 2014-12-04
CN106878744B (zh) 2020-06-19
GB201717600D0 (en) 2017-12-13
EP2787728A2 (en) 2014-10-08
US20180160135A1 (en) 2018-06-07
GB2557517A (en) 2018-06-20
CN107105267B (zh) 2020-09-04
ES2532857A2 (es) 2015-04-01
ES2602201B1 (es) 2018-01-26
SE1850159A1 (en) 2018-02-14
RU2016101153A3 (es) 2019-05-06
ES2612494A2 (es) 2017-05-17
SE1651202A2 (en) 2017-01-10
GB2557516A8 (en) 2018-07-11
JP2015180074A (ja) 2015-10-08
CN107071456A (zh) 2017-08-18
SE1850159A2 (sv) 2018-12-11
GB2507910A (en) 2014-05-14
ES2580278R1 (es) 2016-09-28
US10165294B2 (en) 2018-12-25
ES2705337A2 (es) 2019-03-22
ES2705337B1 (es) 2020-02-05
JP6062509B2 (ja) 2017-01-18
US9554144B2 (en) 2017-01-24
MX352017B (es) 2017-11-06
SE1850158A2 (sv) 2018-12-11
CN104349170A (zh) 2015-02-11
ES2705357R1 (es) 2019-04-23
EP3754990B1 (en) 2024-05-08
RU2016101153A (ru) 2018-11-19
JP6545838B2 (ja) 2019-07-17
GB2507910B (en) 2018-12-12
ES2705331B1 (es) 2020-01-29
JP2016007043A (ja) 2016-01-14
SE1651201A2 (en) 2017-01-10
SE1651201A1 (sv) 2016-09-07
MX341932B (es) 2016-09-08
GB2557517B (en) 2018-11-14
ES2705355B1 (es) 2020-01-29
PL231926B1 (pl) 2019-04-30
JP2016007044A (ja) 2016-01-14
ES2532857R1 (es) 2015-04-30
JP2015180075A (ja) 2015-10-08
JP6279699B2 (ja) 2018-02-14
US10165295B2 (en) 2018-12-25
JP2018088696A (ja) 2018-06-07
US9253498B2 (en) 2016-02-02
CN107094259B (zh) 2020-10-13
BR112013018993B1 (pt) 2022-05-03
JP6009633B2 (ja) 2016-10-19
ES2705331A2 (es) 2019-03-22
EP2787728A4 (en) 2015-07-08
ES2705337R1 (es) 2019-04-29
US20180152717A1 (en) 2018-05-31
SE539969C2 (sv) 2018-02-13
CA2968598A1 (en) 2013-03-28
GB2562132A (en) 2018-11-07
ES2602201R1 (es) 2017-05-23
JP6130430B2 (ja) 2017-05-17
CN107105279B (zh) 2020-03-06
JP2018088697A (ja) 2018-06-07
CN107105268B (zh) 2020-10-23
PL2787728T3 (pl) 2021-05-17
SE542456C2 (sv) 2020-05-05
ES2572577A2 (es) 2016-06-01
SE1651202A1 (en) 2016-09-07
SE542569C2 (sv) 2020-06-09
ES2705355A2 (es) 2019-03-22
SE1850140A1 (en) 2018-02-09
US20160295236A1 (en) 2016-10-06
CN107105267A (zh) 2017-08-29
JP2017085611A (ja) 2017-05-18
RU2576499C2 (ru) 2016-03-10
CN106878743B (zh) 2020-07-17
GB201803926D0 (en) 2018-04-25
US9357225B2 (en) 2016-05-31
RU2016101148A (ru) 2018-11-16
ES2647622A2 (es) 2017-12-22
RU2694018C2 (ru) 2019-07-08
ES2705334B1 (es) 2020-01-29
ES2705357B1 (es) 2020-01-29
ES2612493B1 (es) 2018-01-26
MX352016B (es) 2017-11-06
SE1651050A1 (sv) 2016-07-13
CN106878743A (zh) 2017-06-20
CN107087193B (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
ES2612494B1 (es) Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES2948265T3 (es) Método de codificación/descodificación de señales de imagen y aparato para el mismo
ES2955938T3 (es) Intrapredicción en codificación de vídeo
CN110999293B (zh) 图像编码/解码方法和装置以及存储比特流的记录介质
ES2710234B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2786077B2 (es) Metodo y aparato para procesar una senal de video
ES2719132B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2913828T3 (es) Método de predicción inter y aparato correspondiente
ES2954591T3 (es) Aparato de decodificación de vídeo y aparato de codificación de vídeo
KR20230150240A (ko) 영상 부호화/복호화 방법 및 이를 위한 기록 매체
ES2489816A2 (es) Método para gestionar una lista de imágenes de referencia, y aparato que lo usa
ES2459890A2 (es) Método de predicción intra, y codificador y descodificador que lo usan

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2631477

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20180920