ES2487993A2 - Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento - Google Patents

Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento Download PDF

Info

Publication number
ES2487993A2
ES2487993A2 ES201390098A ES201390098A ES2487993A2 ES 2487993 A2 ES2487993 A2 ES 2487993A2 ES 201390098 A ES201390098 A ES 201390098A ES 201390098 A ES201390098 A ES 201390098A ES 2487993 A2 ES2487993 A2 ES 2487993A2
Authority
ES
Spain
Prior art keywords
block
prediction
contour
lcu
costed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201390098A
Other languages
English (en)
Other versions
ES2487993R1 (es
ES2487993B1 (es
Inventor
Jae Cheol Kwon
Joo Young Kim
Bae Keun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by KT Corp filed Critical KT Corp
Publication of ES2487993A2 publication Critical patent/ES2487993A2/es
Publication of ES2487993R1 publication Critical patent/ES2487993R1/es
Application granted granted Critical
Publication of ES2487993B1 publication Critical patent/ES2487993B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Se revelan un procedimiento de obtención de un vector temporal predictor de movimiento, y un aparato que utiliza el procedimiento. Un procedimiento de descodificación de imágenes puede comprender las etapas de: determinar si un bloque por predecir entra o no en contacto con un contorno de una máxima unidad de codificación (LCU); y determinar si un primer bloque de llamada está o no disponible, según que el bloque por predecir entre o no en contacto con el contorno de la LCU. En consecuencia, puede reducirse el ancho de banda de memoria innecesario, y la complejidad de la implementación también puede ser reducida.

Description

P201390098
12-12-2013
Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento
DESCRIPCIÓN
5
Objeto de la invención
La presente invención se refiere a un procedimiento de codificación y descodificación de vídeo y, más específicamente, la presente invención corresponde a un procedimiento para
10 obtener un vector temporal de predicción de movimiento y un aparato para usar este procedimiento.
Antecedentes de la invención
15 En los años recientes, la demanda de vídeo de alta resolución y alta calidad, tal como el vídeo HD (Alta Definición) y el vídeo UHD (Ultra Alta Definición), ha aumentado en diversas áreas. Según los datos de vídeo llegan a tener alta resolución y / o alta calidad, la cantidad de datos de vídeo sube relativamente, en comparación con los datos de vídeo existentes y, por tanto, cuando los datos de vídeo son transmitidos mediante una red convencional de
20 banda ancha cableada / inalámbrica, o son almacenados en un medio de almacenamiento existente, los costes para la transmisión y el almacenamiento aumentan. Para abordar tales problemas, que ocurren según los datos de vídeo llegan a la alta resolución y la alta calidad, pueden ser utilizadas tecnologías de compresión de vídeo de alta eficacia.
25 Un buen número de esquemas han sido introducidos para la compresión de vídeo, tales como el esquema de inter-predicción que predice los valores de píxel incluidos en una imagen actual a partir de una imagen antes o después de la imagen actual, el esquema de intra-predicción que predice los valores de píxel incluidos en una imagen actual usando información de píxeles en la imagen actual, y el esquema de codificación por entropía que
30 asigna una palabra de código más breve a un valor que ocurre con más frecuencia, mientras que asigna una palabra de código más larga a un valor que ocurre menos frecuentemente. Tales esquemas de compresión de vídeo pueden ser utilizados para comprimir, transmitir o almacenar efectivamente datos de vídeo.
35 Breve descripción de la invención
P201390098
12-12-2013
【Problema técnico】
Un objeto de la presente invención es proporcionar un procedimiento de obtención de un vector temporal de predicción de movimiento para un bloque adyacente a un contorno de 5 una LCU (Máxima Unidad de Codificación).
Otro objeto de la presente invención es proporcionar un aparato de realización de un procedimiento de obtención de un vector temporal de predicción de movimiento para un bloque adyacente a un contorno de una LCU.
10
【Solución técnica】
Para lograr el primer objeto de la presente invención, según un aspecto de la presente invención, un procedimiento de descodificación de vídeo incluye las etapas de determinar un 15 índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción; y determinar un vector de predicción de movimiento del bloque cosituado, donde el bloque cosituado es un bloque determinado de manera adaptable por una ubicación del bloque de destino de predicción dentro de una Máxima Unidad de Codificación (LCU). El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de 20 destino de predicción es o no adyacente a un contorno de una LCU. El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de destino de predicción es adyacente o no a un contorno de LCU, y si solamente un contorno derecho del bloque de destino de predicción es adyacente o no al contorno de LCU. El bloque cosituado puede ser determinado haciendo referencia a posiciones de píxeles dentro de la LCU. Si un
25 lado izquierdo o un contorno inferior del bloque de destino de predicción no es adyacente al contorno de LCU, un primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque cosituado en una posición correspondiente.
30 Para lograr el segundo objeto de la presente invención, según un aspecto de la presente invención, un procedimiento de descodificación de vídeo puede incluir las etapas de determinar si un contorno de un bloque de destino de predicción es adyacente o no a un contorno de una LCU; y determinar la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al
35 contorno de la LCU. El procedimiento de descodificación de vídeo puede incluir adicionalmente la etapa de determinar otro bloque cosituado, excepto el primer bloque
P201390098
12-12-2013
cosituado, como un bloque cosituado para obtener un vector temporal de predicción de movimiento, si se determina que el primer bloque cosituado no está disponible. La etapa de determinar el otro bloque cosituado, excepto el primer bloque cosituado, como el bloque cosituado para obtener el vector temporal de predicción de movimiento si el primer bloque 5 cosituado no está disponible, es una etapa para determinar distintos bloques cosituados, para obtener el vector temporal de predicción de movimiento para el caso donde un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso donde solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU. La etapa de determinar la disponibilidad del primer bloque 10 cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU, es una etapa para determinar el primer bloque cosituado como no disponible si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU. La etapa de determinar el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer
15 bloque cosituado está disponible, o de determinar la disponibilidad de un quinto bloque cosituado si el primer bloque cosituado no está disponible, puede estar adicionalmente comprendida.
Para lograr el tercer objeto de la presente invención, según un aspecto de la presente
20 invención, un aparato de descodificación de vídeo incluye una unidad de descodificación por entropía, que descodifica información de tamaño de LCU, y una unidad de predicción que determina un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción y que determina un vector de predicción de movimiento del bloque cosituado, en donde el bloque cosituado es un bloque determinado de manera adaptable por
25 una ubicación del bloque de destino de predicción dentro de una LCU. El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de LCU. El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de LCU y si solamente un contorno derecho del bloque de destino
30 de predicción es o no adyacente al contorno de la LCU. El bloque cosituado puede ser determinado haciendo referencia a posiciones de píxeles dentro de la LCU. Si un lado izquierdo, o un contorno inferior, del bloque de destino de predicción no es adyacente al contorno de LCU, un primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque
35 cosituado en una posición correspondiente.
P201390098
12-12-2013
Para lograr el cuarto objeto de la presente invención, según un aspecto de la presente invención, una unidad de descodificación de vídeo puede incluir una unidad de descodificación por entropía que descodifica información de tamaño de LCU, y una unidad de predicción que determina si un contorno de un bloque de destino de predicción es o no 5 adyacente a un contorno de una LCU, y que determina la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU. La unidad de predicción puede determinar otro bloque cosituado, excepto el primer bloque cosituado, como un bloque cosituado, para obtener un vector temporal de predicción de movimiento, si se determina que el primer bloque cosituado 10 no está disponible. La unidad de predicción puede determinar distintos bloques cosituados para obtener el vector temporal de predicción de movimiento, para el caso donde un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso donde solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU. La unidad de predicción puede determinar el primer 15 bloque cosituado como no disponible si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU. La unidad de predicción puede determinar el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, o puede determinar la disponibilidad de un quinto bloque cosituado, si el primer bloque cosituado no está
20 disponible.
【Efectos ventajosos】
Como se ha descrito en lo que antecede, el procedimiento de obtención de un vector
25 temporal de predicción de movimiento, y un aparato de utilización del procedimiento según una realización de la presente invención, pueden utilizar de manera diferente una imagen cosituada (o co-situada), de la cual se obtiene un vector temporal de movimiento, según que un bloque de destino de predicción sea o no adyacente a una LCU. Usando este procedimiento, el ancho de banda de memoria, usado innecesariamente para obtener un
30 vector de movimiento temporal, puede ser reducido, y la complejidad en la implementación puede ser minimizada.
Breve descripción de los dibujos
35 La Fig. 1 es un diagrama de bloques que ilustra un aparato de codificación de vídeo según una realización de la presente invención.
P201390098
12-12-2013
La Fig. 2 es un diagrama de bloques que ilustra un descodificador de vídeo según otra realización de la presente invención.
5 La Fig. 3 es una vista conceptual que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento según una realización de la presente invención.
La Fig. 4 es un diagrama de flujo que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento según una realización de la presente invención.
10
La Fig. 5 es una vista conceptual que ilustra una posición de un bloque cosituado, para obtener un vector de movimiento temporal según una realización de la presente invención.
La Fig. 6 es una vista conceptual que ilustra un procedimiento de determinación de un 15 bloque cosituado, para obtener un vector de predicción de movimiento según una realización de la presente invención.
La Fig. 7 es una vista conceptual que ilustra un caso donde un bloque de destino de predicción es adyacente a un contorno inferior de una LCU, según una realización de la 20 presente invención.
La Fig. 8 es un diagrama de flujo que ilustra un procedimiento de inter-predicción que usa una modalidad de fusión, según una realización de la presente invención.
25 La Fig. 9 es una vista conceptual que ilustra ubicaciones de candidatos a la fusión espacial, según una realización de la presente invención.
La Fig. 10 es un diagrama de flujo que ilustra un procedimiento de inter-predicción que usa la AMVP (Predicción Avanzada de Vector de Movimiento), según una realización de la 30 presente invención.
Realización preferente de la invención
Pueden hacerse diversas modificaciones a la presente invención, y la presente invención 35 puede tener un buen número de realizaciones. Las realizaciones específicas son descritas en detalle, con referencia a las figuras. Sin embargo, la presente invención no está limitada a
P201390098
12-12-2013
las realizaciones específicas, y debería entenderse que la presente invención incluye todas las modificaciones, equivalentes o sustituciones, que estén incluidos en el espíritu y el ámbito técnico de la presente invención. Marcas similares de referencia pueden ser usadas entre módulos similares cuando se explican las figuras.
5
Los términos “primero” y “segundo” pueden ser usados para describir diversos componentes (o características). Sin embargo, los componentes no están limitados a ello. Estos términos son usados solamente para distinguir entre un componente y otro. Por ejemplo, el primer componente también puede ser nombrado como el segundo componente, y el segundo
10 componente, de manera similar, puede ser nombrado como el primer componente. El término “y / o” incluye una combinación de una pluralidad de elementos relacionados, según lo descrito en la presente memoria, o uno cualquiera entre la pluralidad de elementos relacionados.
15 Cuando un componente (o característica) está “conectado” o “acoplado” con otro componente, el componente puede estar directamente conectado o acoplado con el otro componente. Por el contrario, cuando un componente está “directamente conectado o acoplado” con otro componente, no interviene ningún componente.
20 Los términos usados en la presente memoria están dados para describir las realizaciones, pero no concebidos para limitar la presente invención. Un término singular incluye un término plural, a menos que se indique otra cosa claramente en el contexto. Según se usan en la presente memoria, los términos “incluir” o “tener”, etc., son usados para indicar que hay características, números, etapas, operaciones, componentes, partes o combinaciones
25 de los mismos según lo descrito en la presente memoria, pero no excluyen la presencia o posibilidad de agregar uno o más características, números, etapas, operaciones, componentes, partes o componentes de los mismos.
En adelante en la presente memoria, se describirán las realizaciones preferidas de la
30 presente invención en mayor detalle, con referencia a los dibujos adjuntos. Los mismos números de referencia se refieren a los mismos componentes en toda la extensión de los dibujos, y no se repite la descripción de los mismos componentes.
La Fig. 1 es un diagrama de bloques que ilustra un aparato de codificación de vídeo según 35 una realización de la presente invención.
P201390098
12-12-2013
Con referencia a la Fig. 1, el aparato 100 de codificación de vídeo puede incluir un módulo 110 de división de imágenes, un módulo 120 de inter-predicción, un módulo 125 de intrapredicción, un módulo 130 de transformación, un módulo 135 de cuantización, un módulo 160 de redisposición, un módulo 165 de codificación por entropía, un módulo 140 de
5 descuantización, un módulo 145 de transformación inversa, un módulo 150 de filtrado y una memoria 155.
Cada módulo de la Fig. 1 se muestra independientemente de los otros, para representar distintas funciones entre ellos, en el aparato de codificación de vídeo, pero esto no significa 10 que cada módulo debería ser implementado en una unidad de módulo (componente) de hardware o software por separado. Es decir, para facilitar la descripción, los módulos se muestran como proporcionados de manera independiente, y al menos dos de los módulos pueden ser combinados para constituir un módulo, o bien uno de los módulos puede ser dividido en una pluralidad de módulos para realizar funciones. Las realizaciones de
15 combinaciones de los módulos, o las realizaciones de separación de los módulos, también están incluidas en el ámbito de la presente invención, sin apartarse de la esencia de la presente invención.
Además, algunos de los módulos pueden no ser módulos esenciales que realizan funciones
20 esenciales de la presente invención, pero pueden ser más bien módulos optativos para mejorar las prestaciones. La presente invención puede incluir solamente los módulos esenciales necesarios para implementar el núcleo de la presente invención, excluyendo los módulos usados meramente para unas mejores prestaciones, y esta estructura también está incluida en el ámbito de la presente invención.
25 Un módulo 110 de división de imágenes puede dividir una imagen de entrada en al menos una unidad de procesamiento. En este momento, la unidad de procesamiento puede ser una unidad de predicción (PU), una unidad de transformación (TU) o una unidad de codificación (CU). El módulo 110 de división de imágenes puede codificar la imagen dividiendo una
30 imagen en una combinación de una pluralidad de unidades de codificación, unidades de predicción y unidades de transformación, y una combinación de una unidad de codificación, una unidad de predicción y una unidad de transformación puede ser seleccionada según un estándar (o referencia) predeterminado, tal como una función de coste, y puede ser codificada.
35
Por ejemplo, una imagen puede ser dividida en una pluralidad de unidades de codificación.
P201390098
12-12-2013
Una estructura de árbol recursivo, tal como una estructura de árbol de cuatro ramas, puede ser usada para dividir una imagen en unidades de codificación. Con una imagen, o una máxima unidad de codificación, como raíz, una unidad de codificación puede ser dividida en otras unidades de codificación, con tantos nodos hijos como el número de las unidades de
5 codificación divididas. La unidad de codificación que ya no se divide más, debido a una limitación predeterminada, es un nodo hoja. Es decir, suponiendo que solamente se dispone de división de forma cuadrada para una unidad de codificación, la unidad de codificación puede ser dividida en un máximo de otras cuatro unidades de codificación.
10 En adelante en la presente memoria, en realizaciones de la presente invención, la unidad de codificación puede significar una unidad en la cual se realiza la descodificación, así como la codificación.
Una unidad de predicción puede ser dividida en forma de al menos un cuadrado o 15 rectángulo, con el mismo tamaño dentro de una unidad de codificación.
Tras la generación de una unidad de predicción en la cual se realiza la intra-predicción en base a una unidad de codificación, si la unidad de codificación no es una unidad mínima de codificación, la intra-predicción puede ser realizada sin dividir la unidad de predicción en una
20 pluralidad de NxN unidades de predicción.
Un módulo de predicción puede incluir un módulo 120 de inter-predicción que realiza una inter-predicción y un módulo 125 de intra-predicción que realiza una intra-predicción. Puede determinarse si se realiza la inter-predicción o la intra-predicción con respecto a la unidad de 25 predicción y, según cada procedimiento de predicción, puede determinarse información específica (p. ej., modalidad de intra-predicción, vector de movimiento, imagen de referencia, etc.). En este momento, una unidad de procesamiento en la cual se realiza la predicción puede diferir de una unidad de procesamiento en la cual se determinan el procedimiento de predicción y sus detalles. Por ejemplo, el procedimiento de predicción y la modalidad de 30 predicción pueden ser realizadas en una unidad de transformación. Un valor residual (bloque residual) entre un bloque de predicción generado y un bloque original puede ser ingresado al módulo 130 de transformación. Además, la información de modalidad de predicción y la información del vector de movimiento, etc., usadas para la predicción, junto con el valor residual, pueden ser codificadas en un módulo 165 de codificación por entropía 35 y pueden ser luego transmitidas a un aparato de descodificación. Si se usa una modalidad específica de codificación, en lugar de generar el bloque de predicción por los módulos 120
P201390098
12-12-2013
y 125 de predicción, el bloque original, según está, puede ser codificado y transmitido al aparato de descodificación.
El módulo de inter-predicción puede predecir una unidad de predicción en base a
5 información de al menos una imagen, entre las imágenes anteriores a una imagen actual, o a imágenes después de la imagen actual. El módulo de inter-predicción puede incluir un módulo de interpolación de imágenes de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.
10 El módulo de interpolación de imágenes de referencia puede recibir información de imágenes de referencia desde la memoria 155, y puede generar información de píxeles en la unidad, con menos de una unidad entera de píxel, dentro de la imagen de referencia. En el caso de píxeles de luma, puede usarse un filtro de interpolación de 8 tomas basado en la DCT (Transformación Discreta de Coseno), con distintos coeficientes de filtro para cada
15 toma, para generar la información de píxeles en la unidad con menos de la unidad entera de píxeles, una unidad de 1/4 de píxel. En el caso de una señal de croma, puede usarse un filtro de interpolación de 4 tomas basado en la DCT, con distintos coeficientes de filtro para cada toma, para generar la información de píxeles en la unidad con menos de la unidad entera de píxeles, una unidad de 1/8 de píxel.
20 Un módulo de predicción de movimiento puede realizar la predicción del movimiento en base a una imagen de referencia interpolada por el módulo de interpolación de imágenes de referencia. Para obtener un vector de movimiento, pueden usarse diversos procedimientos, tales como el FBMA (Algoritmo de Correlación de Bloques basado en la Búsqueda
25 Completa), la TSS (Búsqueda en Tres Etapas), el NTS (Nuevo Algoritmo de Búsqueda en Tres Etapas), etc. El vector de movimiento puede tener un valor de vector de movimiento en una unidad de 1/2 píxel, o en una unidad de 1/4 de píxel, en base a un píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad actual de predicción aplicando diversos procedimientos de predicción de movimiento. En cuanto al procedimiento
30 de predicción de movimiento, pueden usarse diversos procedimientos, tales como un procedimiento de omisión, un procedimiento de fusión, o un procedimiento de AMVP (Predicción Avanzada de Vector de Movimiento).
Según una realización de la presente invención, el módulo de inter-predicción puede 35 determinar si un contorno de un bloque de destino de predicción es adyacente o no a un contorno de una LCU (Máxima Unidad de Codificación), y puede determinar si un primer
P201390098
12-12-2013
bloque cosituado (o co-situado) está o no disponible, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU. Por ejemplo, en el caso de que el primer bloque cosituado no esté disponible, un segundo bloque cosituado puede ser determinado como un bloque cosituado para obtener un vector
5 temporal de predicción de movimiento. O bien, en el caso de que el primer bloque cosituado no esté disponible, puede cambiarse una posición del primer bloque cosituado, y el primer bloque cosituado, cambiado de posición, puede ser determinado como un bloque cosituado para obtener un vector temporal de predicción de movimiento.
10 Además, el módulo de inter-predicción puede incluir un módulo predictor que determina un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción, y que determina un vector de predicción de movimiento del bloque cosituado. El bloque cosituado puede ser determinado de manera adaptable, según una ubicación del bloque de destino de predicción en la LCU (Máxima Unidad de Codificación). En adelante en
15 la presente memoria, se describe en detalle el funcionamiento del módulo de predicción según la presente invención.
El módulo de inter-predicción puede generar una unidad de predicción en base a información sobre un píxel de referencia vecino al bloque actual, que es información de píxel 20 sobre los píxeles en la imagen actual. En el caso en que el bloque vecino a la unidad de predicción actual es un bloque al que se aplica la inter-predicción y, por tanto, el píxel de referencia es un píxel obtenido a través de la inter-predicción, el píxel de referencia incluido en el bloque al cual se aplica la inter-predicción puede ser reemplazado usando información de píxeles de referencia de un bloque al cual se aplica la intra-predicción. Es decir, en el
25 caso en que no está disponible un píxel de referencia, la información de píxel de referencia no disponible puede ser reemplazada por al menos uno de los píxeles de referencia disponibles.
En cuanto a la intra-predicción, las modalidades de predicción pueden incluir una modalidad
30 de predicción direccional, en la cual la información de píxeles de referencia se usa según una dirección de predicción, y una modalidad no direccional, en la cual, tras la predicción, no se usa ninguna información direccional. Una modalidad para predecir información de luma puede ser distinta a una modalidad para predecir información de croma. Además, la información sobre una modalidad de intra-predicción, en la cual ha sido predicha información
35 de luma, o bien la información predicha de señales de luma, puede ser utilizada a fin de predecir información de croma.
P201390098
12-12-2013
Tras la realización de la intra-predicción, si el tamaño de una unidad de predicción es igual al tamaño de una unidad de transformación, la intra-predicción se realiza en base a los píxeles situados en el lado izquierdo de la unidad de predicción, un píxel situado en el extremo 5 superior izquierdo de la unidad de predicción y los píxeles situados en el extremo superior de la unidad de predicción. Sin embargo, tras la realización de la intra-predicción, si el tamaño de la unidad de predicción es distinto al tamaño de la unidad de transformación, la intra-predicción puede ser realizada usando píxeles de referencia en base a la unidad de transformación. Además, solamente para una mínima unidad de codificación, la intra
10 predicción puede ser realizada usando una partición NxN.
En el procedimiento de intra-predicción, un bloque de predicción puede ser generado después de serle aplicado un filtro de MDIS (Intra-Allanamiento Dependiente de la Modalidad) sobre los píxeles de referencia según la modalidad de predicción. Diversos tipos 15 de filtros de MDIS pueden ser aplicables para los píxeles de referencia. Para realizar el procedimiento de intra-predicción, una modalidad de intra-predicción de una unidad de predicción actual puede ser predicha a partir de una modalidad de intra-predicción de una unidad de predicción vecina de la unidad de predicción actual. En el caso de que la modalidad de predicción de la unidad de predicción actual sea predicha usando la 20 información de modalidad predicha a partir de la unidad de predicción vecina, si la modalidad de intra-predicción de la unidad de predicción actual es la misma que la modalidad de intra-predicción de la unidad de predicción vecina, puede usarse información de señal predeterminada para transmitir información que indique que la unidad de predicción actual es idéntica, en la modalidad de predicción, a la unidad de predicción vecina. Y si la
25 modalidad de predicción de la unidad de predicción actual es distinta a la modalidad de predicción de la unidad de predicción vecina, puede realizarse una codificación por entropía para codificar la información de modalidad de predicción del bloque actual.
Además, puede obtenerse un bloque residual, que incluye información sobre un valor
30 residual que es un valor diferencial entre un bloque original de una unidad de predicción y una unidad de predicción sobre la cual se realiza la predicción, en base a la unidad de predicción generada en los módulos 120 y 125 de predicción. El bloque residual obtenido puede ser ingresado al módulo 130 de transformación. El módulo 130 de transformación puede transformar el bloque residual por un procedimiento de transformación, tal como la
35 DCT (Transformación Discreta de Coseno) o la DST (Transformación Discreta de Seno). El bloque residual incluye información residual entre la unidad de predicción generada a través
P201390098
12-12-2013
de los módulos 120 y 125 de predicción y el bloque original. La aplicación de la DCT o la DST para transformar el bloque residual puede ser determinada en base a información de modalidad de intra-predicción de la unidad de predicción usada para generar el bloque residual.
5
El módulo 135 de cuantización puede cuantizar valores transformados en un dominio de frecuencia por el módulo 130 de transformación. Un parámetro de cuantización puede variar, según un bloque o la importancia de una imagen. Un valor producido a partir del módulo 135 de cuantización puede ser proporcionado al módulo 140 de descuantización y al módulo 160
10 de redisposición.
El módulo 160 de redisposición puede realizar la redisposición de coeficientes para el valor residual cuantizado.
15 El módulo 160 de redisposición puede cambiar coeficientes con forma de bloque bidimensional (2D) a una forma vectorial unidimensional, mediante un procedimiento de recorrido de coeficientes. Por ejemplo, el módulo 160 de redisposición puede usar un procedimiento de recorrido en diagonal para recorrer desde los coeficientes de DC hasta los coeficientes de alta frecuencia, disponiendo por ello coeficientes con forma de bloque
20 bidimensional en forma de un vector unidimensional. Según el tamaño de la unidad de transformación y la modalidad de intra-predicción, en lugar del procedimiento de recorrido en diagonal, puede usarse un procedimiento de recorrido vertical, en el cual los coeficientes con forma de bloque bidimensional son recorridos a lo largo de una dirección de columna, o un procedimiento de recorrido horizontal, en el cual los coeficientes con forma de bloque
25 bidimensional son recorridos a lo largo de una dirección de fila. En otras palabras, puede usarse uno entre el recorrido en diagonal, el recorrido vertical y el recorrido horizontal, según el tamaño de la unidad de transformación y la modalidad de intra-predicción.
El módulo 165 de codificación por entropía puede realizar una codificación por entropía, en
30 base a valores producidos por el módulo 160 de redisposición. Para la codificación por entropía, pueden aplicarse diversos procedimientos de codificación, tales como, p. ej., Golomb Exponencial y CABAC (Codificación Aritmética Binaria Adaptable al Contexto).
El módulo 165 de codificación por entropía puede codificar información diversa, tal como
35 información de coeficientes residuales e información de tipo de bloque de la unidad de codificación, información de modalidad de predicción, información de unidad de partición,
P201390098
12-12-2013
información de unidad de predicción e información de unidad de transmisión, información de vectores de movimiento, información de tramas de referencia, información de interpolación para un bloque, información de filtrado e información de tamaños de LCU, que son proporcionadas por el módulo 160 de redisposición y los módulos 120 y 125 de predicción.
5
El módulo 165 de codificación por entropía puede realizar una codificación por entropía sobre los valores de coeficientes de la unidad de codificación, como entrada desde el módulo 160 de redisposición, usando un procedimiento de codificación por entropía tal como CABAC.
10 El módulo 140 de descuantización puede realizar la descuantización sobre los valores cuantizados por el módulo 135 de cuantización, y el módulo 145 de transformación inversa puede realizar la transformación inversa sobre los valores transformados por el módulo 130 de transformación. Los valores residuales generados por el módulo 140 de descuantización
15 y el módulo 145 de transformación inversa pueden ser añadidos con la unidad de predicción, predicha mediante un módulo de estimación de movimiento, un módulo de compensación de movimiento y un módulo de intra-predicción incluidos en los módulos 120 y 125 de predicción, generando por ello un bloque restaurado.
20 Un módulo 150 de filtrado puede incluir al menos uno entre un filtro de desbloqueo, un módulo corrector de desplazamiento y un ALF (Filtro de Bucle Adaptable).
Un filtro de desbloqueo puede eliminar una distorsión de bloque que haya ocurrido debido a un contorno de bloque en la imagen restaurada (o reconstruida). La aplicación o no del filtro 25 de desbloqueo a un bloque actual puede ser determinada por un píxel incluido en varias filas
o columnas incluidas en los bloques. En el caso de que el filtro de desbloqueo se aplique al bloque, puede aplicarse un filtro fuerte o un filtro débil, según la potencia necesaria del filtrado de desbloqueo. Además, en el caso de que el filtro de desbloqueo se aplique al bloque, un filtrado en dirección horizontal y un filtrado en dirección vertical pueden ser
30 realizados en paralelo.
Un módulo corrector de desplazamiento puede corregir un desplazamiento entre una imagen original y una imagen a la que se ha aplicado el desbloqueo en una unidad de píxel (o píxel por píxel). A fin de realizar la corrección de desplazamiento sobre una imagen específica, los 35 píxeles incluidos en la imagen son divididos en un número predeterminado de áreas, una de las cuales es luego determinada para realizar un desplazamiento, y puede usarse un
P201390098
12-12-2013
procedimiento de aplicación de un desplazamiento al área correspondiente, o un procedimiento de aplicación de un desplazamiento considerando información fronteriza de cada píxel.
5 Un ALF (Filtro de Bucle Adaptable) puede realizar un filtrado en base a un valor obtenido comparando una imagen reconstruida (o restaurada) filtrada con la imagen original. Los píxeles incluidos en una imagen son divididos en grupos predeterminados, y luego se determina un filtro a aplicar a un grupo correspondiente, para realizar por ello el filtrado en cada grupo de manera discriminatoria. Con respecto a la información sobre si aplicar o no el
10 ALF, puede ser transmitida una señal de luma para cada unidad de codificación, y el tamaño y el coeficiente del ALF a aplicar puede variar para cada bloque. El ALF puede tener diversas formas, y el número de coeficientes incluidos en el filtro puede variar correspondientemente. La información relacionada con el filtrado de un tal ALF (p. ej., información de coeficientes de filtro, información de Activación / Desactivación de ALF o
15 información de forma del filtro) puede ser transmitida, incluida en un conjunto predeterminado de parámetros del flujo de bits.
La memoria 155 puede almacenar el bloque reconstruido, o la imagen generada mediante el módulo 150 de filtrado, y el bloque o imagen reconstruidos y almacenados pueden ser
20 proporcionados al módulo 120 y 125 de predicción cuando se realiza la inter-predicción.
La Fig. 2 es un diagrama de bloques que ilustra un descodificador de vídeo según otra realización de la presente invención.
25 Con referencia a la Fig. 2, el descodificador de vídeo puede incluir un módulo 210 de descodificación por entropía, un módulo 215 de redisposición, un módulo 220 de descuantización, un módulo 225 de transformación inversa, módulos 230 y 235 de predicción, un módulo 240 de filtrado y una memoria 245.
30 En el caso de que un flujo de bits de vídeo sea ingresado desde el codificador de vídeo, el flujo de bits de entrada puede ser descodificado en un procedimiento opuesto al del codificador de vídeo.
El módulo 210 de descodificación por entropía puede realizar una descodificación por
35 entropía en un procedimiento opuesto al de la codificación por entropía realizado en el módulo de codificación por entropía del codificador de vídeo. De los trozos de información
P201390098
12-12-2013
descodificados en el módulo 210 de descodificación por entropía, la información usada para obtener un bloque de predicción, tal como la información de tamaño de LCU o la información de tamaño de bloque, es proporcionada a los módulos 230 y 235 de predicción, y los valores residuales obtenidos mediante la descodificación por entropía en el módulo de
5 descodificación por entropía pueden ser ingresados al módulo 215 de redisposición.
El módulo 210 de descodificación por entropía puede descodificar información relacionada con una intra-predicción y a una inter-predicción, realizadas en el codificador. Según lo descrito anteriormente, en el caso en que haya una limitación predeterminada cuando el
10 codificador de vídeo realiza la intra-predicción y la inter-predicción, la descodificación por entropía es realizada en base a tal limitación, recibiendo por ello información referida a la intra-predicción y a la inter-predicción para el bloque actual.
El módulo 215 de redisposición puede realizar una redisposición en base a un procedimiento
15 por parte del codificador, para redisponer un flujo de bits que es descodificado por entropía en el módulo 210 de descodificación por entropía. Tal redisposición puede ser realizada restaurando los coeficientes, representados en forma de vectores unidimensionales, a la forma de bloque bidimensional de coeficientes.
20 El módulo 220 de descuantización puede realizar una descuantización en base al bloque de coeficientes redispuestos y a los parámetros de cuantización proporcionados desde el codificador.
El módulo 225 de transformación inversa puede realizar una DCT inversa y una DST inversa,
25 con respecto a la DCT y la DST que son realizadas por el módulo de transformación, sobre un resultado de la cuantización realizada en el codificador de vídeo. La transformación inversa puede ser realizada sobre la base de una unidad de transmisión determinada en el codificador de vídeo. El módulo transformador del codificador de vídeo puede realizar selectivamente la DCT y la DST, según una pluralidad de informaciones, tales como un
30 procedimiento de predicción, un tamaño de un bloque actual y una dirección de predicción, y el módulo 225 de transformación inversa del descodificador de vídeo puede realizar una transformación inversa en base a la información transformada realizada por el módulo de transformación del codificador de vídeo.
35 Los módulos 230 y 235 de predicción pueden generar un bloque de predicción en base al bloque anteriormente descodificado, o a la información de imagen anteriormente
P201390098
12-12-2013
descodificada, según lo proporcionado desde la memoria 245, y la información referida a la generación del bloque de predicción, proporcionada desde el módulo 210 de descodificación por entropía.
5 Los módulos 230 y 235 de predicción pueden incluir un módulo de determinación de unidades de predicción, un módulo de inter-predicción y un módulo de intra-predicción. El módulo de determinación de unidades de predicción puede recibir información diversa, que incluye información de modalidad de predicción de un procedimiento de intra-predicción, información referida a la predicción del movimiento de un procedimiento de inter-predicción,
10 e información de unidad de predicción, y las diversas informaciones son ingresadas desde el módulo de descodificación por entropía. El módulo de determinación de unidades de predicción puede separar una unidad de predicción de una unidad de codificación actual, y puede determinar si se está realizando una intra-predicción o se está realizando una interpredicción sobre la unidad de predicción. El módulo de inter-predicción puede realizar una
15 inter-predicción sobre la unidad de predicción actual, según la información incluida en al menos una de las imágenes entre las imágenes anteriores a una imagen actual, o las imágenes después de la imagen actual. El módulo de inter-predicción puede realizar la interpredicción sobre la unidad de predicción actual usando información necesaria para la interpredicción de la unidad de predicción actual proporcionada desde el descodificador de vídeo.
20 Puede determinarse cuál, entre una modalidad de omisión, una modalidad de fusión y una modalidad de AMVP, es un procedimiento de predicción de movimiento para una unidad de predicción incluida en una correspondiente unidad de codificación, en base a la unidad de codificación, a fin de realizar la inter-predicción.
25 Según una realización de la presente invención, el módulo de inter-predicción puede determinar si un bloque de destino de predicción es o no adyacente a un contorno de una LCU (Máxima Unidad de Codificación), y puede determinar si un primer bloque cosituado está disponible, según la determinación de si el bloque de destino de predicción es o no
30 adyacente al contorno de la LCU. Por ejemplo, si se determina que el primer bloque cosituado no está disponible, un segundo bloque cosituado puede ser determinado como un bloque cosituado para obtener un vector temporal de predicción de movimiento, o bien, si el primer bloque cosituado no está disponible, la posición del primer bloque cosituado puede ser cambiada, de modo que el primer bloque cosituado con posición cambiada pueda ser
35 determinado como un bloque cosituado para obtener un vector temporal de predicción de movimiento. Además, el módulo de inter-predicción puede incluir un módulo predictor que
P201390098
12-12-2013
determina un índice de imagen de referencia de un bloque cosituado del bloque de destino de predicción, y que determina un vector de predicción de movimiento del bloque cosituado. El bloque cosituado puede ser determinado de manera adaptable según una ubicación del bloque de destino de predicción en la LCU (Máxima Unidad de Codificación). En adelante en
5 la presente memoria, se describe en detalle el funcionamiento de un módulo de predicción según la presente invención.
El módulo de intra-predicción puede generar un bloque de predicción en base a información de píxeles en una imagen actual. En el caso de que la unidad de predicción sea aquella a la 10 que se aplica la intra-predicción, la intra-predicción puede ser realizada en base a información de modalidad de intra-predicción de la unidad de predicción proporcionada desde el codificador de vídeo. El módulo de intra-predicción puede incluir un filtro de MDIS, un módulo interpolador de píxeles de referencia y un filtro de DC. El filtro de MDIS realiza un filtrado sobre los píxeles de referencia del bloque actual. Para el filtro de MDIS, puede 15 determinarse si se aplica o no el filtro, según la modalidad de predicción de la unidad de predicción actual. El filtrado sobre los pixeles de referencia del bloque actual puede ser realizado usando información del filtro de MDIS y la modalidad de predicción de la unidad de predicción proporcionada desde el codificador de vídeo. En el caso de que la modalidad de predicción del bloque actual sea una modalidad en la cual no se realiza el filtrado, puede no
20 aplicarse el filtro de MDIS.
En el caso de que la modalidad de predicción de la unidad de predicción es una modalidad de predicción en la cual la intra-predicción se realiza en base a los valores de píxel obtenidos interpolando el píxel de referencia, el píxel de referencia con una unidad menor 25 que un píxel entero puede ser obtenido interpolando los píxeles de referencia. En el caso en que la modalidad de predicción de la unidad de predicción actual es una modalidad de predicción en la cual el bloque de predicción es generado sin interpolar los píxeles de referencia, el píxel de referencia no puede ser sometido a la interpolación. El filtro de DC puede generar un bloque de predicción mediante el filtrado, si la modalidad de predicción del
30 bloque actual es una modalidad DC.
El bloque o imagen reconstruidos pueden ser proporcionados al módulo 240 de filtrado. El módulo 240 de filtrado puede incluir un filtro de desbloqueo, un módulo corrector de desplazamiento y un ALF.
35
La información acerca de si al bloque o imagen correspondiente le ha sido aplicado o no el
P201390098
12-12-2013
filtro de desbloqueo puede ser proporcionada desde un codificador de vídeo (o de imagen). Si se ha aplicado el filtro de desbloqueo, la información acerca de si el filtro de desbloqueo aplicado es un filtro fuerte o un filtro débil puede ser proporcionada desde el codificador de vídeo. El filtro de desbloqueo del descodificador de vídeo puede recibir información referida 5 al filtro de desbloqueo desde el codificador de vídeo, y el filtrado de desbloqueo puede ser realizado sobre el correspondiente bloque en el codificador de vídeo. Como el codificador de vídeo, el descodificador de vídeo puede realizar primero un filtrado de desbloqueo vertical y un filtrado de desbloqueo horizontal. Una o más partes solapadas pueden ser sometidas a al menos uno entre el desbloqueo vertical y el desbloqueo horizontal. En la región donde el
10 filtrado de desbloqueo vertical y el filtrado de desbloqueo horizontal se solapan entre sí, bien el filtrado de desbloqueo vertical o bien el filtrado de desbloqueo horizontal, que no haya sido realizado previamente, puede ser realizado para esta región. Tal proceso de filtrado de desbloqueo permite un procesamiento paralelo del filtrado de desbloqueo.
15 Un módulo corrector de desplazamiento puede realizar una corrección de desplazamiento sobre la imagen reconstruida, en base a un tipo de corrección de desplazamiento aplicada a la imagen en un proceso de codificación, y a información sobre el valor de desplazamiento aplicado en el proceso de codificación.
20 Un ALF puede realizar un filtrado según una comparación entre la imagen reconstruida después del filtrado y la imagen original. El ALF puede ser realizado sobre una unidad de codificación en base a la información acerca de si el ALF está aplicado o no, y la información de coeficientes del ALF, que son proporcionadas desde el codificador. Tal información de ALF puede ser proporcionada e incluida en un conjunto específico de parámetros.
25 La memoria 245 puede almacenar una imagen reconstruida o un bloque reconstruido, a fin de usar esto como una imagen de referencia o un bloque de referencia, y puede proporcionar la imagen reconstruida a un módulo de visualización.
30 Como se ha descrito anteriormente, incluso si se usa un término de ‘unidad de codificación’ en la realización de la presente invención, para facilitar la descripción, la unidad de codificación también puede ser usada como una unidad para la descodificación. En adelante en la presente memoria, el procedimiento de predicción descrito más adelante con relación a las Figs. 3 a 11, según una realización de la presente invención, puede ser realizado en un
35 componente, tal como un módulo predictor como el mostrado en las Figs. 1 y 2.
P201390098
12-12-2013
La Fig. 3 es una vista conceptual que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento, según una realización de la presente invención.
Con referencia a la Fig. 3, el vector temporal de predicción de movimiento puede ser 5 obtenido en base a un valor de vector de movimiento de un bloque cosituado (colPu) en una imagen cosituada (colPic).
La imagen cosituada es una imagen que incluye un bloque cosituado para obtener información referida a la predicción temporal de movimiento, al realizar el procedimiento de
10 inter-predicción, tal como una fusión o la AMVP. El bloque cosituado puede ser definido como un bloque incluido en una imagen cosituada, y el bloque cosituado se obtiene en base a información de ubicación de un bloque de destino de predicción, y tiene una fase temporalmente distinta a la del bloque de destino de predicción.
15 Puede haber una pluralidad de bloques cosituados para un bloque de destino de predicción. La información referida al movimiento del bloque cosituado incluido en la imagen cosituada puede ser almacenada como un valor representativo con respecto a una unidad predeterminada. Por ejemplo, con respecto a una unidad de tamaño de bloque 16x16, la información referida a la predicción del movimiento (vector de movimiento, imagen de
20 referencia, etc.) puede ser determinada y almacenada como un valor representativo en una unidad de bloque de 16x16.
La Fig. 4 es un diagrama de flujo que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento, según una realización de la presente invención.
25 En adelante en la presente memoria, el procedimiento de obtención de un vector temporal de predicción de movimiento, que ha de ser descrito más adelante, puede ser usado en un procedimiento de inter-predicción, tal como una modalidad de fusión o una modalidad de AMVP. El procedimiento de obtención del vector temporal de predicción de movimiento
30 puede ser un procedimiento de obtención de un bloque candidato temporal (bloque cosituado) para realizar la modalidad de fusión, un procedimiento de obtención de un bloque candidato temporal (bloque cosituado) para realizar la modalidad de AMVP y un procedimiento de obtención de un vector temporal de predicción de movimiento.
35 En adelante en la presente memoria, en una realización de la presente invención, el bloque cosituado puede ser definido y usado como un término que indica un bloque candidato
P201390098
12-12-2013
temporal usado en la modalidad de fusión y la modalidad AMVP.
Con referencia a la Fig. 4, se obtiene información de imagen cosituada (etapa S400).
5 La información de ubicación de un bloque de destino de predicción, la información de tamaño del bloque de destino de predicción y la información de índices de imágenes de referencia del bloque de destino de predicción pueden ser usadas para obtener información de imagen cosituada, información de bloque cosituado y un vector temporal de predicción de movimiento.
10 Según una realización de la presente invención, la información de imágenes cosituadas puede obtenerse en base a información del tipo de tajada (tipo_tajada), información de listas de imágenes de referencia (señal_cosituada_desde_10) e información de índices de imágenes de referencia (índice_ref_cosituada). Usando la información de listas de imágenes
15 de referencia (señal_cosituada_desde_10), si la información de listas de imágenes de referencia (señal_cosituada_desde_10) indica 1, representa que la imagen cosituada está incluida en una primera lista de imágenes de referencia (Lista 0), y si la información de listas de imágenes de referencia (señal_cosituada_desde_10) indica 0, representa que la imagen cosituada está incluida en una segunda lista de imágenes de referencia (Lista 1).
20 Por ejemplo, en el caso en que el tipo de tajada es tajada B y un valor de la información de listas de imágenes de referencia (señal_cosituada_desde_10) es 0, la imagen cosituada puede ser determinada como una imagen incluida en la segunda lista de imágenes de referencia, y en el caso en que el tipo de tajada es tajada B y un valor de la información de
25 listas de imágenes de referencia (señal_cosituada_desde_10) es 1, o en el caso en que el tipo de tajada es tajada P, la imagen cosituada puede ser determinada como una imagen incluida en la primera lista de imágenes de referencia.
En el caso de un procedimiento de inter-predicción que usa una modalidad de fusión, si se
30 satisface una condición predeterminada, la información de índices de imágenes de referencia de un bloque vecino en una posición específica puede ser determinada como información para una imagen cosituada, y si la condición predeterminada no se satisface, una imagen anterior a una imagen actual puede ser determinada como imagen cosituada.
35 Se obtiene información para bloque cosituado (etapa S410).
P201390098
12-12-2013
La información para el bloque cosituado puede ser obtenida de distinta manera, según que una parte (o porción) de un bloque de destino de predicción sea o no adyacente a un contorno de una LCU (Máxima Unidad de Codificación). En adelante en la presente memoria, se describe un procedimiento de determinación de un bloque cosituado, según la ubicación
5 de un bloque de destino de predicción y del contorno de una LCU, con referencia a las Figs. 5 a 9.
La Fig. 5 es una vista conceptual que ilustra una ubicación de un bloque cosituado para obtener un vector temporal de movimiento, según una realización de la presente invención.
10 Con referencia a la Fig. 5, los bloques en diversas posiciones con respecto a un bloque de destino de predicción pueden ser usados como bloques cosituados para obtener un vector temporal de movimiento. Los bloques cosituados que pueden ser usados para obtener el vector temporal de movimiento pueden ser clasificados según las ubicaciones, de la
15 siguiente manera.
En el caso de que un punto situado en un extremo superior izquierdo de un bloque de destino de predicción esté en (xP, yP), el ancho del bloque de destino de predicción sea nPSW, y la altura del bloque de destino de predicción sea nPSH, un primer bloque cosituado
20 500 puede ser un bloque que incluye un punto (xP+nPSW, yP+nPSH) en la imagen cosituada, un segundo bloque cosituado 510 puede ser un bloque que incluye un punto (xP+nPSW-MinTamañoPu, yP+nPSH) en la imagen cosituada, un tercer bloque cosituado 520 puede ser un bloque que incluye un punto (xP+nPSW, yP+nPSH-MinTamañoPu) en la imagen cosituada, un cuarto bloque cosituado 530 puede ser un bloque que incluye un
25 punto (xP+nPSW-1, yP+nPSH-1) en la imagen cosituada, un quinto bloque cosituado 540 puede ser un bloque que incluye un punto (xP+(nPSW>>1), yP+(nPSH>>1)) en la imagen cosituada y un sexto bloque cosituado 550 puede ser un bloque que incluye un punto (xP+(nPSW>>1)-1, yP+(nPSH>>1)-1) en la imagen cosituada.
30 El bloque cosituado puede ser determinado de manera adaptable, según una posición de una unidad de predicción actual situada dentro de la LCU. Una relación posicional entre un bloque de destino de predicción y un contorno de la LCU puede ser categorizada en los siguientes casos: 1) donde un extremo inferior y un lado derecho del bloque de destino de predicción no son adyacentes al contorno de la LCU, 2) donde solamente el extremo inferior
35 del bloque de destino de predicción es adyacente al entorno de la LCU, 3) donde tanto el lado derecho como el extremo inferior del bloque de destino de predicción son adyacentes al
P201390098
12-12-2013
contorno de la LCU y 4) donde solamente el lado derecho del bloque de destino de predicción es adyacente al contorno de la LCU.
Según una realización de la presente invención, el bloque cosituado puede ser determinado 5 de manera adaptable en forma distinta, según la ubicación del bloque de destino de predicción en la LCU.
1) En el caso en que el extremo inferior y el lado derecho del bloque de destino de predicción no son adyacentes al contorno de la LCU, el primer bloque cosituado y el quinto 10 bloque cosituado pueden ser usados secuencialmente como un bloque cosituado, con una comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
2) En el caso de que solamente el extremo inferior del bloque de destino de predicción sea adyacente al contorno de la LCU, el tercer bloque cosituado y el quinto bloque cosituado 15 pueden ser usados secuencialmente como un bloque cosituado, con la comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
3) En el caso en que tanto el lado derecho como el extremo inferior del bloque de destino de predicción sean adyacentes al contorno de la LCU, el cuarto bloque cosituado y el quinto 20 bloque cosituado pueden ser usados secuencialmente como un bloque cosituado, con la comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
4) En el caso de que solamente el lado derecho del bloque de destino de predicción sea adyacente al contorno de la LCU, el segundo bloque cosituado y el quinto bloque cosituado 25 pueden ser usados secuencialmente como un bloque cosituado, con la comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
Es decir, de acuerdo a una realización de la presente invención, según la ubicación del bloque actual en la LCU, puede ser determinado, de manera adaptable, un bloque candidato 30 temporal. Las posiciones de los píxeles para especificar un bloque candidato temporal, para un caso en que el contorno inferior del bloque actual es adyacente al contorno de la LCU, pueden ser distintas a las posiciones de los píxeles para especificar un bloque candidato temporal para un caso en que el contorno inferior del bloque actual no es adyacente al contorno de la LCU. Y las posiciones de los píxeles para especificar un bloque candidato 35 temporal, para el caso en que el contorno inferior del bloque actual es adyacente al contorno de la LCU, pueden ser distintas a las posiciones de los píxeles para especificar un bloque
P201390098
12-12-2013
candidato temporal, para un caso en que solamente el contorno derecho del bloque actual es adyacente al contorno de la LCU.
Según otra realización de la presente invención, puede usarse un procedimiento en el cual
5 un bloque cosituado puede ser determinado (o seleccionado) de manera adaptable y diferente, según la posición del bloque de destino de predicción en la LCU, de modo que el bloque cosituado y el bloque de destino de predicción estén situados dentro de la misma LCU, o el bloque cosituado puede no ser usado si el bloque cosituado y el bloque de predicción de destino no están situados dentro de la misma LCU.
10 La Fig. 6 es una vista conceptual que ilustra un procedimiento de determinación de un bloque cosituado para obtener un vector de predicción de movimiento, según una realización de la presente invención.
15 Con referencia a la Fig. 6, pueden ser conocidas las posiciones de bloques cosituados de una pluralidad de unidades de predicción incluidas en una LCU.
Para los casos de PU0, PU1, PU2 y PU5, las unidades de predicción son unidades de predicción dentro de la LCU, y el primer bloque cosituado puede ser usado en primer lugar
20 como un bloque cosituado para obtener un vector temporal de movimiento.
Para los casos de PU4 y PU7, los contornos de las unidades de predicción son adyacentes solamente al contorno inferior de la LCU, y el tercer bloque cosituado puede ser usado en primer lugar como un bloque cosituado para obtener un vector temporal de movimiento.
25 Para el caso de PU8, el contorno de la unidad de predicción es adyacente tanto al contorno inferior como al contorno derecho de la LCU, y el cuarto bloque cosituado puede ser usado en primer lugar como un bloque cosituado para obtener un vector temporal de movimiento.
30 Para los casos de PU3 y PU6, los contornos de las unidades de predicción son adyacentes solamente al contorno derecho de la LCU, y el segundo bloque cosituado puede ser usado en primer lugar como un bloque cosituado para obtener un vector temporal de movimiento.
Es decir, según lo descrito anteriormente, un bloque candidato temporal es determinado de
35 manera adaptable, según la ubicación del bloque actual en la LCU, y las posiciones de los píxeles para especificar un bloque candidato temporal, para los casos en que el contorno
P201390098
12-12-2013
inferior del bloque actual es adyacente al contorno de la LCU (casos de PU4, PU7 y PU8) y para los casos en que el contorno inferior del bloque actual no es adyacente al contorno de la LCU (casos de PU0, PU1, PU2, PU3, PU5 y PU6), son distintas entre sí. Además, las posiciones de los píxeles para especificar un bloque candidato temporal pueden ser distintas
5 para los casos en que el contorno inferior del bloque actual es adyacente al contorno de la LCU (casos de PU4, PU7 y PU8) y para los casos en que solamente el contorno derecho del bloque actual es adyacente al contorno de la LCU (casos de PU3 y PU6).
Según otra realización de la presente invención, mientras un bloque cosituado esté situado
10 dentro de la misma LCU, junto con el bloque de destino de predicción, el bloque cosituado está determinado, de manera adaptable y diferente, según la ubicación del bloque de destino de predicción en la LCU. Si un bloque cosituado específico no está situado dentro de la misma LCU, junto con el bloque de destino de predicción, tal bloque cosituado específico puede no estar disponible. Por ejemplo, si el contorno inferior de un bloque de predicción es
15 adyacente al contorno inferior de la LCU, como en PU4, PU7 y PU8, el primer bloque cosituado puede estar marcado (o indicado) como no disponible, y el quinto bloque cosituado puede ser usado en su lugar como un bloque cosituado para obtener un vector de predicción temporal.
20 Así pues, como un procedimiento de obtención de un bloque cosituado, puede ser usado un procedimiento que, categorizando características de un bloque de destino de predicción según lo descrito anteriormente, según la ubicación del bloque de destino de predicción y el contorno de la LCU, selecciona un bloque a usar como un bloque cosituado, según la ubicación categorizada del bloque de destino de predicción. Preferiblemente, se supone que
25 el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector temporal de movimiento. Después de comprobar la disponibilidad del primer bloque cosituado (por ejemplo, si el contorno inferior del bloque de destino de predicción es adyacente o no a la LCU), un bloque cosituado, distinto al primer bloque cosituado, puede ser determinado como un bloque cosituado para
30 obtener un vector temporal de movimiento. Por ejemplo, si el primer bloque cosituado es determinado como no disponible a través de las etapas de la determinación de si el bloque de destino de predicción es o no adyacente al contorno de la LCU (Máxima Unidad de Codificación), el bloque cosituado para obtener un vector temporal de movimiento puede ser cambiado por otro bloque cosituado (p. ej., tercer bloque cosituado), o bien el quinto bloque
35 cosituado puede ser usado directamente, sin usar el primer bloque cosituado.
P201390098
12-12-2013
Específicamente, el procedimiento anterior puede ser realizado mediante las siguientes etapas:
1) Etapa de determinación de si el contorno del bloque de destino de predicción es o no 5 adyacente al contorno de la LCU (Máxima Unidad de Codificación),
2) Etapa de determinación de si el primer bloque cosituado está o no disponible, según que el contorno del bloque de destino de predicción sea o no adyacente al contorno de la LCU. Específicamente, en la etapa 2), cuando el contorno inferior del bloque de destino de
10 predicción es adyacente al contorno de la LCU, puede determinarse que el primer bloque cosituado no está disponible,
3) Etapa de determinación de un bloque cosituado, distinto al primer bloque cosituado, como un bloque cosituado para obtener un vector temporal de predicción de movimiento, cuando
15 el primer bloque cosituado no está disponible. Específicamente, en la etapa 3), para un caso en que el contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para un caso en que el contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU, pueden ser determinados distintos bloques cosituados para cada caso distinto, como bloques cosituados para obtener un vector temporal de
20 predicción de movimiento,
4) Etapa de determinación del primer bloque cosituado como un bloque cosituado para obtener un vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, y de determinación de la disponibilidad del quinto bloque cosituado, si el primer
25 bloque cosituado no está disponible.
Las etapas anteriores pueden ser etapas optativas, y la relación secuencial de las etapas, o el procedimiento de la determinación, pueden ser cambiados sin apartarse de la esencia de la presente invención.
30 La Fig. 7 es una vista conceptual que ilustra un caso donde un bloque de destino de predicción es adyacente a un contorno inferior de una LCU, según una realización de la presente invención.
35 Con referencia a la Fig. 7, se muestra un caso en que la ubicación del bloque cosituado es cambiada cuando el bloque de destino de predicción (PU, PU7 o PU8) está situado en el
P201390098
12-12-2013
contorno inferior de la LCU. En el caso de que el bloque de destino de predicción (PU4, PU7
o PU8) esté situado en el contorno inferior de la LCU, la ubicación del bloque cosituado puede ser fijada de modo que la información referida a la predicción del movimiento pueda ser obtenida incluso sin buscar una LCU situada bajo una LCU actual entre las LCU. Por 5 ejemplo, un vector temporal de predicción de movimiento puede ser obtenido usando el tercer bloque cosituado, en lugar del primer bloque cosituado del bloque de destino de predicción. 1) En el caso en que solamente haya adyacencia al contorno derecho de la LCU, según la disponibilidad, el primer bloque cosituado y el quinto bloque cosituado son determinados secuencialmente como un bloque cosituado para obtener un vector temporal 10 de predicción de movimiento, 2) en el caso en que haya adyacencia al contorno inferior de la LCU, según la disponibilidad, el tercer bloque cosituado y el quinto bloque cosituado pueden ser determinados secuencialmente como un bloque cosituado para obtener un vector temporal de predicción de movimiento. Es decir, según una realización de la presente invención, las posiciones de los píxeles para especificar un bloque candidato temporal
15 pueden ser distintas para un caso en que el contorno inferior del bloque actual es adyacente al contorno de la LCU, y para un caso en que el contorno inferior del bloque actual no es adyacente al contorno de la LCU.
Con referencia nuevamente a la Fig. 4, en base al bloque cosituado, determinado mediante
20 el procedimiento descrito anteriormente con relación a las Figs. 5 a 7, se obtienen un vector de predicción de movimiento de bloque cosituado (mvLXCol) y la información de disponibilidad del bloque cosituado (señalDisponibleLXCol) (etapa S420).
La información de disponibilidad del bloque cosituado (señalDisponibleLXCol) y el vector de
25 movimiento (mvLXCol) del bloque cosituado, que ha de ser usado para la inter-predicción del bloque de destino de predicción, en base a la información del bloque cosituado, determinada mediante los procesos mostrados en las Figs. 5 a 7, pueden obtenerse por el siguiente procedimiento:
30 1) Si el bloque cosituado (colPu) es codificado en base a una modalidad de intra-predicción, si el bloque cosituado (colPu) no está disponible, si la imagen cosituada (colPic) no está disponible para predecir un vector temporal de predicción de movimiento, o si la interpredicción se realiza sin usar un vector temporal de predicción de movimiento, el vector de movimiento del bloque cosituado (mvLXCol) y la información de disponibilidad del bloque
35 cosituado (señalDisponibleLXCol) pueden ser fijados en 0.
P201390098
12-12-2013
2) Fuera del caso 1), la información del vector de movimiento del bloque cosituado (mvLXCol) y la información de disponibilidad del bloque cosituado (señalDisponibleLXCol) pueden ser obtenidas mediante una señal (PredSeñalL0) y una señal (PredSeñalL1), donde la señal (PredSeñalL0) indica si se usa o no una lista L0, y la señal (PredSeñalL1) indica si
5 se usa o no una lista L1.
En primer lugar, si se determina que la inter-predicción ha sido realizada sobre el bloque cosituado sin usar la lista L0 (la señal (PredSeñalL0) es igual a 0), la información referida a la predicción del movimiento del bloque cosituado, tal como la información mvCol, la
10 información refldxCol y la información listCol pueden ser fijadas como L1 y MvL1[xPCol][yPCol], RefIdxL1[xPCol][yPCol], que son informaciones referidas a la predicción del movimiento del bloque cosituado, obtenido usando la lista L1, y la información de disponibilidad del bloque cosituado (señalDisponibleLXCol) puede fijarse en 1.
15 En otros casos, si se determina que la inter-predicción ha sido realizada sobre el bloque cosituado usando la lista L0 (la señal (PredSeñalL0) es igual a 1), la información referida a la predicción del movimiento del bloque cosituado, tal como la información mvCol, la información refldxCol y la información listCol pueden ser fijadas por separado, para un caso en que PredSeñalL1 es 0 y para un caso en que PredSeñalL1 es 1, y la información de
20 disponibilidad del bloque cosituado (señalDisponibleLXCol) puede ser fijada en 1.
El valor obtenido de mvLXCol es ajustado a escala (etapa S430).
Para usar el valor de mvLXCol obtenido mediante la etapa S420 como un vector temporal de
25 predicción de movimiento del bloque de destino de predicción, un valor de mvLXCol obtenido puede ser ajustado a escala, en base a la información de distancia referida a una distancia entre la imagen cosituada, que incluye el bloque cosituado y la imagen de referencia del bloque cosituado, mencionados por el bloque cosituado, y una distancia entre la imagen que incluye el bloque de destino de predicción y una imagen de referencia,
30 mencionada por el bloque de destino de predicción. Después de que se ajusta a escala el valor de mvLXCol obtenido, puede obtenerse el vector temporal de predicción de movimiento.
En adelante en la presente memoria, según una realización de la presente invención, se
35 describe un procedimiento de realización de una inter-predicción, tal como la fusión y la AMVP.
P201390098
12-12-2013
La Fig. 8 es un diagrama de flujo que ilustra un procedimiento de inter-predicción que usa una modalidad de fusión, según una realización de la presente invención.
5 Con referencia a la Fig. 8, la información referida a la predicción del movimiento puede ser obtenida de un candidato a la fusión espacial (etapa S1000).
El candidato a la fusión espacial puede ser obtenido de unidades de predicción vecinas de un bloque de destino de predicción. Para obtener el candidato a la fusión espacial, puede 10 ser recibida información acerca del ancho y la altura de la unidad de predicción, información de la MER (Región de Estimación de Movimiento), información de señalÚnicaMCL e información de posición de partición. En base a tal información de entrada, puede obtenerse información de disponibilidad (señalNDisponible), según la posición del candidato a la fusión espacial, información de imágenes de referencia (refldxL0, refldxL1), información de
15 utilización de listas (predSeñalL0N, redSeñalL1N) e información de vectores de movimiento (mvL0N, mvL1N). Una pluralidad de bloques vecinos al bloque de destino de predicción pueden ser candidatos a la fusión espacial.
La Fig. 9 es una vista conceptual que ilustra posiciones de candidatos a la fusión espacial, 20 según una realización de la presente invención.
Con referencia a la Fig. 9, en el caso en que una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), el ancho del bloque de destino de predicción es nPSW y la altura del bloque de destino de predicción es nPSH, los
25 candidatos a la fusión espacial pueden ser un bloque A0 que incluye el punto (xP-1, yP+nPSH), un bloque A1 que incluye el punto (xP-1, yP+nPSH-MinTamañoPu), un bloque B0 que incluye el punto (xP+nPSW, yP-1), un bloque B1 que incluye el punto (xP+nPSW-MinTamañoPu, yP-1), y un bloque B2 que incluye el punto (xP-MinTamañoPu, yP-1).
30 Con referencia nuevamente a la Fig. 8, se obtiene un valor del índice de imágenes de referencia del candidato a la fusión temporal (etapa S1010).
El valor del índice de imágenes de referencia del candidato a la fusión temporal, como un valor de índice de una imagen cosituada que incluye el candidato a la fusión temporal 35 (bloque cosituado), puede obtenerse mediante condiciones específicas, según lo siguiente. Las siguientes condiciones son arbitrarias y pueden variar. Por ejemplo, en el caso en que
P201390098
12-12-2013
una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), el ancho del bloque de destino de predicción es nPSW y la altura del bloque de destino de predicción es nPHSH, cuando 1) existe una unidad de predicción vecina del bloque de destino de predicción correspondiente a la posición (xP-1, yP+nPSH-1) 5 (denominada en adelante en la presente memoria unidad de predicción vecina de obtención de índice de imagen de referencia), 2) el valor del índice de partición de la unidad de predicción vecina de obtención de índice de imagen de referencia es 0, 3) la unidad de predicción vecina de obtención de índice de imagen de referencia no es un bloque en el cual se realice la predicción usando una modalidad intra-predicción y 4) el bloque de destino de 10 predicción y el bloque de predicción vecino de obtención de índice de imagen de referencia no pertenecen a la misma MER (Región de Estimación de Movimiento), el valor del índice de imagen de referencia del candidato a la fusión temporal puede ser determinado como el mismo valor que el valor de índice de referencia de la unidad de predicción vecina de obtención de índice de imagen de referencia. En el caso no poder satisfacer estas
15 condiciones, el valor del índice de imagen de referencia del candidato a la fusión temporal puede ser fijado en 0.
El bloque candidato a la fusión temporal (bloque cosituado) está determinado, y la información referida a la predicción del movimiento se obtiene a partir del bloque cosituado
20 (etapa S1020).
Según una realización de la presente invención, el bloque candidato a la fusión temporal (bloque cosituado) puede ser determinado de manera adaptable, según la ubicación del bloque de destino de predicción en la LCU, de modo que el bloque cosituado esté incluido
25 en la misma LCU junto con el bloque de destino de predicción.
1) En el caso en que el extremo inferior y el lado derecho del bloque de destino de predicción no son adyacentes al contorno de la LCU, determinando la disponibilidad, el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente
30 como un bloque cosituado para obtener un vector de movimiento temporal.
2) En el caso en que solamente el extremo inferior del bloque de destino de predicción sea adyacente al contorno de la LCU, determinando la disponibilidad, el tercer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado
35 para obtener un vector de movimiento temporal.
P201390098
12-12-2013
3) En el caso en que tanto el lado derecho como el extremo inferior del boque de destino de predicción son adyacentes al contorno de la LCU, determinando la disponibilidad, el cuarto bloque cosituado y el quinto bloque cosituado puede ser usados secuencialmente como bloques cosituados para inducir un vector de movimiento temporal.
5
4) En el caso en que solamente el lado derecho del bloque de destino de predicción es adyacente al contorno de la LCU, se determina la disponibilidad, y el segundo bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como bloques cosituados para inducir un vector de movimiento temporal.
10 Según una realización de la presente invención, puede usarse un procedimiento que permite que un bloque cosituado sea determinado, de manera adaptable y diferente, según la posición del bloque de destino de predicción en la LCU, como presente en una posición incluida en una LCU, junto con el bloque de destino de predicción, o que el bloque cosituado,
15 no incluido en una LCU junto con el bloque de destino de predicción, no pueda ser usado.
Como se ha descrito anteriormente, como procedimiento de producción de un bloque cosituado, puede usarse un procedimiento de separación de características de un bloque de destino de predicción, como se ha descrito anteriormente, según la posición del bloque de 20 destino de predicción y el contorno de la LCU, y de determinación de un bloque para ser usado inmediatamente como un bloque cosituado, según la posición del bloque de destino de predicción separado. Sin embargo, se puede suponer en primer lugar que el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como bloques cosituados para inducir un vector de movimiento temporal, se determina si el primer
25 bloque cosituado está disponible o no (por ejemplo, si el contorno inferior del bloque de destino de predicción es adyacente o no a la LCU), y luego, un bloque cosituado, distinto al primer bloque cosituado, puede ser determinado como un bloque cosituado para inducir un vector temporal de movimiento.
30 Se configura una lista de candidatos a la fusión (etapa S1030).
La lista de candidatos a la fusión puede ser construida para incluir al menos uno entre los candidatos a la fusión espacial y un candidato a la fusión temporal. Los candidatos a la fusión espacial y el candidato a la fusión temporal, incluidos en la lista de candidatos a la
35 fusión, pueden ser dispuestos con una prioridad predeterminada.
P201390098
12-12-2013
La lista de candidatos a la fusión puede ser construida para que tenga un número fijo de candidatos a la fusión y, si el número de los candidatos a la fusión es menor que el número fijado, la información referida a la predicción del movimiento, poseída por los candidatos a la fusión, es combinada para generar candidatos a la fusión, o se generan vectores nulos
5 como candidatos a la fusión, generando por ello la lista de candidatos a la fusión.
La Fig. 10 es un diagrama de flujo que ilustra un procedimiento de inter-predicción usando la AMVP, según una realización de la presente invención.
10 Con referencia a la Fig. 10, se obtiene información referida a la predicción del movimiento a partir de los bloques candidatos a la AMVP espacial (etapa S1200).
Para obtener la información de índices de imágenes de referencia y un vector de predicción de movimiento del bloque de destino de predicción, el bloque, o los bloques, candidato(s) a
15 la AMVP espacial, puede(n) ser obtenido(s) a partir de los bloques de predicción vecinos del bloque de destino de predicción.
Con referencia nuevamente a la Fig. 9, uno entre el bloque A0 y el bloque A1 puede ser usado como un primer bloque candidato a la AMVP espacial, y uno entre el bloque B0, el
20 bloque B1 y el bloque B2 puede ser usado como un segundo bloque candidato a la AMVP espacial, obteniendo por ello los bloques candidatos a la AMVP espacial.
La información referida a la predicción del movimiento es obtenida de un bloque candidato a la AMVP temporal (etapa S1210).
25 Según una realización de la presente invención, el bloque cosituado puede ser determinado de manera adaptable, según la ubicación del bloque de destino de predicción en la LCU, de modo que el bloque cosituado esté incluido en la misma LCU, junto con el bloque de destino de predicción.
30 1) En el caso en que el extremo inferior y el lado derecho del bloque de destino de predicción no sean adyacentes al contorno de la LCU, el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
35
2) En el caso en que solamente el extremo inferior del bloque de destino de predicción sea
P201390098
12-12-2013
adyacente al contorno de la LCU, el tercer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
5 3) En el caso en que tanto el lado derecho como el extremo inferior del bloque de destino de predicción sean adyacentes al contorno de la LCU, el cuarto bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
10 4) En el caso en que solamente el lado derecho del bloque de destino de predicción sea adyacente al contorno de la LCU, el segundo bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
15 Según una realización de la presente invención, puede usarse un procedimiento tal que no pueda ser usado el bloque cosituado no incluido en la misma LCU junto con el bloque de destino de predicción, así como un procedimiento tal que un bloque cosituado sea determinado de manera adaptable, según la ubicación del bloque de destino de predicción en la LCU, para que esté presente en una ubicación incluida en la misma LCU junto con el
20 bloque de destino de predicción.
En la etapa S1200 de obtención de los bloques candidatos a la AMVP espacial, cuando el primer bloque candidato a la AMVP espacial y el segundo bloque candidato a la AMVP espacial son determinados como disponibles, y los valores obtenidos del vector de
25 predicción de movimiento no son iguales, la etapa S1210 de obtención de un vector temporal de predicción de movimiento no puede ser realizada.
Se construye una lista de candidatos a la AMVP (etapa S1220).
30 La lista de candidatos a la AMVP es construida usando la información referida a la predicción del movimiento, obtenida mediante al menos una de las etapas S1200 y S1210. En el caso en que exista la misma información referida a la predicción del movimiento en la lista construida de candidatos a la AMVP, un valor entre la misma información referida a la predicción del movimiento puede ser usado como un valor de candidato a la AMVP. La
35 información referida a la predicción del movimiento, incluida en la lista de candidatos a la AMVP, puede incluir solamente un número fijo de valores de candidatos.
P201390098
12-12-2013
Aunque las realizaciones de la presente invención han sido descritas hasta el momento, los expertos en la técnica a la que corresponde la presente invención pueden entender que pueden hacerse diversas modificaciones y variaciones en la presente invención, sin apartarse del espíritu y el ámbito de la presente invención.

Claims (16)

  1. P201390098
    12-12-2013
    REIVINDICACIONES
    1. Un procedimiento de obtención de un vector candidato de predicción de movimiento, 5 caracterizado porque el procedimiento comprende:
    determinar un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción; y
    10 determinar un vector de predicción de movimiento del bloque cosituado,
    en el cual el bloque cosituado es un bloque determinado de manera adaptable por una ubicación del bloque de destino de predicción dentro de una Máxima Unidad de Codificación (LCU).
    15
  2. 2. El procedimiento de la reivindicación 1, en el cual el bloque cosituado es determinado de manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de la LCU.
    20 3. El procedimiento de la reivindicación 1, en el cual el bloque cosituado es determinado de manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de la LCU, y si solamente un contorno derecho del bloque de destino de predicción es o no adyacente al contorno de la LCU.
    25 4. El procedimiento de la reivindicación 1, en el cual el bloque cosituado es determinado haciendo referencia a posiciones de píxeles dentro de la LCU.
  3. 5. El procedimiento de la reivindicación 1, en el cual, si un lado izquierdo o un contorno inferior del bloque de destino de predicción no es adyacente al contorno de la LCU, un
    30 primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque cosituado en una posición correspondiente, y
    en el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de
    35 destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un
    P201390098
    12-12-2013
    bloque que incluye un punto en (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto en (xP+(nPSW>>1), yP+(nPSH>>1)) dentro de la imagen cosituada.
    5 6. Un procedimiento de obtención de un vector candidato de predicción de movimiento, caracterizado porque el procedimiento comprende:
    determinar si un contorno de un bloque de destino de predicción es adyacente o no a un contorno de una Máxima Unidad de Codificación (LCU); y
    10 determinar la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU.
  4. 7. El procedimiento de la reivindicación 6, que comprende adicionalmente: si se
    15 determina que el primer bloque cosituado no está disponible, determinar otro bloque cosituado, excepto el primer bloque cosituado, como un bloque cosituado para obtener un vector temporal de predicción de movimiento.
  5. 8. El procedimiento de la reivindicación 7, en el cual la etapa de determinación del otro
    20 bloque cosituado, excepto el primer bloque cosituado, como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado no está disponible, es una etapa para determinar distintos bloques cosituados, para obtener el vector temporal de predicción de movimiento para el caso en que un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso en que
    25 solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU.
  6. 9. El procedimiento de la reivindicación 6, en el cual la etapa de determinación de la disponibilidad del primer bloque cosituado, según la determinación de si el contorno del
    30 bloque de destino de predicción es o no adyacente al contorno de la LCU, es una etapa para determinar el primer bloque cosituado como no disponible, si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU.
  7. 10. El procedimiento de la reivindicación 6, que comprende adicionalmente la etapa de
    35 determinar el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, o
    P201390098
    12-12-2013
    determinar la disponibilidad de un quinto bloque cosituado, si el primer bloque cosituado no está disponible,
    en el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de
    5 destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un bloque que incluye un punto (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto (xP+(nPSW>>1), yP+(nPSH>>1)) dentro de la imagen cosituada.
    10
  8. 11. Un aparato de descodificación de vídeo, caracterizado porque el aparato comprende:
    una unidad de descodificación por entropía que descodifica información de tamaño de la 15 LCU; y
    una unidad de predicción que determina un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción, y determina un vector de predicción de movimiento del bloque cosituado, en el cual el bloque cosituado es un bloque determinado
    20 de manera adaptable por una ubicación del bloque de destino de predicción dentro de una Máxima Unidad de Codificación (LCU).
  9. 12. El aparato de la reivindicación 11, en el cual el bloque cosituado es determinado de
    manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es 25 o no adyacente a un contorno de la LCU.
  10. 13. El aparato de la reivindicación 11, en el cual el bloque cosituado es determinado de manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es
    o no adyacente a un contorno de la LCU, y si solamente un contorno derecho del bloque 30 de destino de predicción es o no adyacente al contorno de la LCU.
  11. 14. El aparato de la reivindicación 11, en el cual el bloque cosituado es determinado haciendo referencia a posiciones de píxeles dentro de la LCU.
    35 15. El aparato de la reivindicación 11, en el cual, si un lado izquierdo o un contorno inferior del bloque de destino de predicción no es adyacente al contorno de la LCU, un
    P201390098
    12-12-2013
    primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque cosituado en una posición correspondiente, y
    5 en el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un bloque que incluye un punto (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto (xP+(nPSW>>1),
    10 yP+(nPSH>>1)) dentro de la imagen cosituada.
  12. 16. Un aparato de descodificación de vídeo, caracterizado porque el aparato comprende:
    15 una unidad de descodificación por entropía que descodifica información de tamaño de la LCU; y
    una unidad de predicción que determina si un contorno de un bloque de destino de predicción es o no adyacente a un contorno de una Máxima Unidad de Codificación (LCU)
    20 y que determina la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU.
  13. 17. El aparato de la reivindicación 16, en el cual la unidad de predicción determina otro bloque cosituado, excepto el primer bloque cosituado, como un bloque cosituado para
    25 obtener un vector temporal de predicción de movimiento, si se determina que el primer bloque cosituado no está disponible.
  14. 18. El aparato de la reivindicación 17, en el cual la unidad de predicción determina distintos bloques cosituados para obtener el vector temporal de predicción de movimiento,
    30 para el caso en que un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso en que solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU.
  15. 19. El aparato de la reivindicación 16, en el cual la unidad de predicción determina el
    35 primer bloque cosituado como no disponible si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU.
    P201390098
    12-12-2013
  16. 20. El aparato de la reivindicación 16, en el cual la unidad de predicción determina el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, o determina la
    5 disponibilidad de un quinto bloque cosituado si el primer bloque cosituado no está disponible, y
    en el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y
    10 una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un bloque que incluye un punto (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto (xP+(nPSW>>1), yP+(nPSH>>1)) dentro de la imagen cosituada.
    15
ES201390098A 2011-09-09 2012-09-06 Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento Active ES2487993B1 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110091782 2011-09-09
KR10-2011-0091782 2011-09-09
KR10-2012-0039501 2012-04-17
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
PCT/KR2012/007174 WO2013036041A2 (ko) 2011-09-09 2012-09-06 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치

Publications (3)

Publication Number Publication Date
ES2487993A2 true ES2487993A2 (es) 2014-08-25
ES2487993R1 ES2487993R1 (es) 2015-01-27
ES2487993B1 ES2487993B1 (es) 2015-09-29

Family

ID=47832709

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201390098A Active ES2487993B1 (es) 2011-09-09 2012-09-06 Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento

Country Status (14)

Country Link
US (4) US10523967B2 (es)
EP (2) EP2672710B1 (es)
JP (7) JP5745693B2 (es)
CN (19) CN107580219B (es)
AU (1) AU2012305071B2 (es)
BR (1) BR112013022641B1 (es)
CA (2) CA2829114C (es)
ES (1) ES2487993B1 (es)
GB (7) GB2559227B (es)
MX (6) MX351041B (es)
PL (1) PL231159B1 (es)
RU (10) RU2600547C2 (es)
SE (5) SE1651147A1 (es)
WO (1) WO2013036041A2 (es)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
RU2600547C2 (ru) 2011-09-09 2016-10-20 Кт Корпорейшн Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
US9253498B2 (en) 2011-09-23 2016-02-02 Kt Corporation Method for inducing a merge candidate block and device using same
CN105453563B (zh) 2013-07-30 2019-08-16 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
US9894369B2 (en) 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
WO2016085229A1 (ko) * 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN109314785B (zh) * 2016-04-08 2023-06-30 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
KR102471208B1 (ko) 2016-09-20 2022-11-25 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11394976B2 (en) * 2017-01-03 2022-07-19 Lg Electronics Inc. Inter-prediction method and apparatus in image coding system
EP3383043A1 (en) 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
EP3704856A1 (en) * 2017-11-01 2020-09-09 Vid Scale, Inc. Sub-block motion derivation and decoder-side motion vector refinement for merge mode
CN118042153A (zh) 2018-01-25 2024-05-14 三星电子株式会社 使用基于子块的运动补偿进行视频信号处理的方法和装置
US11233996B2 (en) 2018-02-22 2022-01-25 Lg Electronics Inc. Image decoding method and apparatus according to block division structure in image coding system
CN118400522A (zh) 2018-03-21 2024-07-26 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
KR102840294B1 (ko) 2018-06-29 2025-07-30 두인 비전 컴퍼니 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
EP3794824A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Conditions for updating luts
CN110662075B (zh) 2018-06-29 2023-04-25 北京字节跳动网络技术有限公司 改进的时域运动矢量预测推导
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
WO2020003261A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Selection from multiple luts
WO2020003278A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Update of look up table: fifo, constrained fifo
EP4325861A3 (en) 2018-06-29 2024-03-06 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
WO2020003282A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Managing motion vector predictors for video coding
KR20240005240A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
CN117812257A (zh) * 2018-07-02 2024-04-02 Lg电子株式会社 图像解码方法、图像编码方法、存储介质和发送方法
EP3815376A1 (en) 2018-07-02 2021-05-05 Beijing Bytedance Network Technology Co. Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
CN117241039A (zh) 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
CN114363610B (zh) * 2018-08-29 2022-09-16 北京达佳互联信息技术有限公司 视频编码的方法、计算设备和存储介质
CN111064961B (zh) 2018-09-12 2023-06-09 北京字节跳动网络技术有限公司 视频处理方法和装置
BR112021005175A2 (pt) 2018-09-21 2021-06-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. método de decodificação de vídeo, método de codificação de vídeo, aparelho de decodificação de vídeo e aparelho de codificação de vídeo
GB2577318B (en) 2018-09-21 2021-03-10 Canon Kk Video coding and decoding
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
CN112889289B (zh) 2018-10-10 2024-08-23 三星电子株式会社 通过使用运动矢量差分值对视频进行编码和解码的方法以及用于对运动信息进行编码和解码的设备
GB2595053B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
GB2595054B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
JP7281890B2 (ja) * 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
CN113170198B (zh) 2018-11-22 2022-12-09 北京字节跳动网络技术有限公司 子块时域运动矢量预测
KR102625314B1 (ko) * 2018-11-26 2024-01-15 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 타일 독립성 제약을 이용하는 인터 예측 개념
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
AR118250A1 (es) * 2019-03-08 2021-09-22 Jvckenwood Corp Dispositivos, métodos y programas de codificación y decodificación de imágenes en movimiento
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
WO2020233661A1 (en) 2019-05-21 2020-11-26 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling in sub-block merge mode
CN110933408B (zh) * 2019-06-21 2020-11-10 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
CN114208166B (zh) 2019-08-10 2024-04-09 北京字节跳动网络技术有限公司 视频比特流中的子图片相关信令通知
WO2021052506A1 (en) * 2019-09-22 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Transform unit based combined inter intra prediction
KR102871115B1 (ko) 2019-10-18 2025-10-16 두인 비전 컴퍼니 리미티드 서브픽처들의 파라미터 세트 시그널링에서의 신택스 제약들
CN115280774B (zh) 2019-12-02 2025-08-19 抖音视界有限公司 视觉媒体处理的方法、装置及非暂时性计算机可读存储介质
CN115176466B (zh) * 2020-02-14 2026-01-02 抖音视界有限公司 视频比特流中的子图片信息信令
CN115349254A (zh) * 2020-03-23 2022-11-15 抖音视界有限公司 控制编解码视频中不同级别的去块滤波
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质
CN113709488B (zh) 2020-06-30 2023-02-28 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) * 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
US5508744A (en) 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
RU2182727C2 (ru) * 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
AU2001270885A1 (en) 2000-07-20 2002-02-05 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100446083B1 (ko) 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
US20050226462A1 (en) * 2002-05-30 2005-10-13 Wittebrood Rimmert B Unit for and method of estimating a motion vector
CN101039427B (zh) 2002-07-15 2010-06-16 株式会社日立制作所 动态图像的解码方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
WO2004032506A1 (en) 2002-10-01 2004-04-15 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) * 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
KR20060121820A (ko) 2003-08-22 2006-11-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 레이트-왜곡-복잡성 최적화된 비디오 코딩을 위한 모션벡터들의 결합된 공간-시간-배향-스케일 예측 및 코딩
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
AU2003282462A1 (en) * 2003-10-09 2005-05-26 Thomson Licensing Direct mode derivation process for error concealment
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
CA2547891C (en) * 2003-12-01 2014-08-12 Samsung Electronics Co., Ltd. Method and apparatus for scalable video encoding and decoding
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100694059B1 (ko) * 2004-09-30 2007-03-12 삼성전자주식회사 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP2008538433A (ja) 2005-04-12 2008-10-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 領域ベース複数パス動き推定及び時間的動きベクトル候補の更新を用いたビデオ処理
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
CN101253777A (zh) 2005-07-01 2008-08-27 极速决件公司 用于在多媒体信号编码中使用的方法、装置和系统
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
CN101455084A (zh) * 2006-03-30 2009-06-10 Lg电子株式会社 用于解码/编码视频信号的方法和装置
KR100934671B1 (ko) 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
CN101090491B (zh) * 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
WO2007148909A1 (en) 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
CN101102503A (zh) * 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
WO2008023967A1 (en) 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
CN101669367A (zh) 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
EP2149262A4 (en) * 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
CN101119493B (zh) 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
AU2008313328A1 (en) * 2007-10-15 2009-04-23 Nokia Corporation Motion skip and single-loop encoding for multi-view video content
KR101835342B1 (ko) * 2007-10-16 2018-03-07 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8908765B2 (en) * 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
US8990018B2 (en) * 2008-03-31 2015-03-24 MEDIMETRICS Personalized Drug Delivery B.V. Method of preparing a swallowable capsule comprising a sensor
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
TWI374672B (en) * 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
WO2010004939A1 (ja) 2008-07-10 2010-01-14 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
US8699562B2 (en) * 2008-10-06 2014-04-15 Lg Electronics Inc. Method and an apparatus for processing a video signal with blocks in direct or skip mode
CN101540926B (zh) * 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN102361671B (zh) 2009-08-20 2013-08-21 金落成 朝前后倾斜椅子而摇荡的秋千
JP2011097572A (ja) 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
WO2011096770A2 (ko) 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
CN103250412A (zh) 2010-02-02 2013-08-14 数码士有限公司 用于率失真优化的图像编码/解码方法和用于执行该方法的装置
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
PL2945382T3 (pl) * 2010-04-23 2017-11-30 M&K Holdings Inc. Urządzenie do kodowania obrazu
KR102158700B1 (ko) * 2010-05-04 2020-09-22 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
RS66722B1 (sr) * 2010-09-02 2025-05-30 Lg Electronics Inc Uređaj za inter predikciju
KR101033243B1 (ko) 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
US9532050B2 (en) 2011-01-25 2016-12-27 Sun Patent Trust Moving picture coding method and moving picture decoding method
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
WO2012140821A1 (ja) 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
RU2600547C2 (ru) 2011-09-09 2016-10-20 Кт Корпорейшн Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
US9392235B2 (en) * 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
CN107347160B (zh) 2011-11-18 2020-04-28 谷歌技术控股有限责任公司 针对高效率视频代码化用信号发送并置图片的显式方式
EP2783510A1 (en) * 2011-11-21 2014-10-01 Motorola Mobility LLC Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9210425B2 (en) 2012-04-11 2015-12-08 Google Technology Holdings LLC Signaling of temporal motion vector predictor (MVP) flag for temporal prediction
WO2013154674A1 (en) 2012-04-11 2013-10-17 Motorola Mobility Llc Evaluation of signaling of collocated reference picture for temporal prediction
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Also Published As

Publication number Publication date
JP5993484B2 (ja) 2016-09-14
GB201716271D0 (en) 2017-11-22
GB201809871D0 (en) 2018-08-01
CN107483926A (zh) 2017-12-15
CN107580219A (zh) 2018-01-12
CN107580220B (zh) 2020-06-19
JP2015167372A (ja) 2015-09-24
JP2016007039A (ja) 2016-01-14
CN107483925A (zh) 2017-12-15
GB2559445A (en) 2018-08-08
MX338137B (es) 2016-04-05
JP6322693B2 (ja) 2018-05-09
CN107592527A (zh) 2018-01-16
CA2829114A1 (en) 2013-03-14
CN107396099A (zh) 2017-11-24
RU2016133580A (ru) 2018-12-10
RU2622849C1 (ru) 2017-06-20
MX381917B (es) 2025-03-13
MX351041B (es) 2017-09-29
GB2508739A (en) 2014-06-11
CN107483929B (zh) 2020-05-12
SE538057C2 (sv) 2016-02-23
CN107580218B (zh) 2020-05-12
AU2012305071A8 (en) 2013-10-31
GB201716275D0 (en) 2017-11-22
JP6062480B2 (ja) 2017-01-18
GB2562130A (en) 2018-11-07
RU2716229C2 (ru) 2020-03-06
CN107404651A (zh) 2017-11-28
MX381916B (es) 2025-03-13
GB201716270D0 (en) 2017-11-22
RU2016133579A (ru) 2018-12-10
BR112013022641A2 (es) 2017-09-21
CN103430550A (zh) 2013-12-04
CN106170088B (zh) 2019-02-19
CN107592528B (zh) 2020-05-12
CN107592529B (zh) 2020-05-12
US20210044832A1 (en) 2021-02-11
CN107483927A (zh) 2017-12-15
CN107580220A (zh) 2018-01-12
RU2013140661A (ru) 2015-10-20
GB2562130B (en) 2019-04-03
CN107635140A (zh) 2018-01-26
RU2016133579A3 (es) 2020-01-30
GB2562129B (en) 2019-04-03
CN107396099B (zh) 2020-03-06
JP2017098967A (ja) 2017-06-01
WO2013036041A2 (ko) 2013-03-14
AU2012305071A1 (en) 2013-10-03
CA2937483C (en) 2017-09-05
AU2012305071B2 (en) 2014-12-11
BR112013022641B1 (pt) 2022-07-12
SE1551592A1 (sv) 2015-12-03
SE1351475A1 (sv) 2014-06-09
CN106170088A (zh) 2016-11-30
RU2716231C2 (ru) 2020-03-06
CN107483925B (zh) 2020-06-19
PL231159B1 (pl) 2019-01-31
RU2600547C2 (ru) 2016-10-20
GB201716265D0 (en) 2017-11-22
CN104349164B (zh) 2018-02-02
JP2016007040A (ja) 2016-01-14
EP3179723A1 (en) 2017-06-14
CN107580221A (zh) 2018-01-12
RU2636118C1 (ru) 2017-11-20
JP2018139422A (ja) 2018-09-06
JP6062508B2 (ja) 2017-01-18
CN107592527B (zh) 2020-05-12
WO2013036041A3 (ko) 2013-05-02
RU2016133566A (ru) 2018-12-10
CN107483927B (zh) 2020-06-05
EP3179723B1 (en) 2023-01-25
US10805639B2 (en) 2020-10-13
CN107580219B (zh) 2020-12-08
RU2016133570A3 (es) 2020-01-30
US11089333B2 (en) 2021-08-10
CN107396098B (zh) 2020-03-06
EP2672710B1 (en) 2022-10-26
US20200084475A1 (en) 2020-03-12
JP2014520477A (ja) 2014-08-21
CN107404651B (zh) 2020-03-06
GB2559445B (en) 2018-11-28
RU2016133566A3 (es) 2020-01-30
RU2636117C1 (ru) 2017-11-20
EP2672710A4 (en) 2016-08-03
RU2016133570A (ru) 2018-12-10
GB2559226A (en) 2018-08-01
US10523967B2 (en) 2019-12-31
RU2635235C1 (ru) 2017-11-09
GB2562635A (en) 2018-11-21
RU2646384C1 (ru) 2018-03-02
BR112013022641A8 (pt) 2017-09-12
SE1651149A1 (sv) 2016-08-25
MX351052B (es) 2017-09-29
US20130343461A1 (en) 2013-12-26
GB201716273D0 (en) 2017-11-22
CA2937483A1 (en) 2013-03-14
JP6619045B2 (ja) 2019-12-11
EP2672710A2 (en) 2013-12-11
GB2562129A (en) 2018-11-07
CN107592528A (zh) 2018-01-16
CN107580221B (zh) 2020-12-08
SE1651147A1 (sv) 2016-08-25
CN107483929A (zh) 2017-12-15
CN107483926B (zh) 2020-06-05
PL407911A1 (pl) 2015-05-25
MX2013010155A (es) 2013-12-02
JP6062507B2 (ja) 2017-01-18
GB2559226B (en) 2018-11-28
GB2559445A8 (en) 2018-10-03
GB2559227A (en) 2018-08-01
JP2015167373A (ja) 2015-09-24
CN103430550B (zh) 2017-10-13
CN107483928B (zh) 2020-05-12
CN107635140B (zh) 2020-12-08
ES2487993R1 (es) 2015-01-27
US20150208093A1 (en) 2015-07-23
RU2016133580A3 (es) 2020-01-30
CA2829114C (en) 2016-11-22
GB2562635B (en) 2019-04-03
GB2559227B (en) 2018-11-28
CN104349164A (zh) 2015-02-11
SE1651148A1 (sv) 2016-08-25
GB2508739B (en) 2018-12-05
CN107592529A (zh) 2018-01-16
SE538787C2 (sv) 2016-11-22
CN107580218A (zh) 2018-01-12
CN107483928A (zh) 2017-12-15
GB201321881D0 (en) 2014-01-22
JP5745693B2 (ja) 2015-07-08
CN107396098A (zh) 2017-11-24
RU2716230C2 (ru) 2020-03-06
ES2487993B1 (es) 2015-09-29
RU2716563C2 (ru) 2020-03-12

Similar Documents

Publication Publication Date Title
ES2487993A2 (es) Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento
US12137243B2 (en) Method for refining a motion vector derived under a merge mode using a difference vector
US11303919B2 (en) Method and apparatus for inter prediction in video coding system
ES2715613T3 (es) Método para fijar una lista de vectores de movimiento
ES2955938T3 (es) Intrapredicción en codificación de vídeo
RU2632157C2 (ru) Способ и устройство для совместного использования списка кандидатов
US10856001B2 (en) Polygon unit-based image processing method, and device for same
BR112013018993B1 (pt) Método de derivação de candidato de mesclagem
US20190098299A1 (en) Inter prediction mode-based image processing method and device therefor
RU2575419C2 (ru) Способ и устройство для совместного использования списка кандидатов

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2487993

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20150929