ES2487993A2 - Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento - Google Patents
Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento Download PDFInfo
- Publication number
- ES2487993A2 ES2487993A2 ES201390098A ES201390098A ES2487993A2 ES 2487993 A2 ES2487993 A2 ES 2487993A2 ES 201390098 A ES201390098 A ES 201390098A ES 201390098 A ES201390098 A ES 201390098A ES 2487993 A2 ES2487993 A2 ES 2487993A2
- Authority
- ES
- Spain
- Prior art keywords
- block
- prediction
- contour
- lcu
- costed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/40—Tree coding, e.g. quadtree, octree
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Se revelan un procedimiento de obtención de un vector temporal predictor de movimiento, y un aparato que utiliza el procedimiento. Un procedimiento de descodificación de imágenes puede comprender las etapas de: determinar si un bloque por predecir entra o no en contacto con un contorno de una máxima unidad de codificación (LCU); y determinar si un primer bloque de llamada está o no disponible, según que el bloque por predecir entre o no en contacto con el contorno de la LCU. En consecuencia, puede reducirse el ancho de banda de memoria innecesario, y la complejidad de la implementación también puede ser reducida.
Description
P201390098
12-12-2013
DESCRIPCIÓN
5
La presente invención se refiere a un procedimiento de codificación y descodificación de vídeo y, más específicamente, la presente invención corresponde a un procedimiento para
10 obtener un vector temporal de predicción de movimiento y un aparato para usar este procedimiento.
Antecedentes de la invención
15 En los años recientes, la demanda de vídeo de alta resolución y alta calidad, tal como el vídeo HD (Alta Definición) y el vídeo UHD (Ultra Alta Definición), ha aumentado en diversas áreas. Según los datos de vídeo llegan a tener alta resolución y / o alta calidad, la cantidad de datos de vídeo sube relativamente, en comparación con los datos de vídeo existentes y, por tanto, cuando los datos de vídeo son transmitidos mediante una red convencional de
20 banda ancha cableada / inalámbrica, o son almacenados en un medio de almacenamiento existente, los costes para la transmisión y el almacenamiento aumentan. Para abordar tales problemas, que ocurren según los datos de vídeo llegan a la alta resolución y la alta calidad, pueden ser utilizadas tecnologías de compresión de vídeo de alta eficacia.
25 Un buen número de esquemas han sido introducidos para la compresión de vídeo, tales como el esquema de inter-predicción que predice los valores de píxel incluidos en una imagen actual a partir de una imagen antes o después de la imagen actual, el esquema de intra-predicción que predice los valores de píxel incluidos en una imagen actual usando información de píxeles en la imagen actual, y el esquema de codificación por entropía que
30 asigna una palabra de código más breve a un valor que ocurre con más frecuencia, mientras que asigna una palabra de código más larga a un valor que ocurre menos frecuentemente. Tales esquemas de compresión de vídeo pueden ser utilizados para comprimir, transmitir o almacenar efectivamente datos de vídeo.
35 Breve descripción de la invención
P201390098
12-12-2013
【Problema técnico】
Un objeto de la presente invención es proporcionar un procedimiento de obtención de un vector temporal de predicción de movimiento para un bloque adyacente a un contorno de 5 una LCU (Máxima Unidad de Codificación).
Otro objeto de la presente invención es proporcionar un aparato de realización de un procedimiento de obtención de un vector temporal de predicción de movimiento para un bloque adyacente a un contorno de una LCU.
10
【Solución técnica】
Para lograr el primer objeto de la presente invención, según un aspecto de la presente invención, un procedimiento de descodificación de vídeo incluye las etapas de determinar un 15 índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción; y determinar un vector de predicción de movimiento del bloque cosituado, donde el bloque cosituado es un bloque determinado de manera adaptable por una ubicación del bloque de destino de predicción dentro de una Máxima Unidad de Codificación (LCU). El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de 20 destino de predicción es o no adyacente a un contorno de una LCU. El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de destino de predicción es adyacente o no a un contorno de LCU, y si solamente un contorno derecho del bloque de destino de predicción es adyacente o no al contorno de LCU. El bloque cosituado puede ser determinado haciendo referencia a posiciones de píxeles dentro de la LCU. Si un
25 lado izquierdo o un contorno inferior del bloque de destino de predicción no es adyacente al contorno de LCU, un primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque cosituado en una posición correspondiente.
30 Para lograr el segundo objeto de la presente invención, según un aspecto de la presente invención, un procedimiento de descodificación de vídeo puede incluir las etapas de determinar si un contorno de un bloque de destino de predicción es adyacente o no a un contorno de una LCU; y determinar la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al
35 contorno de la LCU. El procedimiento de descodificación de vídeo puede incluir adicionalmente la etapa de determinar otro bloque cosituado, excepto el primer bloque
P201390098
12-12-2013
cosituado, como un bloque cosituado para obtener un vector temporal de predicción de movimiento, si se determina que el primer bloque cosituado no está disponible. La etapa de determinar el otro bloque cosituado, excepto el primer bloque cosituado, como el bloque cosituado para obtener el vector temporal de predicción de movimiento si el primer bloque 5 cosituado no está disponible, es una etapa para determinar distintos bloques cosituados, para obtener el vector temporal de predicción de movimiento para el caso donde un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso donde solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU. La etapa de determinar la disponibilidad del primer bloque 10 cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU, es una etapa para determinar el primer bloque cosituado como no disponible si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU. La etapa de determinar el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer
15 bloque cosituado está disponible, o de determinar la disponibilidad de un quinto bloque cosituado si el primer bloque cosituado no está disponible, puede estar adicionalmente comprendida.
Para lograr el tercer objeto de la presente invención, según un aspecto de la presente
20 invención, un aparato de descodificación de vídeo incluye una unidad de descodificación por entropía, que descodifica información de tamaño de LCU, y una unidad de predicción que determina un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción y que determina un vector de predicción de movimiento del bloque cosituado, en donde el bloque cosituado es un bloque determinado de manera adaptable por
25 una ubicación del bloque de destino de predicción dentro de una LCU. El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de LCU. El bloque cosituado puede ser determinado decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de LCU y si solamente un contorno derecho del bloque de destino
30 de predicción es o no adyacente al contorno de la LCU. El bloque cosituado puede ser determinado haciendo referencia a posiciones de píxeles dentro de la LCU. Si un lado izquierdo, o un contorno inferior, del bloque de destino de predicción no es adyacente al contorno de LCU, un primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque
35 cosituado en una posición correspondiente.
P201390098
12-12-2013
Para lograr el cuarto objeto de la presente invención, según un aspecto de la presente invención, una unidad de descodificación de vídeo puede incluir una unidad de descodificación por entropía que descodifica información de tamaño de LCU, y una unidad de predicción que determina si un contorno de un bloque de destino de predicción es o no 5 adyacente a un contorno de una LCU, y que determina la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU. La unidad de predicción puede determinar otro bloque cosituado, excepto el primer bloque cosituado, como un bloque cosituado, para obtener un vector temporal de predicción de movimiento, si se determina que el primer bloque cosituado 10 no está disponible. La unidad de predicción puede determinar distintos bloques cosituados para obtener el vector temporal de predicción de movimiento, para el caso donde un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso donde solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU. La unidad de predicción puede determinar el primer 15 bloque cosituado como no disponible si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU. La unidad de predicción puede determinar el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, o puede determinar la disponibilidad de un quinto bloque cosituado, si el primer bloque cosituado no está
20 disponible.
【Efectos ventajosos】
Como se ha descrito en lo que antecede, el procedimiento de obtención de un vector
25 temporal de predicción de movimiento, y un aparato de utilización del procedimiento según una realización de la presente invención, pueden utilizar de manera diferente una imagen cosituada (o co-situada), de la cual se obtiene un vector temporal de movimiento, según que un bloque de destino de predicción sea o no adyacente a una LCU. Usando este procedimiento, el ancho de banda de memoria, usado innecesariamente para obtener un
30 vector de movimiento temporal, puede ser reducido, y la complejidad en la implementación puede ser minimizada.
Breve descripción de los dibujos
35 La Fig. 1 es un diagrama de bloques que ilustra un aparato de codificación de vídeo según una realización de la presente invención.
P201390098
12-12-2013
La Fig. 2 es un diagrama de bloques que ilustra un descodificador de vídeo según otra realización de la presente invención.
5 La Fig. 3 es una vista conceptual que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento según una realización de la presente invención.
La Fig. 4 es un diagrama de flujo que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento según una realización de la presente invención.
10
La Fig. 5 es una vista conceptual que ilustra una posición de un bloque cosituado, para obtener un vector de movimiento temporal según una realización de la presente invención.
La Fig. 6 es una vista conceptual que ilustra un procedimiento de determinación de un 15 bloque cosituado, para obtener un vector de predicción de movimiento según una realización de la presente invención.
La Fig. 7 es una vista conceptual que ilustra un caso donde un bloque de destino de predicción es adyacente a un contorno inferior de una LCU, según una realización de la 20 presente invención.
La Fig. 8 es un diagrama de flujo que ilustra un procedimiento de inter-predicción que usa una modalidad de fusión, según una realización de la presente invención.
25 La Fig. 9 es una vista conceptual que ilustra ubicaciones de candidatos a la fusión espacial, según una realización de la presente invención.
La Fig. 10 es un diagrama de flujo que ilustra un procedimiento de inter-predicción que usa la AMVP (Predicción Avanzada de Vector de Movimiento), según una realización de la 30 presente invención.
Realización preferente de la invención
Pueden hacerse diversas modificaciones a la presente invención, y la presente invención 35 puede tener un buen número de realizaciones. Las realizaciones específicas son descritas en detalle, con referencia a las figuras. Sin embargo, la presente invención no está limitada a
P201390098
12-12-2013
las realizaciones específicas, y debería entenderse que la presente invención incluye todas las modificaciones, equivalentes o sustituciones, que estén incluidos en el espíritu y el ámbito técnico de la presente invención. Marcas similares de referencia pueden ser usadas entre módulos similares cuando se explican las figuras.
5
Los términos “primero” y “segundo” pueden ser usados para describir diversos componentes (o características). Sin embargo, los componentes no están limitados a ello. Estos términos son usados solamente para distinguir entre un componente y otro. Por ejemplo, el primer componente también puede ser nombrado como el segundo componente, y el segundo
10 componente, de manera similar, puede ser nombrado como el primer componente. El término “y / o” incluye una combinación de una pluralidad de elementos relacionados, según lo descrito en la presente memoria, o uno cualquiera entre la pluralidad de elementos relacionados.
15 Cuando un componente (o característica) está “conectado” o “acoplado” con otro componente, el componente puede estar directamente conectado o acoplado con el otro componente. Por el contrario, cuando un componente está “directamente conectado o acoplado” con otro componente, no interviene ningún componente.
20 Los términos usados en la presente memoria están dados para describir las realizaciones, pero no concebidos para limitar la presente invención. Un término singular incluye un término plural, a menos que se indique otra cosa claramente en el contexto. Según se usan en la presente memoria, los términos “incluir” o “tener”, etc., son usados para indicar que hay características, números, etapas, operaciones, componentes, partes o combinaciones
25 de los mismos según lo descrito en la presente memoria, pero no excluyen la presencia o posibilidad de agregar uno o más características, números, etapas, operaciones, componentes, partes o componentes de los mismos.
En adelante en la presente memoria, se describirán las realizaciones preferidas de la
30 presente invención en mayor detalle, con referencia a los dibujos adjuntos. Los mismos números de referencia se refieren a los mismos componentes en toda la extensión de los dibujos, y no se repite la descripción de los mismos componentes.
La Fig. 1 es un diagrama de bloques que ilustra un aparato de codificación de vídeo según 35 una realización de la presente invención.
P201390098
12-12-2013
Con referencia a la Fig. 1, el aparato 100 de codificación de vídeo puede incluir un módulo 110 de división de imágenes, un módulo 120 de inter-predicción, un módulo 125 de intrapredicción, un módulo 130 de transformación, un módulo 135 de cuantización, un módulo 160 de redisposición, un módulo 165 de codificación por entropía, un módulo 140 de
5 descuantización, un módulo 145 de transformación inversa, un módulo 150 de filtrado y una memoria 155.
Cada módulo de la Fig. 1 se muestra independientemente de los otros, para representar distintas funciones entre ellos, en el aparato de codificación de vídeo, pero esto no significa 10 que cada módulo debería ser implementado en una unidad de módulo (componente) de hardware o software por separado. Es decir, para facilitar la descripción, los módulos se muestran como proporcionados de manera independiente, y al menos dos de los módulos pueden ser combinados para constituir un módulo, o bien uno de los módulos puede ser dividido en una pluralidad de módulos para realizar funciones. Las realizaciones de
15 combinaciones de los módulos, o las realizaciones de separación de los módulos, también están incluidas en el ámbito de la presente invención, sin apartarse de la esencia de la presente invención.
Además, algunos de los módulos pueden no ser módulos esenciales que realizan funciones
20 esenciales de la presente invención, pero pueden ser más bien módulos optativos para mejorar las prestaciones. La presente invención puede incluir solamente los módulos esenciales necesarios para implementar el núcleo de la presente invención, excluyendo los módulos usados meramente para unas mejores prestaciones, y esta estructura también está incluida en el ámbito de la presente invención.
25 Un módulo 110 de división de imágenes puede dividir una imagen de entrada en al menos una unidad de procesamiento. En este momento, la unidad de procesamiento puede ser una unidad de predicción (PU), una unidad de transformación (TU) o una unidad de codificación (CU). El módulo 110 de división de imágenes puede codificar la imagen dividiendo una
30 imagen en una combinación de una pluralidad de unidades de codificación, unidades de predicción y unidades de transformación, y una combinación de una unidad de codificación, una unidad de predicción y una unidad de transformación puede ser seleccionada según un estándar (o referencia) predeterminado, tal como una función de coste, y puede ser codificada.
35
Por ejemplo, una imagen puede ser dividida en una pluralidad de unidades de codificación.
P201390098
12-12-2013
Una estructura de árbol recursivo, tal como una estructura de árbol de cuatro ramas, puede ser usada para dividir una imagen en unidades de codificación. Con una imagen, o una máxima unidad de codificación, como raíz, una unidad de codificación puede ser dividida en otras unidades de codificación, con tantos nodos hijos como el número de las unidades de
5 codificación divididas. La unidad de codificación que ya no se divide más, debido a una limitación predeterminada, es un nodo hoja. Es decir, suponiendo que solamente se dispone de división de forma cuadrada para una unidad de codificación, la unidad de codificación puede ser dividida en un máximo de otras cuatro unidades de codificación.
10 En adelante en la presente memoria, en realizaciones de la presente invención, la unidad de codificación puede significar una unidad en la cual se realiza la descodificación, así como la codificación.
Una unidad de predicción puede ser dividida en forma de al menos un cuadrado o 15 rectángulo, con el mismo tamaño dentro de una unidad de codificación.
Tras la generación de una unidad de predicción en la cual se realiza la intra-predicción en base a una unidad de codificación, si la unidad de codificación no es una unidad mínima de codificación, la intra-predicción puede ser realizada sin dividir la unidad de predicción en una
20 pluralidad de NxN unidades de predicción.
Un módulo de predicción puede incluir un módulo 120 de inter-predicción que realiza una inter-predicción y un módulo 125 de intra-predicción que realiza una intra-predicción. Puede determinarse si se realiza la inter-predicción o la intra-predicción con respecto a la unidad de 25 predicción y, según cada procedimiento de predicción, puede determinarse información específica (p. ej., modalidad de intra-predicción, vector de movimiento, imagen de referencia, etc.). En este momento, una unidad de procesamiento en la cual se realiza la predicción puede diferir de una unidad de procesamiento en la cual se determinan el procedimiento de predicción y sus detalles. Por ejemplo, el procedimiento de predicción y la modalidad de 30 predicción pueden ser realizadas en una unidad de transformación. Un valor residual (bloque residual) entre un bloque de predicción generado y un bloque original puede ser ingresado al módulo 130 de transformación. Además, la información de modalidad de predicción y la información del vector de movimiento, etc., usadas para la predicción, junto con el valor residual, pueden ser codificadas en un módulo 165 de codificación por entropía 35 y pueden ser luego transmitidas a un aparato de descodificación. Si se usa una modalidad específica de codificación, en lugar de generar el bloque de predicción por los módulos 120
P201390098
12-12-2013
y 125 de predicción, el bloque original, según está, puede ser codificado y transmitido al aparato de descodificación.
El módulo de inter-predicción puede predecir una unidad de predicción en base a
5 información de al menos una imagen, entre las imágenes anteriores a una imagen actual, o a imágenes después de la imagen actual. El módulo de inter-predicción puede incluir un módulo de interpolación de imágenes de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.
10 El módulo de interpolación de imágenes de referencia puede recibir información de imágenes de referencia desde la memoria 155, y puede generar información de píxeles en la unidad, con menos de una unidad entera de píxel, dentro de la imagen de referencia. En el caso de píxeles de luma, puede usarse un filtro de interpolación de 8 tomas basado en la DCT (Transformación Discreta de Coseno), con distintos coeficientes de filtro para cada
15 toma, para generar la información de píxeles en la unidad con menos de la unidad entera de píxeles, una unidad de 1/4 de píxel. En el caso de una señal de croma, puede usarse un filtro de interpolación de 4 tomas basado en la DCT, con distintos coeficientes de filtro para cada toma, para generar la información de píxeles en la unidad con menos de la unidad entera de píxeles, una unidad de 1/8 de píxel.
20 Un módulo de predicción de movimiento puede realizar la predicción del movimiento en base a una imagen de referencia interpolada por el módulo de interpolación de imágenes de referencia. Para obtener un vector de movimiento, pueden usarse diversos procedimientos, tales como el FBMA (Algoritmo de Correlación de Bloques basado en la Búsqueda
25 Completa), la TSS (Búsqueda en Tres Etapas), el NTS (Nuevo Algoritmo de Búsqueda en Tres Etapas), etc. El vector de movimiento puede tener un valor de vector de movimiento en una unidad de 1/2 píxel, o en una unidad de 1/4 de píxel, en base a un píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad actual de predicción aplicando diversos procedimientos de predicción de movimiento. En cuanto al procedimiento
30 de predicción de movimiento, pueden usarse diversos procedimientos, tales como un procedimiento de omisión, un procedimiento de fusión, o un procedimiento de AMVP (Predicción Avanzada de Vector de Movimiento).
Según una realización de la presente invención, el módulo de inter-predicción puede 35 determinar si un contorno de un bloque de destino de predicción es adyacente o no a un contorno de una LCU (Máxima Unidad de Codificación), y puede determinar si un primer
P201390098
12-12-2013
bloque cosituado (o co-situado) está o no disponible, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU. Por ejemplo, en el caso de que el primer bloque cosituado no esté disponible, un segundo bloque cosituado puede ser determinado como un bloque cosituado para obtener un vector
5 temporal de predicción de movimiento. O bien, en el caso de que el primer bloque cosituado no esté disponible, puede cambiarse una posición del primer bloque cosituado, y el primer bloque cosituado, cambiado de posición, puede ser determinado como un bloque cosituado para obtener un vector temporal de predicción de movimiento.
10 Además, el módulo de inter-predicción puede incluir un módulo predictor que determina un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción, y que determina un vector de predicción de movimiento del bloque cosituado. El bloque cosituado puede ser determinado de manera adaptable, según una ubicación del bloque de destino de predicción en la LCU (Máxima Unidad de Codificación). En adelante en
15 la presente memoria, se describe en detalle el funcionamiento del módulo de predicción según la presente invención.
El módulo de inter-predicción puede generar una unidad de predicción en base a información sobre un píxel de referencia vecino al bloque actual, que es información de píxel 20 sobre los píxeles en la imagen actual. En el caso en que el bloque vecino a la unidad de predicción actual es un bloque al que se aplica la inter-predicción y, por tanto, el píxel de referencia es un píxel obtenido a través de la inter-predicción, el píxel de referencia incluido en el bloque al cual se aplica la inter-predicción puede ser reemplazado usando información de píxeles de referencia de un bloque al cual se aplica la intra-predicción. Es decir, en el
25 caso en que no está disponible un píxel de referencia, la información de píxel de referencia no disponible puede ser reemplazada por al menos uno de los píxeles de referencia disponibles.
En cuanto a la intra-predicción, las modalidades de predicción pueden incluir una modalidad
30 de predicción direccional, en la cual la información de píxeles de referencia se usa según una dirección de predicción, y una modalidad no direccional, en la cual, tras la predicción, no se usa ninguna información direccional. Una modalidad para predecir información de luma puede ser distinta a una modalidad para predecir información de croma. Además, la información sobre una modalidad de intra-predicción, en la cual ha sido predicha información
35 de luma, o bien la información predicha de señales de luma, puede ser utilizada a fin de predecir información de croma.
P201390098
12-12-2013
Tras la realización de la intra-predicción, si el tamaño de una unidad de predicción es igual al tamaño de una unidad de transformación, la intra-predicción se realiza en base a los píxeles situados en el lado izquierdo de la unidad de predicción, un píxel situado en el extremo 5 superior izquierdo de la unidad de predicción y los píxeles situados en el extremo superior de la unidad de predicción. Sin embargo, tras la realización de la intra-predicción, si el tamaño de la unidad de predicción es distinto al tamaño de la unidad de transformación, la intra-predicción puede ser realizada usando píxeles de referencia en base a la unidad de transformación. Además, solamente para una mínima unidad de codificación, la intra
10 predicción puede ser realizada usando una partición NxN.
En el procedimiento de intra-predicción, un bloque de predicción puede ser generado después de serle aplicado un filtro de MDIS (Intra-Allanamiento Dependiente de la Modalidad) sobre los píxeles de referencia según la modalidad de predicción. Diversos tipos 15 de filtros de MDIS pueden ser aplicables para los píxeles de referencia. Para realizar el procedimiento de intra-predicción, una modalidad de intra-predicción de una unidad de predicción actual puede ser predicha a partir de una modalidad de intra-predicción de una unidad de predicción vecina de la unidad de predicción actual. En el caso de que la modalidad de predicción de la unidad de predicción actual sea predicha usando la 20 información de modalidad predicha a partir de la unidad de predicción vecina, si la modalidad de intra-predicción de la unidad de predicción actual es la misma que la modalidad de intra-predicción de la unidad de predicción vecina, puede usarse información de señal predeterminada para transmitir información que indique que la unidad de predicción actual es idéntica, en la modalidad de predicción, a la unidad de predicción vecina. Y si la
25 modalidad de predicción de la unidad de predicción actual es distinta a la modalidad de predicción de la unidad de predicción vecina, puede realizarse una codificación por entropía para codificar la información de modalidad de predicción del bloque actual.
Además, puede obtenerse un bloque residual, que incluye información sobre un valor
30 residual que es un valor diferencial entre un bloque original de una unidad de predicción y una unidad de predicción sobre la cual se realiza la predicción, en base a la unidad de predicción generada en los módulos 120 y 125 de predicción. El bloque residual obtenido puede ser ingresado al módulo 130 de transformación. El módulo 130 de transformación puede transformar el bloque residual por un procedimiento de transformación, tal como la
35 DCT (Transformación Discreta de Coseno) o la DST (Transformación Discreta de Seno). El bloque residual incluye información residual entre la unidad de predicción generada a través
P201390098
12-12-2013
de los módulos 120 y 125 de predicción y el bloque original. La aplicación de la DCT o la DST para transformar el bloque residual puede ser determinada en base a información de modalidad de intra-predicción de la unidad de predicción usada para generar el bloque residual.
5
El módulo 135 de cuantización puede cuantizar valores transformados en un dominio de frecuencia por el módulo 130 de transformación. Un parámetro de cuantización puede variar, según un bloque o la importancia de una imagen. Un valor producido a partir del módulo 135 de cuantización puede ser proporcionado al módulo 140 de descuantización y al módulo 160
10 de redisposición.
El módulo 160 de redisposición puede realizar la redisposición de coeficientes para el valor residual cuantizado.
15 El módulo 160 de redisposición puede cambiar coeficientes con forma de bloque bidimensional (2D) a una forma vectorial unidimensional, mediante un procedimiento de recorrido de coeficientes. Por ejemplo, el módulo 160 de redisposición puede usar un procedimiento de recorrido en diagonal para recorrer desde los coeficientes de DC hasta los coeficientes de alta frecuencia, disponiendo por ello coeficientes con forma de bloque
20 bidimensional en forma de un vector unidimensional. Según el tamaño de la unidad de transformación y la modalidad de intra-predicción, en lugar del procedimiento de recorrido en diagonal, puede usarse un procedimiento de recorrido vertical, en el cual los coeficientes con forma de bloque bidimensional son recorridos a lo largo de una dirección de columna, o un procedimiento de recorrido horizontal, en el cual los coeficientes con forma de bloque
25 bidimensional son recorridos a lo largo de una dirección de fila. En otras palabras, puede usarse uno entre el recorrido en diagonal, el recorrido vertical y el recorrido horizontal, según el tamaño de la unidad de transformación y la modalidad de intra-predicción.
El módulo 165 de codificación por entropía puede realizar una codificación por entropía, en
30 base a valores producidos por el módulo 160 de redisposición. Para la codificación por entropía, pueden aplicarse diversos procedimientos de codificación, tales como, p. ej., Golomb Exponencial y CABAC (Codificación Aritmética Binaria Adaptable al Contexto).
El módulo 165 de codificación por entropía puede codificar información diversa, tal como
35 información de coeficientes residuales e información de tipo de bloque de la unidad de codificación, información de modalidad de predicción, información de unidad de partición,
P201390098
12-12-2013
información de unidad de predicción e información de unidad de transmisión, información de vectores de movimiento, información de tramas de referencia, información de interpolación para un bloque, información de filtrado e información de tamaños de LCU, que son proporcionadas por el módulo 160 de redisposición y los módulos 120 y 125 de predicción.
5
El módulo 165 de codificación por entropía puede realizar una codificación por entropía sobre los valores de coeficientes de la unidad de codificación, como entrada desde el módulo 160 de redisposición, usando un procedimiento de codificación por entropía tal como CABAC.
10 El módulo 140 de descuantización puede realizar la descuantización sobre los valores cuantizados por el módulo 135 de cuantización, y el módulo 145 de transformación inversa puede realizar la transformación inversa sobre los valores transformados por el módulo 130 de transformación. Los valores residuales generados por el módulo 140 de descuantización
15 y el módulo 145 de transformación inversa pueden ser añadidos con la unidad de predicción, predicha mediante un módulo de estimación de movimiento, un módulo de compensación de movimiento y un módulo de intra-predicción incluidos en los módulos 120 y 125 de predicción, generando por ello un bloque restaurado.
20 Un módulo 150 de filtrado puede incluir al menos uno entre un filtro de desbloqueo, un módulo corrector de desplazamiento y un ALF (Filtro de Bucle Adaptable).
Un filtro de desbloqueo puede eliminar una distorsión de bloque que haya ocurrido debido a un contorno de bloque en la imagen restaurada (o reconstruida). La aplicación o no del filtro 25 de desbloqueo a un bloque actual puede ser determinada por un píxel incluido en varias filas
o columnas incluidas en los bloques. En el caso de que el filtro de desbloqueo se aplique al bloque, puede aplicarse un filtro fuerte o un filtro débil, según la potencia necesaria del filtrado de desbloqueo. Además, en el caso de que el filtro de desbloqueo se aplique al bloque, un filtrado en dirección horizontal y un filtrado en dirección vertical pueden ser
30 realizados en paralelo.
Un módulo corrector de desplazamiento puede corregir un desplazamiento entre una imagen original y una imagen a la que se ha aplicado el desbloqueo en una unidad de píxel (o píxel por píxel). A fin de realizar la corrección de desplazamiento sobre una imagen específica, los 35 píxeles incluidos en la imagen son divididos en un número predeterminado de áreas, una de las cuales es luego determinada para realizar un desplazamiento, y puede usarse un
P201390098
12-12-2013
procedimiento de aplicación de un desplazamiento al área correspondiente, o un procedimiento de aplicación de un desplazamiento considerando información fronteriza de cada píxel.
5 Un ALF (Filtro de Bucle Adaptable) puede realizar un filtrado en base a un valor obtenido comparando una imagen reconstruida (o restaurada) filtrada con la imagen original. Los píxeles incluidos en una imagen son divididos en grupos predeterminados, y luego se determina un filtro a aplicar a un grupo correspondiente, para realizar por ello el filtrado en cada grupo de manera discriminatoria. Con respecto a la información sobre si aplicar o no el
10 ALF, puede ser transmitida una señal de luma para cada unidad de codificación, y el tamaño y el coeficiente del ALF a aplicar puede variar para cada bloque. El ALF puede tener diversas formas, y el número de coeficientes incluidos en el filtro puede variar correspondientemente. La información relacionada con el filtrado de un tal ALF (p. ej., información de coeficientes de filtro, información de Activación / Desactivación de ALF o
15 información de forma del filtro) puede ser transmitida, incluida en un conjunto predeterminado de parámetros del flujo de bits.
La memoria 155 puede almacenar el bloque reconstruido, o la imagen generada mediante el módulo 150 de filtrado, y el bloque o imagen reconstruidos y almacenados pueden ser
20 proporcionados al módulo 120 y 125 de predicción cuando se realiza la inter-predicción.
La Fig. 2 es un diagrama de bloques que ilustra un descodificador de vídeo según otra realización de la presente invención.
25 Con referencia a la Fig. 2, el descodificador de vídeo puede incluir un módulo 210 de descodificación por entropía, un módulo 215 de redisposición, un módulo 220 de descuantización, un módulo 225 de transformación inversa, módulos 230 y 235 de predicción, un módulo 240 de filtrado y una memoria 245.
30 En el caso de que un flujo de bits de vídeo sea ingresado desde el codificador de vídeo, el flujo de bits de entrada puede ser descodificado en un procedimiento opuesto al del codificador de vídeo.
El módulo 210 de descodificación por entropía puede realizar una descodificación por
35 entropía en un procedimiento opuesto al de la codificación por entropía realizado en el módulo de codificación por entropía del codificador de vídeo. De los trozos de información
P201390098
12-12-2013
descodificados en el módulo 210 de descodificación por entropía, la información usada para obtener un bloque de predicción, tal como la información de tamaño de LCU o la información de tamaño de bloque, es proporcionada a los módulos 230 y 235 de predicción, y los valores residuales obtenidos mediante la descodificación por entropía en el módulo de
5 descodificación por entropía pueden ser ingresados al módulo 215 de redisposición.
El módulo 210 de descodificación por entropía puede descodificar información relacionada con una intra-predicción y a una inter-predicción, realizadas en el codificador. Según lo descrito anteriormente, en el caso en que haya una limitación predeterminada cuando el
10 codificador de vídeo realiza la intra-predicción y la inter-predicción, la descodificación por entropía es realizada en base a tal limitación, recibiendo por ello información referida a la intra-predicción y a la inter-predicción para el bloque actual.
El módulo 215 de redisposición puede realizar una redisposición en base a un procedimiento
15 por parte del codificador, para redisponer un flujo de bits que es descodificado por entropía en el módulo 210 de descodificación por entropía. Tal redisposición puede ser realizada restaurando los coeficientes, representados en forma de vectores unidimensionales, a la forma de bloque bidimensional de coeficientes.
20 El módulo 220 de descuantización puede realizar una descuantización en base al bloque de coeficientes redispuestos y a los parámetros de cuantización proporcionados desde el codificador.
El módulo 225 de transformación inversa puede realizar una DCT inversa y una DST inversa,
25 con respecto a la DCT y la DST que son realizadas por el módulo de transformación, sobre un resultado de la cuantización realizada en el codificador de vídeo. La transformación inversa puede ser realizada sobre la base de una unidad de transmisión determinada en el codificador de vídeo. El módulo transformador del codificador de vídeo puede realizar selectivamente la DCT y la DST, según una pluralidad de informaciones, tales como un
30 procedimiento de predicción, un tamaño de un bloque actual y una dirección de predicción, y el módulo 225 de transformación inversa del descodificador de vídeo puede realizar una transformación inversa en base a la información transformada realizada por el módulo de transformación del codificador de vídeo.
35 Los módulos 230 y 235 de predicción pueden generar un bloque de predicción en base al bloque anteriormente descodificado, o a la información de imagen anteriormente
P201390098
12-12-2013
descodificada, según lo proporcionado desde la memoria 245, y la información referida a la generación del bloque de predicción, proporcionada desde el módulo 210 de descodificación por entropía.
5 Los módulos 230 y 235 de predicción pueden incluir un módulo de determinación de unidades de predicción, un módulo de inter-predicción y un módulo de intra-predicción. El módulo de determinación de unidades de predicción puede recibir información diversa, que incluye información de modalidad de predicción de un procedimiento de intra-predicción, información referida a la predicción del movimiento de un procedimiento de inter-predicción,
10 e información de unidad de predicción, y las diversas informaciones son ingresadas desde el módulo de descodificación por entropía. El módulo de determinación de unidades de predicción puede separar una unidad de predicción de una unidad de codificación actual, y puede determinar si se está realizando una intra-predicción o se está realizando una interpredicción sobre la unidad de predicción. El módulo de inter-predicción puede realizar una
15 inter-predicción sobre la unidad de predicción actual, según la información incluida en al menos una de las imágenes entre las imágenes anteriores a una imagen actual, o las imágenes después de la imagen actual. El módulo de inter-predicción puede realizar la interpredicción sobre la unidad de predicción actual usando información necesaria para la interpredicción de la unidad de predicción actual proporcionada desde el descodificador de vídeo.
20 Puede determinarse cuál, entre una modalidad de omisión, una modalidad de fusión y una modalidad de AMVP, es un procedimiento de predicción de movimiento para una unidad de predicción incluida en una correspondiente unidad de codificación, en base a la unidad de codificación, a fin de realizar la inter-predicción.
25 Según una realización de la presente invención, el módulo de inter-predicción puede determinar si un bloque de destino de predicción es o no adyacente a un contorno de una LCU (Máxima Unidad de Codificación), y puede determinar si un primer bloque cosituado está disponible, según la determinación de si el bloque de destino de predicción es o no
30 adyacente al contorno de la LCU. Por ejemplo, si se determina que el primer bloque cosituado no está disponible, un segundo bloque cosituado puede ser determinado como un bloque cosituado para obtener un vector temporal de predicción de movimiento, o bien, si el primer bloque cosituado no está disponible, la posición del primer bloque cosituado puede ser cambiada, de modo que el primer bloque cosituado con posición cambiada pueda ser
35 determinado como un bloque cosituado para obtener un vector temporal de predicción de movimiento. Además, el módulo de inter-predicción puede incluir un módulo predictor que
P201390098
12-12-2013
determina un índice de imagen de referencia de un bloque cosituado del bloque de destino de predicción, y que determina un vector de predicción de movimiento del bloque cosituado. El bloque cosituado puede ser determinado de manera adaptable según una ubicación del bloque de destino de predicción en la LCU (Máxima Unidad de Codificación). En adelante en
5 la presente memoria, se describe en detalle el funcionamiento de un módulo de predicción según la presente invención.
El módulo de intra-predicción puede generar un bloque de predicción en base a información de píxeles en una imagen actual. En el caso de que la unidad de predicción sea aquella a la 10 que se aplica la intra-predicción, la intra-predicción puede ser realizada en base a información de modalidad de intra-predicción de la unidad de predicción proporcionada desde el codificador de vídeo. El módulo de intra-predicción puede incluir un filtro de MDIS, un módulo interpolador de píxeles de referencia y un filtro de DC. El filtro de MDIS realiza un filtrado sobre los píxeles de referencia del bloque actual. Para el filtro de MDIS, puede 15 determinarse si se aplica o no el filtro, según la modalidad de predicción de la unidad de predicción actual. El filtrado sobre los pixeles de referencia del bloque actual puede ser realizado usando información del filtro de MDIS y la modalidad de predicción de la unidad de predicción proporcionada desde el codificador de vídeo. En el caso de que la modalidad de predicción del bloque actual sea una modalidad en la cual no se realiza el filtrado, puede no
20 aplicarse el filtro de MDIS.
En el caso de que la modalidad de predicción de la unidad de predicción es una modalidad de predicción en la cual la intra-predicción se realiza en base a los valores de píxel obtenidos interpolando el píxel de referencia, el píxel de referencia con una unidad menor 25 que un píxel entero puede ser obtenido interpolando los píxeles de referencia. En el caso en que la modalidad de predicción de la unidad de predicción actual es una modalidad de predicción en la cual el bloque de predicción es generado sin interpolar los píxeles de referencia, el píxel de referencia no puede ser sometido a la interpolación. El filtro de DC puede generar un bloque de predicción mediante el filtrado, si la modalidad de predicción del
30 bloque actual es una modalidad DC.
El bloque o imagen reconstruidos pueden ser proporcionados al módulo 240 de filtrado. El módulo 240 de filtrado puede incluir un filtro de desbloqueo, un módulo corrector de desplazamiento y un ALF.
35
La información acerca de si al bloque o imagen correspondiente le ha sido aplicado o no el
P201390098
12-12-2013
filtro de desbloqueo puede ser proporcionada desde un codificador de vídeo (o de imagen). Si se ha aplicado el filtro de desbloqueo, la información acerca de si el filtro de desbloqueo aplicado es un filtro fuerte o un filtro débil puede ser proporcionada desde el codificador de vídeo. El filtro de desbloqueo del descodificador de vídeo puede recibir información referida 5 al filtro de desbloqueo desde el codificador de vídeo, y el filtrado de desbloqueo puede ser realizado sobre el correspondiente bloque en el codificador de vídeo. Como el codificador de vídeo, el descodificador de vídeo puede realizar primero un filtrado de desbloqueo vertical y un filtrado de desbloqueo horizontal. Una o más partes solapadas pueden ser sometidas a al menos uno entre el desbloqueo vertical y el desbloqueo horizontal. En la región donde el
10 filtrado de desbloqueo vertical y el filtrado de desbloqueo horizontal se solapan entre sí, bien el filtrado de desbloqueo vertical o bien el filtrado de desbloqueo horizontal, que no haya sido realizado previamente, puede ser realizado para esta región. Tal proceso de filtrado de desbloqueo permite un procesamiento paralelo del filtrado de desbloqueo.
15 Un módulo corrector de desplazamiento puede realizar una corrección de desplazamiento sobre la imagen reconstruida, en base a un tipo de corrección de desplazamiento aplicada a la imagen en un proceso de codificación, y a información sobre el valor de desplazamiento aplicado en el proceso de codificación.
20 Un ALF puede realizar un filtrado según una comparación entre la imagen reconstruida después del filtrado y la imagen original. El ALF puede ser realizado sobre una unidad de codificación en base a la información acerca de si el ALF está aplicado o no, y la información de coeficientes del ALF, que son proporcionadas desde el codificador. Tal información de ALF puede ser proporcionada e incluida en un conjunto específico de parámetros.
25 La memoria 245 puede almacenar una imagen reconstruida o un bloque reconstruido, a fin de usar esto como una imagen de referencia o un bloque de referencia, y puede proporcionar la imagen reconstruida a un módulo de visualización.
30 Como se ha descrito anteriormente, incluso si se usa un término de ‘unidad de codificación’ en la realización de la presente invención, para facilitar la descripción, la unidad de codificación también puede ser usada como una unidad para la descodificación. En adelante en la presente memoria, el procedimiento de predicción descrito más adelante con relación a las Figs. 3 a 11, según una realización de la presente invención, puede ser realizado en un
35 componente, tal como un módulo predictor como el mostrado en las Figs. 1 y 2.
P201390098
12-12-2013
La Fig. 3 es una vista conceptual que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento, según una realización de la presente invención.
Con referencia a la Fig. 3, el vector temporal de predicción de movimiento puede ser 5 obtenido en base a un valor de vector de movimiento de un bloque cosituado (colPu) en una imagen cosituada (colPic).
La imagen cosituada es una imagen que incluye un bloque cosituado para obtener información referida a la predicción temporal de movimiento, al realizar el procedimiento de
10 inter-predicción, tal como una fusión o la AMVP. El bloque cosituado puede ser definido como un bloque incluido en una imagen cosituada, y el bloque cosituado se obtiene en base a información de ubicación de un bloque de destino de predicción, y tiene una fase temporalmente distinta a la del bloque de destino de predicción.
15 Puede haber una pluralidad de bloques cosituados para un bloque de destino de predicción. La información referida al movimiento del bloque cosituado incluido en la imagen cosituada puede ser almacenada como un valor representativo con respecto a una unidad predeterminada. Por ejemplo, con respecto a una unidad de tamaño de bloque 16x16, la información referida a la predicción del movimiento (vector de movimiento, imagen de
20 referencia, etc.) puede ser determinada y almacenada como un valor representativo en una unidad de bloque de 16x16.
La Fig. 4 es un diagrama de flujo que ilustra un procedimiento de obtención de un vector temporal de predicción de movimiento, según una realización de la presente invención.
25 En adelante en la presente memoria, el procedimiento de obtención de un vector temporal de predicción de movimiento, que ha de ser descrito más adelante, puede ser usado en un procedimiento de inter-predicción, tal como una modalidad de fusión o una modalidad de AMVP. El procedimiento de obtención del vector temporal de predicción de movimiento
30 puede ser un procedimiento de obtención de un bloque candidato temporal (bloque cosituado) para realizar la modalidad de fusión, un procedimiento de obtención de un bloque candidato temporal (bloque cosituado) para realizar la modalidad de AMVP y un procedimiento de obtención de un vector temporal de predicción de movimiento.
35 En adelante en la presente memoria, en una realización de la presente invención, el bloque cosituado puede ser definido y usado como un término que indica un bloque candidato
P201390098
12-12-2013
temporal usado en la modalidad de fusión y la modalidad AMVP.
Con referencia a la Fig. 4, se obtiene información de imagen cosituada (etapa S400).
5 La información de ubicación de un bloque de destino de predicción, la información de tamaño del bloque de destino de predicción y la información de índices de imágenes de referencia del bloque de destino de predicción pueden ser usadas para obtener información de imagen cosituada, información de bloque cosituado y un vector temporal de predicción de movimiento.
10 Según una realización de la presente invención, la información de imágenes cosituadas puede obtenerse en base a información del tipo de tajada (tipo_tajada), información de listas de imágenes de referencia (señal_cosituada_desde_10) e información de índices de imágenes de referencia (índice_ref_cosituada). Usando la información de listas de imágenes
15 de referencia (señal_cosituada_desde_10), si la información de listas de imágenes de referencia (señal_cosituada_desde_10) indica 1, representa que la imagen cosituada está incluida en una primera lista de imágenes de referencia (Lista 0), y si la información de listas de imágenes de referencia (señal_cosituada_desde_10) indica 0, representa que la imagen cosituada está incluida en una segunda lista de imágenes de referencia (Lista 1).
20 Por ejemplo, en el caso en que el tipo de tajada es tajada B y un valor de la información de listas de imágenes de referencia (señal_cosituada_desde_10) es 0, la imagen cosituada puede ser determinada como una imagen incluida en la segunda lista de imágenes de referencia, y en el caso en que el tipo de tajada es tajada B y un valor de la información de
25 listas de imágenes de referencia (señal_cosituada_desde_10) es 1, o en el caso en que el tipo de tajada es tajada P, la imagen cosituada puede ser determinada como una imagen incluida en la primera lista de imágenes de referencia.
En el caso de un procedimiento de inter-predicción que usa una modalidad de fusión, si se
30 satisface una condición predeterminada, la información de índices de imágenes de referencia de un bloque vecino en una posición específica puede ser determinada como información para una imagen cosituada, y si la condición predeterminada no se satisface, una imagen anterior a una imagen actual puede ser determinada como imagen cosituada.
35 Se obtiene información para bloque cosituado (etapa S410).
P201390098
12-12-2013
La información para el bloque cosituado puede ser obtenida de distinta manera, según que una parte (o porción) de un bloque de destino de predicción sea o no adyacente a un contorno de una LCU (Máxima Unidad de Codificación). En adelante en la presente memoria, se describe un procedimiento de determinación de un bloque cosituado, según la ubicación
5 de un bloque de destino de predicción y del contorno de una LCU, con referencia a las Figs. 5 a 9.
La Fig. 5 es una vista conceptual que ilustra una ubicación de un bloque cosituado para obtener un vector temporal de movimiento, según una realización de la presente invención.
10 Con referencia a la Fig. 5, los bloques en diversas posiciones con respecto a un bloque de destino de predicción pueden ser usados como bloques cosituados para obtener un vector temporal de movimiento. Los bloques cosituados que pueden ser usados para obtener el vector temporal de movimiento pueden ser clasificados según las ubicaciones, de la
15 siguiente manera.
En el caso de que un punto situado en un extremo superior izquierdo de un bloque de destino de predicción esté en (xP, yP), el ancho del bloque de destino de predicción sea nPSW, y la altura del bloque de destino de predicción sea nPSH, un primer bloque cosituado
20 500 puede ser un bloque que incluye un punto (xP+nPSW, yP+nPSH) en la imagen cosituada, un segundo bloque cosituado 510 puede ser un bloque que incluye un punto (xP+nPSW-MinTamañoPu, yP+nPSH) en la imagen cosituada, un tercer bloque cosituado 520 puede ser un bloque que incluye un punto (xP+nPSW, yP+nPSH-MinTamañoPu) en la imagen cosituada, un cuarto bloque cosituado 530 puede ser un bloque que incluye un
25 punto (xP+nPSW-1, yP+nPSH-1) en la imagen cosituada, un quinto bloque cosituado 540 puede ser un bloque que incluye un punto (xP+(nPSW>>1), yP+(nPSH>>1)) en la imagen cosituada y un sexto bloque cosituado 550 puede ser un bloque que incluye un punto (xP+(nPSW>>1)-1, yP+(nPSH>>1)-1) en la imagen cosituada.
30 El bloque cosituado puede ser determinado de manera adaptable, según una posición de una unidad de predicción actual situada dentro de la LCU. Una relación posicional entre un bloque de destino de predicción y un contorno de la LCU puede ser categorizada en los siguientes casos: 1) donde un extremo inferior y un lado derecho del bloque de destino de predicción no son adyacentes al contorno de la LCU, 2) donde solamente el extremo inferior
35 del bloque de destino de predicción es adyacente al entorno de la LCU, 3) donde tanto el lado derecho como el extremo inferior del bloque de destino de predicción son adyacentes al
P201390098
12-12-2013
contorno de la LCU y 4) donde solamente el lado derecho del bloque de destino de predicción es adyacente al contorno de la LCU.
Según una realización de la presente invención, el bloque cosituado puede ser determinado 5 de manera adaptable en forma distinta, según la ubicación del bloque de destino de predicción en la LCU.
1) En el caso en que el extremo inferior y el lado derecho del bloque de destino de predicción no son adyacentes al contorno de la LCU, el primer bloque cosituado y el quinto 10 bloque cosituado pueden ser usados secuencialmente como un bloque cosituado, con una comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
2) En el caso de que solamente el extremo inferior del bloque de destino de predicción sea adyacente al contorno de la LCU, el tercer bloque cosituado y el quinto bloque cosituado 15 pueden ser usados secuencialmente como un bloque cosituado, con la comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
3) En el caso en que tanto el lado derecho como el extremo inferior del bloque de destino de predicción sean adyacentes al contorno de la LCU, el cuarto bloque cosituado y el quinto 20 bloque cosituado pueden ser usados secuencialmente como un bloque cosituado, con la comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
4) En el caso de que solamente el lado derecho del bloque de destino de predicción sea adyacente al contorno de la LCU, el segundo bloque cosituado y el quinto bloque cosituado 25 pueden ser usados secuencialmente como un bloque cosituado, con la comprobación de disponibilidad, a fin de obtener un vector temporal de movimiento.
Es decir, de acuerdo a una realización de la presente invención, según la ubicación del bloque actual en la LCU, puede ser determinado, de manera adaptable, un bloque candidato 30 temporal. Las posiciones de los píxeles para especificar un bloque candidato temporal, para un caso en que el contorno inferior del bloque actual es adyacente al contorno de la LCU, pueden ser distintas a las posiciones de los píxeles para especificar un bloque candidato temporal para un caso en que el contorno inferior del bloque actual no es adyacente al contorno de la LCU. Y las posiciones de los píxeles para especificar un bloque candidato 35 temporal, para el caso en que el contorno inferior del bloque actual es adyacente al contorno de la LCU, pueden ser distintas a las posiciones de los píxeles para especificar un bloque
P201390098
12-12-2013
candidato temporal, para un caso en que solamente el contorno derecho del bloque actual es adyacente al contorno de la LCU.
Según otra realización de la presente invención, puede usarse un procedimiento en el cual
5 un bloque cosituado puede ser determinado (o seleccionado) de manera adaptable y diferente, según la posición del bloque de destino de predicción en la LCU, de modo que el bloque cosituado y el bloque de destino de predicción estén situados dentro de la misma LCU, o el bloque cosituado puede no ser usado si el bloque cosituado y el bloque de predicción de destino no están situados dentro de la misma LCU.
10 La Fig. 6 es una vista conceptual que ilustra un procedimiento de determinación de un bloque cosituado para obtener un vector de predicción de movimiento, según una realización de la presente invención.
15 Con referencia a la Fig. 6, pueden ser conocidas las posiciones de bloques cosituados de una pluralidad de unidades de predicción incluidas en una LCU.
Para los casos de PU0, PU1, PU2 y PU5, las unidades de predicción son unidades de predicción dentro de la LCU, y el primer bloque cosituado puede ser usado en primer lugar
20 como un bloque cosituado para obtener un vector temporal de movimiento.
Para los casos de PU4 y PU7, los contornos de las unidades de predicción son adyacentes solamente al contorno inferior de la LCU, y el tercer bloque cosituado puede ser usado en primer lugar como un bloque cosituado para obtener un vector temporal de movimiento.
25 Para el caso de PU8, el contorno de la unidad de predicción es adyacente tanto al contorno inferior como al contorno derecho de la LCU, y el cuarto bloque cosituado puede ser usado en primer lugar como un bloque cosituado para obtener un vector temporal de movimiento.
30 Para los casos de PU3 y PU6, los contornos de las unidades de predicción son adyacentes solamente al contorno derecho de la LCU, y el segundo bloque cosituado puede ser usado en primer lugar como un bloque cosituado para obtener un vector temporal de movimiento.
Es decir, según lo descrito anteriormente, un bloque candidato temporal es determinado de
35 manera adaptable, según la ubicación del bloque actual en la LCU, y las posiciones de los píxeles para especificar un bloque candidato temporal, para los casos en que el contorno
P201390098
12-12-2013
inferior del bloque actual es adyacente al contorno de la LCU (casos de PU4, PU7 y PU8) y para los casos en que el contorno inferior del bloque actual no es adyacente al contorno de la LCU (casos de PU0, PU1, PU2, PU3, PU5 y PU6), son distintas entre sí. Además, las posiciones de los píxeles para especificar un bloque candidato temporal pueden ser distintas
5 para los casos en que el contorno inferior del bloque actual es adyacente al contorno de la LCU (casos de PU4, PU7 y PU8) y para los casos en que solamente el contorno derecho del bloque actual es adyacente al contorno de la LCU (casos de PU3 y PU6).
Según otra realización de la presente invención, mientras un bloque cosituado esté situado
10 dentro de la misma LCU, junto con el bloque de destino de predicción, el bloque cosituado está determinado, de manera adaptable y diferente, según la ubicación del bloque de destino de predicción en la LCU. Si un bloque cosituado específico no está situado dentro de la misma LCU, junto con el bloque de destino de predicción, tal bloque cosituado específico puede no estar disponible. Por ejemplo, si el contorno inferior de un bloque de predicción es
15 adyacente al contorno inferior de la LCU, como en PU4, PU7 y PU8, el primer bloque cosituado puede estar marcado (o indicado) como no disponible, y el quinto bloque cosituado puede ser usado en su lugar como un bloque cosituado para obtener un vector de predicción temporal.
20 Así pues, como un procedimiento de obtención de un bloque cosituado, puede ser usado un procedimiento que, categorizando características de un bloque de destino de predicción según lo descrito anteriormente, según la ubicación del bloque de destino de predicción y el contorno de la LCU, selecciona un bloque a usar como un bloque cosituado, según la ubicación categorizada del bloque de destino de predicción. Preferiblemente, se supone que
25 el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector temporal de movimiento. Después de comprobar la disponibilidad del primer bloque cosituado (por ejemplo, si el contorno inferior del bloque de destino de predicción es adyacente o no a la LCU), un bloque cosituado, distinto al primer bloque cosituado, puede ser determinado como un bloque cosituado para
30 obtener un vector temporal de movimiento. Por ejemplo, si el primer bloque cosituado es determinado como no disponible a través de las etapas de la determinación de si el bloque de destino de predicción es o no adyacente al contorno de la LCU (Máxima Unidad de Codificación), el bloque cosituado para obtener un vector temporal de movimiento puede ser cambiado por otro bloque cosituado (p. ej., tercer bloque cosituado), o bien el quinto bloque
35 cosituado puede ser usado directamente, sin usar el primer bloque cosituado.
P201390098
12-12-2013
Específicamente, el procedimiento anterior puede ser realizado mediante las siguientes etapas:
1) Etapa de determinación de si el contorno del bloque de destino de predicción es o no 5 adyacente al contorno de la LCU (Máxima Unidad de Codificación),
2) Etapa de determinación de si el primer bloque cosituado está o no disponible, según que el contorno del bloque de destino de predicción sea o no adyacente al contorno de la LCU. Específicamente, en la etapa 2), cuando el contorno inferior del bloque de destino de
10 predicción es adyacente al contorno de la LCU, puede determinarse que el primer bloque cosituado no está disponible,
3) Etapa de determinación de un bloque cosituado, distinto al primer bloque cosituado, como un bloque cosituado para obtener un vector temporal de predicción de movimiento, cuando
15 el primer bloque cosituado no está disponible. Específicamente, en la etapa 3), para un caso en que el contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para un caso en que el contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU, pueden ser determinados distintos bloques cosituados para cada caso distinto, como bloques cosituados para obtener un vector temporal de
20 predicción de movimiento,
4) Etapa de determinación del primer bloque cosituado como un bloque cosituado para obtener un vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, y de determinación de la disponibilidad del quinto bloque cosituado, si el primer
25 bloque cosituado no está disponible.
Las etapas anteriores pueden ser etapas optativas, y la relación secuencial de las etapas, o el procedimiento de la determinación, pueden ser cambiados sin apartarse de la esencia de la presente invención.
30 La Fig. 7 es una vista conceptual que ilustra un caso donde un bloque de destino de predicción es adyacente a un contorno inferior de una LCU, según una realización de la presente invención.
35 Con referencia a la Fig. 7, se muestra un caso en que la ubicación del bloque cosituado es cambiada cuando el bloque de destino de predicción (PU, PU7 o PU8) está situado en el
P201390098
12-12-2013
contorno inferior de la LCU. En el caso de que el bloque de destino de predicción (PU4, PU7
o PU8) esté situado en el contorno inferior de la LCU, la ubicación del bloque cosituado puede ser fijada de modo que la información referida a la predicción del movimiento pueda ser obtenida incluso sin buscar una LCU situada bajo una LCU actual entre las LCU. Por 5 ejemplo, un vector temporal de predicción de movimiento puede ser obtenido usando el tercer bloque cosituado, en lugar del primer bloque cosituado del bloque de destino de predicción. 1) En el caso en que solamente haya adyacencia al contorno derecho de la LCU, según la disponibilidad, el primer bloque cosituado y el quinto bloque cosituado son determinados secuencialmente como un bloque cosituado para obtener un vector temporal 10 de predicción de movimiento, 2) en el caso en que haya adyacencia al contorno inferior de la LCU, según la disponibilidad, el tercer bloque cosituado y el quinto bloque cosituado pueden ser determinados secuencialmente como un bloque cosituado para obtener un vector temporal de predicción de movimiento. Es decir, según una realización de la presente invención, las posiciones de los píxeles para especificar un bloque candidato temporal
15 pueden ser distintas para un caso en que el contorno inferior del bloque actual es adyacente al contorno de la LCU, y para un caso en que el contorno inferior del bloque actual no es adyacente al contorno de la LCU.
Con referencia nuevamente a la Fig. 4, en base al bloque cosituado, determinado mediante
20 el procedimiento descrito anteriormente con relación a las Figs. 5 a 7, se obtienen un vector de predicción de movimiento de bloque cosituado (mvLXCol) y la información de disponibilidad del bloque cosituado (señalDisponibleLXCol) (etapa S420).
La información de disponibilidad del bloque cosituado (señalDisponibleLXCol) y el vector de
25 movimiento (mvLXCol) del bloque cosituado, que ha de ser usado para la inter-predicción del bloque de destino de predicción, en base a la información del bloque cosituado, determinada mediante los procesos mostrados en las Figs. 5 a 7, pueden obtenerse por el siguiente procedimiento:
30 1) Si el bloque cosituado (colPu) es codificado en base a una modalidad de intra-predicción, si el bloque cosituado (colPu) no está disponible, si la imagen cosituada (colPic) no está disponible para predecir un vector temporal de predicción de movimiento, o si la interpredicción se realiza sin usar un vector temporal de predicción de movimiento, el vector de movimiento del bloque cosituado (mvLXCol) y la información de disponibilidad del bloque
35 cosituado (señalDisponibleLXCol) pueden ser fijados en 0.
P201390098
12-12-2013
2) Fuera del caso 1), la información del vector de movimiento del bloque cosituado (mvLXCol) y la información de disponibilidad del bloque cosituado (señalDisponibleLXCol) pueden ser obtenidas mediante una señal (PredSeñalL0) y una señal (PredSeñalL1), donde la señal (PredSeñalL0) indica si se usa o no una lista L0, y la señal (PredSeñalL1) indica si
5 se usa o no una lista L1.
En primer lugar, si se determina que la inter-predicción ha sido realizada sobre el bloque cosituado sin usar la lista L0 (la señal (PredSeñalL0) es igual a 0), la información referida a la predicción del movimiento del bloque cosituado, tal como la información mvCol, la
10 información refldxCol y la información listCol pueden ser fijadas como L1 y MvL1[xPCol][yPCol], RefIdxL1[xPCol][yPCol], que son informaciones referidas a la predicción del movimiento del bloque cosituado, obtenido usando la lista L1, y la información de disponibilidad del bloque cosituado (señalDisponibleLXCol) puede fijarse en 1.
15 En otros casos, si se determina que la inter-predicción ha sido realizada sobre el bloque cosituado usando la lista L0 (la señal (PredSeñalL0) es igual a 1), la información referida a la predicción del movimiento del bloque cosituado, tal como la información mvCol, la información refldxCol y la información listCol pueden ser fijadas por separado, para un caso en que PredSeñalL1 es 0 y para un caso en que PredSeñalL1 es 1, y la información de
20 disponibilidad del bloque cosituado (señalDisponibleLXCol) puede ser fijada en 1.
El valor obtenido de mvLXCol es ajustado a escala (etapa S430).
Para usar el valor de mvLXCol obtenido mediante la etapa S420 como un vector temporal de
25 predicción de movimiento del bloque de destino de predicción, un valor de mvLXCol obtenido puede ser ajustado a escala, en base a la información de distancia referida a una distancia entre la imagen cosituada, que incluye el bloque cosituado y la imagen de referencia del bloque cosituado, mencionados por el bloque cosituado, y una distancia entre la imagen que incluye el bloque de destino de predicción y una imagen de referencia,
30 mencionada por el bloque de destino de predicción. Después de que se ajusta a escala el valor de mvLXCol obtenido, puede obtenerse el vector temporal de predicción de movimiento.
En adelante en la presente memoria, según una realización de la presente invención, se
35 describe un procedimiento de realización de una inter-predicción, tal como la fusión y la AMVP.
P201390098
12-12-2013
La Fig. 8 es un diagrama de flujo que ilustra un procedimiento de inter-predicción que usa una modalidad de fusión, según una realización de la presente invención.
5 Con referencia a la Fig. 8, la información referida a la predicción del movimiento puede ser obtenida de un candidato a la fusión espacial (etapa S1000).
El candidato a la fusión espacial puede ser obtenido de unidades de predicción vecinas de un bloque de destino de predicción. Para obtener el candidato a la fusión espacial, puede 10 ser recibida información acerca del ancho y la altura de la unidad de predicción, información de la MER (Región de Estimación de Movimiento), información de señalÚnicaMCL e información de posición de partición. En base a tal información de entrada, puede obtenerse información de disponibilidad (señalNDisponible), según la posición del candidato a la fusión espacial, información de imágenes de referencia (refldxL0, refldxL1), información de
15 utilización de listas (predSeñalL0N, redSeñalL1N) e información de vectores de movimiento (mvL0N, mvL1N). Una pluralidad de bloques vecinos al bloque de destino de predicción pueden ser candidatos a la fusión espacial.
La Fig. 9 es una vista conceptual que ilustra posiciones de candidatos a la fusión espacial, 20 según una realización de la presente invención.
Con referencia a la Fig. 9, en el caso en que una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), el ancho del bloque de destino de predicción es nPSW y la altura del bloque de destino de predicción es nPSH, los
25 candidatos a la fusión espacial pueden ser un bloque A0 que incluye el punto (xP-1, yP+nPSH), un bloque A1 que incluye el punto (xP-1, yP+nPSH-MinTamañoPu), un bloque B0 que incluye el punto (xP+nPSW, yP-1), un bloque B1 que incluye el punto (xP+nPSW-MinTamañoPu, yP-1), y un bloque B2 que incluye el punto (xP-MinTamañoPu, yP-1).
30 Con referencia nuevamente a la Fig. 8, se obtiene un valor del índice de imágenes de referencia del candidato a la fusión temporal (etapa S1010).
El valor del índice de imágenes de referencia del candidato a la fusión temporal, como un valor de índice de una imagen cosituada que incluye el candidato a la fusión temporal 35 (bloque cosituado), puede obtenerse mediante condiciones específicas, según lo siguiente. Las siguientes condiciones son arbitrarias y pueden variar. Por ejemplo, en el caso en que
P201390098
12-12-2013
una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), el ancho del bloque de destino de predicción es nPSW y la altura del bloque de destino de predicción es nPHSH, cuando 1) existe una unidad de predicción vecina del bloque de destino de predicción correspondiente a la posición (xP-1, yP+nPSH-1) 5 (denominada en adelante en la presente memoria unidad de predicción vecina de obtención de índice de imagen de referencia), 2) el valor del índice de partición de la unidad de predicción vecina de obtención de índice de imagen de referencia es 0, 3) la unidad de predicción vecina de obtención de índice de imagen de referencia no es un bloque en el cual se realice la predicción usando una modalidad intra-predicción y 4) el bloque de destino de 10 predicción y el bloque de predicción vecino de obtención de índice de imagen de referencia no pertenecen a la misma MER (Región de Estimación de Movimiento), el valor del índice de imagen de referencia del candidato a la fusión temporal puede ser determinado como el mismo valor que el valor de índice de referencia de la unidad de predicción vecina de obtención de índice de imagen de referencia. En el caso no poder satisfacer estas
15 condiciones, el valor del índice de imagen de referencia del candidato a la fusión temporal puede ser fijado en 0.
El bloque candidato a la fusión temporal (bloque cosituado) está determinado, y la información referida a la predicción del movimiento se obtiene a partir del bloque cosituado
20 (etapa S1020).
Según una realización de la presente invención, el bloque candidato a la fusión temporal (bloque cosituado) puede ser determinado de manera adaptable, según la ubicación del bloque de destino de predicción en la LCU, de modo que el bloque cosituado esté incluido
25 en la misma LCU junto con el bloque de destino de predicción.
1) En el caso en que el extremo inferior y el lado derecho del bloque de destino de predicción no son adyacentes al contorno de la LCU, determinando la disponibilidad, el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente
30 como un bloque cosituado para obtener un vector de movimiento temporal.
2) En el caso en que solamente el extremo inferior del bloque de destino de predicción sea adyacente al contorno de la LCU, determinando la disponibilidad, el tercer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado
35 para obtener un vector de movimiento temporal.
P201390098
12-12-2013
3) En el caso en que tanto el lado derecho como el extremo inferior del boque de destino de predicción son adyacentes al contorno de la LCU, determinando la disponibilidad, el cuarto bloque cosituado y el quinto bloque cosituado puede ser usados secuencialmente como bloques cosituados para inducir un vector de movimiento temporal.
5
4) En el caso en que solamente el lado derecho del bloque de destino de predicción es adyacente al contorno de la LCU, se determina la disponibilidad, y el segundo bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como bloques cosituados para inducir un vector de movimiento temporal.
10 Según una realización de la presente invención, puede usarse un procedimiento que permite que un bloque cosituado sea determinado, de manera adaptable y diferente, según la posición del bloque de destino de predicción en la LCU, como presente en una posición incluida en una LCU, junto con el bloque de destino de predicción, o que el bloque cosituado,
15 no incluido en una LCU junto con el bloque de destino de predicción, no pueda ser usado.
Como se ha descrito anteriormente, como procedimiento de producción de un bloque cosituado, puede usarse un procedimiento de separación de características de un bloque de destino de predicción, como se ha descrito anteriormente, según la posición del bloque de 20 destino de predicción y el contorno de la LCU, y de determinación de un bloque para ser usado inmediatamente como un bloque cosituado, según la posición del bloque de destino de predicción separado. Sin embargo, se puede suponer en primer lugar que el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como bloques cosituados para inducir un vector de movimiento temporal, se determina si el primer
25 bloque cosituado está disponible o no (por ejemplo, si el contorno inferior del bloque de destino de predicción es adyacente o no a la LCU), y luego, un bloque cosituado, distinto al primer bloque cosituado, puede ser determinado como un bloque cosituado para inducir un vector temporal de movimiento.
30 Se configura una lista de candidatos a la fusión (etapa S1030).
La lista de candidatos a la fusión puede ser construida para incluir al menos uno entre los candidatos a la fusión espacial y un candidato a la fusión temporal. Los candidatos a la fusión espacial y el candidato a la fusión temporal, incluidos en la lista de candidatos a la
35 fusión, pueden ser dispuestos con una prioridad predeterminada.
P201390098
12-12-2013
La lista de candidatos a la fusión puede ser construida para que tenga un número fijo de candidatos a la fusión y, si el número de los candidatos a la fusión es menor que el número fijado, la información referida a la predicción del movimiento, poseída por los candidatos a la fusión, es combinada para generar candidatos a la fusión, o se generan vectores nulos
5 como candidatos a la fusión, generando por ello la lista de candidatos a la fusión.
La Fig. 10 es un diagrama de flujo que ilustra un procedimiento de inter-predicción usando la AMVP, según una realización de la presente invención.
10 Con referencia a la Fig. 10, se obtiene información referida a la predicción del movimiento a partir de los bloques candidatos a la AMVP espacial (etapa S1200).
Para obtener la información de índices de imágenes de referencia y un vector de predicción de movimiento del bloque de destino de predicción, el bloque, o los bloques, candidato(s) a
15 la AMVP espacial, puede(n) ser obtenido(s) a partir de los bloques de predicción vecinos del bloque de destino de predicción.
Con referencia nuevamente a la Fig. 9, uno entre el bloque A0 y el bloque A1 puede ser usado como un primer bloque candidato a la AMVP espacial, y uno entre el bloque B0, el
20 bloque B1 y el bloque B2 puede ser usado como un segundo bloque candidato a la AMVP espacial, obteniendo por ello los bloques candidatos a la AMVP espacial.
La información referida a la predicción del movimiento es obtenida de un bloque candidato a la AMVP temporal (etapa S1210).
25 Según una realización de la presente invención, el bloque cosituado puede ser determinado de manera adaptable, según la ubicación del bloque de destino de predicción en la LCU, de modo que el bloque cosituado esté incluido en la misma LCU, junto con el bloque de destino de predicción.
30 1) En el caso en que el extremo inferior y el lado derecho del bloque de destino de predicción no sean adyacentes al contorno de la LCU, el primer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
35
2) En el caso en que solamente el extremo inferior del bloque de destino de predicción sea
P201390098
12-12-2013
adyacente al contorno de la LCU, el tercer bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
5 3) En el caso en que tanto el lado derecho como el extremo inferior del bloque de destino de predicción sean adyacentes al contorno de la LCU, el cuarto bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
10 4) En el caso en que solamente el lado derecho del bloque de destino de predicción sea adyacente al contorno de la LCU, el segundo bloque cosituado y el quinto bloque cosituado pueden ser usados secuencialmente como un bloque cosituado para obtener un vector de movimiento temporal, con una comprobación de disponibilidad.
15 Según una realización de la presente invención, puede usarse un procedimiento tal que no pueda ser usado el bloque cosituado no incluido en la misma LCU junto con el bloque de destino de predicción, así como un procedimiento tal que un bloque cosituado sea determinado de manera adaptable, según la ubicación del bloque de destino de predicción en la LCU, para que esté presente en una ubicación incluida en la misma LCU junto con el
20 bloque de destino de predicción.
En la etapa S1200 de obtención de los bloques candidatos a la AMVP espacial, cuando el primer bloque candidato a la AMVP espacial y el segundo bloque candidato a la AMVP espacial son determinados como disponibles, y los valores obtenidos del vector de
25 predicción de movimiento no son iguales, la etapa S1210 de obtención de un vector temporal de predicción de movimiento no puede ser realizada.
Se construye una lista de candidatos a la AMVP (etapa S1220).
30 La lista de candidatos a la AMVP es construida usando la información referida a la predicción del movimiento, obtenida mediante al menos una de las etapas S1200 y S1210. En el caso en que exista la misma información referida a la predicción del movimiento en la lista construida de candidatos a la AMVP, un valor entre la misma información referida a la predicción del movimiento puede ser usado como un valor de candidato a la AMVP. La
35 información referida a la predicción del movimiento, incluida en la lista de candidatos a la AMVP, puede incluir solamente un número fijo de valores de candidatos.
P201390098
12-12-2013
Aunque las realizaciones de la presente invención han sido descritas hasta el momento, los expertos en la técnica a la que corresponde la presente invención pueden entender que pueden hacerse diversas modificaciones y variaciones en la presente invención, sin apartarse del espíritu y el ámbito de la presente invención.
Claims (16)
- P20139009812-12-2013REIVINDICACIONES1. Un procedimiento de obtención de un vector candidato de predicción de movimiento, 5 caracterizado porque el procedimiento comprende:determinar un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción; y10 determinar un vector de predicción de movimiento del bloque cosituado,en el cual el bloque cosituado es un bloque determinado de manera adaptable por una ubicación del bloque de destino de predicción dentro de una Máxima Unidad de Codificación (LCU).15
- 2. El procedimiento de la reivindicación 1, en el cual el bloque cosituado es determinado de manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de la LCU.
- 20 3. El procedimiento de la reivindicación 1, en el cual el bloque cosituado es determinado de manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es o no adyacente a un contorno de la LCU, y si solamente un contorno derecho del bloque de destino de predicción es o no adyacente al contorno de la LCU.
- 25 4. El procedimiento de la reivindicación 1, en el cual el bloque cosituado es determinado haciendo referencia a posiciones de píxeles dentro de la LCU.
- 5. El procedimiento de la reivindicación 1, en el cual, si un lado izquierdo o un contorno inferior del bloque de destino de predicción no es adyacente al contorno de la LCU, un30 primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque cosituado en una posición correspondiente, yen el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de35 destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es unP20139009812-12-2013bloque que incluye un punto en (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto en (xP+(nPSW>>1), yP+(nPSH>>1)) dentro de la imagen cosituada.5 6. Un procedimiento de obtención de un vector candidato de predicción de movimiento, caracterizado porque el procedimiento comprende:determinar si un contorno de un bloque de destino de predicción es adyacente o no a un contorno de una Máxima Unidad de Codificación (LCU); y10 determinar la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU.
- 7. El procedimiento de la reivindicación 6, que comprende adicionalmente: si se15 determina que el primer bloque cosituado no está disponible, determinar otro bloque cosituado, excepto el primer bloque cosituado, como un bloque cosituado para obtener un vector temporal de predicción de movimiento.
- 8. El procedimiento de la reivindicación 7, en el cual la etapa de determinación del otro20 bloque cosituado, excepto el primer bloque cosituado, como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado no está disponible, es una etapa para determinar distintos bloques cosituados, para obtener el vector temporal de predicción de movimiento para el caso en que un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso en que25 solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU.
- 9. El procedimiento de la reivindicación 6, en el cual la etapa de determinación de la disponibilidad del primer bloque cosituado, según la determinación de si el contorno del30 bloque de destino de predicción es o no adyacente al contorno de la LCU, es una etapa para determinar el primer bloque cosituado como no disponible, si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU.
- 10. El procedimiento de la reivindicación 6, que comprende adicionalmente la etapa de35 determinar el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, oP20139009812-12-2013determinar la disponibilidad de un quinto bloque cosituado, si el primer bloque cosituado no está disponible,en el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de5 destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un bloque que incluye un punto (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto (xP+(nPSW>>1), yP+(nPSH>>1)) dentro de la imagen cosituada.10
- 11. Un aparato de descodificación de vídeo, caracterizado porque el aparato comprende:una unidad de descodificación por entropía que descodifica información de tamaño de la 15 LCU; yuna unidad de predicción que determina un índice de imagen de referencia de un bloque cosituado de un bloque de destino de predicción, y determina un vector de predicción de movimiento del bloque cosituado, en el cual el bloque cosituado es un bloque determinado20 de manera adaptable por una ubicación del bloque de destino de predicción dentro de una Máxima Unidad de Codificación (LCU).
- 12. El aparato de la reivindicación 11, en el cual el bloque cosituado es determinado demanera diferente, decidiendo si un contorno inferior del bloque de destino de predicción es 25 o no adyacente a un contorno de la LCU.
- 13. El aparato de la reivindicación 11, en el cual el bloque cosituado es determinado de manera diferente, decidiendo si un contorno inferior del bloque de destino de predicción eso no adyacente a un contorno de la LCU, y si solamente un contorno derecho del bloque 30 de destino de predicción es o no adyacente al contorno de la LCU.
- 14. El aparato de la reivindicación 11, en el cual el bloque cosituado es determinado haciendo referencia a posiciones de píxeles dentro de la LCU.35 15. El aparato de la reivindicación 11, en el cual, si un lado izquierdo o un contorno inferior del bloque de destino de predicción no es adyacente al contorno de la LCU, unP20139009812-12-2013primer bloque cosituado y un quinto bloque cosituado son determinados secuencialmente como el bloque cosituado, según la disponibilidad del bloque cosituado en una posición correspondiente, y5 en el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un bloque que incluye un punto (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto (xP+(nPSW>>1),10 yP+(nPSH>>1)) dentro de la imagen cosituada.
- 16. Un aparato de descodificación de vídeo, caracterizado porque el aparato comprende:15 una unidad de descodificación por entropía que descodifica información de tamaño de la LCU; yuna unidad de predicción que determina si un contorno de un bloque de destino de predicción es o no adyacente a un contorno de una Máxima Unidad de Codificación (LCU)20 y que determina la disponibilidad de un primer bloque cosituado, según la determinación de si el contorno del bloque de destino de predicción es o no adyacente al contorno de la LCU.
- 17. El aparato de la reivindicación 16, en el cual la unidad de predicción determina otro bloque cosituado, excepto el primer bloque cosituado, como un bloque cosituado para25 obtener un vector temporal de predicción de movimiento, si se determina que el primer bloque cosituado no está disponible.
- 18. El aparato de la reivindicación 17, en el cual la unidad de predicción determina distintos bloques cosituados para obtener el vector temporal de predicción de movimiento,30 para el caso en que un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU, y para el caso en que solamente un contorno derecho del bloque de destino de predicción es adyacente al contorno de la LCU.
- 19. El aparato de la reivindicación 16, en el cual la unidad de predicción determina el35 primer bloque cosituado como no disponible si un contorno inferior del bloque de destino de predicción es adyacente al contorno de la LCU.P20139009812-12-2013
- 20. El aparato de la reivindicación 16, en el cual la unidad de predicción determina el primer bloque cosituado como el bloque cosituado para obtener el vector temporal de predicción de movimiento, si el primer bloque cosituado está disponible, o determina la5 disponibilidad de un quinto bloque cosituado si el primer bloque cosituado no está disponible, yen el cual, si una ubicación de un punto en un extremo superior izquierdo del bloque de destino de predicción es (xP, yP), un ancho del bloque de destino de predicción es nPSW y10 una altura del bloque de destino de predicción es nPSH, el primer bloque cosituado es un bloque que incluye un punto (xP+nPSW, yP+nPSH) dentro de una imagen cosituada, y el quinto bloque cosituado es un bloque que incluye un punto (xP+(nPSW>>1), yP+(nPSH>>1)) dentro de la imagen cosituada.15
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20110091782 | 2011-09-09 | ||
| KR10-2011-0091782 | 2011-09-09 | ||
| KR10-2012-0039501 | 2012-04-17 | ||
| KR1020120039501A KR101204026B1 (ko) | 2011-09-09 | 2012-04-17 | 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
| PCT/KR2012/007174 WO2013036041A2 (ko) | 2011-09-09 | 2012-09-06 | 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| ES2487993A2 true ES2487993A2 (es) | 2014-08-25 |
| ES2487993R1 ES2487993R1 (es) | 2015-01-27 |
| ES2487993B1 ES2487993B1 (es) | 2015-09-29 |
Family
ID=47832709
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES201390098A Active ES2487993B1 (es) | 2011-09-09 | 2012-09-06 | Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento |
Country Status (14)
| Country | Link |
|---|---|
| US (4) | US10523967B2 (es) |
| EP (2) | EP2672710B1 (es) |
| JP (7) | JP5745693B2 (es) |
| CN (19) | CN107580219B (es) |
| AU (1) | AU2012305071B2 (es) |
| BR (1) | BR112013022641B1 (es) |
| CA (2) | CA2829114C (es) |
| ES (1) | ES2487993B1 (es) |
| GB (7) | GB2559227B (es) |
| MX (6) | MX351041B (es) |
| PL (1) | PL231159B1 (es) |
| RU (10) | RU2600547C2 (es) |
| SE (5) | SE1651147A1 (es) |
| WO (1) | WO2013036041A2 (es) |
Families Citing this family (60)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10397599B2 (en) | 2010-12-17 | 2019-08-27 | Electronics And Telecommunications Research Institute | Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction |
| RU2600547C2 (ru) | 2011-09-09 | 2016-10-20 | Кт Корпорейшн | Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ |
| US9253498B2 (en) | 2011-09-23 | 2016-02-02 | Kt Corporation | Method for inducing a merge candidate block and device using same |
| CN105453563B (zh) | 2013-07-30 | 2019-08-16 | 株式会社Kt | 支持多个层的图像编码和解码方法以及使用该方法的装置 |
| US9894369B2 (en) | 2013-07-30 | 2018-02-13 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
| WO2015016536A1 (ko) * | 2013-07-30 | 2015-02-05 | 주식회사 케이티 | 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치 |
| WO2016085229A1 (ko) * | 2014-11-27 | 2016-06-02 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
| WO2017008255A1 (en) * | 2015-07-14 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Advanced intra prediction mode signaling in video coding |
| US10313765B2 (en) | 2015-09-04 | 2019-06-04 | At&T Intellectual Property I, L.P. | Selective communication of a vector graphics format version of a video content item |
| WO2017048008A1 (ko) * | 2015-09-17 | 2017-03-23 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측 방법 및 장치 |
| CN105681788B (zh) * | 2016-04-07 | 2019-05-03 | 中星技术股份有限公司 | 视频编码方法和视频编码装置 |
| CN109314785B (zh) * | 2016-04-08 | 2023-06-30 | 韩国电子通信研究院 | 用于导出运动预测信息的方法和装置 |
| US10116957B2 (en) * | 2016-09-15 | 2018-10-30 | Google Inc. | Dual filter type for motion compensated prediction in video coding |
| KR102471208B1 (ko) | 2016-09-20 | 2022-11-25 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
| US11394976B2 (en) * | 2017-01-03 | 2022-07-19 | Lg Electronics Inc. | Inter-prediction method and apparatus in image coding system |
| EP3383043A1 (en) | 2017-03-27 | 2018-10-03 | Thomson Licensing | Methods and apparatus for picture encoding and decoding |
| JP6867870B2 (ja) | 2017-05-18 | 2021-05-12 | スタンレー電気株式会社 | 車両用灯具 |
| EP3704856A1 (en) * | 2017-11-01 | 2020-09-09 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
| CN118042153A (zh) | 2018-01-25 | 2024-05-14 | 三星电子株式会社 | 使用基于子块的运动补偿进行视频信号处理的方法和装置 |
| US11233996B2 (en) | 2018-02-22 | 2022-01-25 | Lg Electronics Inc. | Image decoding method and apparatus according to block division structure in image coding system |
| CN118400522A (zh) | 2018-03-21 | 2024-07-26 | Lx 半导体科技有限公司 | 图像编码/解码设备以及发送图像数据的设备 |
| KR102840294B1 (ko) | 2018-06-29 | 2025-07-30 | 두인 비전 컴퍼니 리미티드 | 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념 |
| EP3794824A1 (en) | 2018-06-29 | 2021-03-24 | Beijing Bytedance Network Technology Co. Ltd. | Conditions for updating luts |
| CN110662075B (zh) | 2018-06-29 | 2023-04-25 | 北京字节跳动网络技术有限公司 | 改进的时域运动矢量预测推导 |
| TWI752331B (zh) | 2018-06-29 | 2022-01-11 | 大陸商北京字節跳動網絡技術有限公司 | 當向Merge/AMVP添加HMVP候選時的部分/完全修剪 |
| WO2020003261A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Selection from multiple luts |
| WO2020003278A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Update of look up table: fifo, constrained fifo |
| EP4325861A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
| WO2020003282A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Managing motion vector predictors for video coding |
| KR20240005240A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
| CN117812257A (zh) * | 2018-07-02 | 2024-04-02 | Lg电子株式会社 | 图像解码方法、图像编码方法、存储介质和发送方法 |
| EP3815376A1 (en) | 2018-07-02 | 2021-05-05 | Beijing Bytedance Network Technology Co. Ltd. | Luts with intra prediction modes and intra mode prediction from non-adjacent blocks |
| CN117241039A (zh) | 2018-08-28 | 2023-12-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
| CN114363610B (zh) * | 2018-08-29 | 2022-09-16 | 北京达佳互联信息技术有限公司 | 视频编码的方法、计算设备和存储介质 |
| CN111064961B (zh) | 2018-09-12 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置 |
| BR112021005175A2 (pt) | 2018-09-21 | 2021-06-08 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | método de decodificação de vídeo, método de codificação de vídeo, aparelho de decodificação de vídeo e aparelho de codificação de vídeo |
| GB2577318B (en) | 2018-09-21 | 2021-03-10 | Canon Kk | Video coding and decoding |
| GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
| CN112889289B (zh) | 2018-10-10 | 2024-08-23 | 三星电子株式会社 | 通过使用运动矢量差分值对视频进行编码和解码的方法以及用于对运动信息进行编码和解码的设备 |
| GB2595053B (en) | 2018-10-18 | 2022-07-06 | Canon Kk | Video coding and decoding |
| GB2595054B (en) | 2018-10-18 | 2022-07-06 | Canon Kk | Video coding and decoding |
| JP7281890B2 (ja) * | 2018-10-24 | 2023-05-26 | シャープ株式会社 | 動画像符号化装置および動画像復号装置 |
| CN113170198B (zh) | 2018-11-22 | 2022-12-09 | 北京字节跳动网络技术有限公司 | 子块时域运动矢量预测 |
| KR102625314B1 (ko) * | 2018-11-26 | 2024-01-15 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 타일 독립성 제약을 이용하는 인터 예측 개념 |
| JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
| WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
| WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
| AR118250A1 (es) * | 2019-03-08 | 2021-09-22 | Jvckenwood Corp | Dispositivos, métodos y programas de codificación y decodificación de imágenes en movimiento |
| WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
| WO2020233661A1 (en) | 2019-05-21 | 2020-11-26 | Beijing Bytedance Network Technology Co., Ltd. | Syntax signaling in sub-block merge mode |
| CN110933408B (zh) * | 2019-06-21 | 2020-11-10 | 杭州海康威视数字技术股份有限公司 | 预测模式的解码、编码方法及装置 |
| CN114208166B (zh) | 2019-08-10 | 2024-04-09 | 北京字节跳动网络技术有限公司 | 视频比特流中的子图片相关信令通知 |
| WO2021052506A1 (en) * | 2019-09-22 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Transform unit based combined inter intra prediction |
| KR102871115B1 (ko) | 2019-10-18 | 2025-10-16 | 두인 비전 컴퍼니 리미티드 | 서브픽처들의 파라미터 세트 시그널링에서의 신택스 제약들 |
| CN115280774B (zh) | 2019-12-02 | 2025-08-19 | 抖音视界有限公司 | 视觉媒体处理的方法、装置及非暂时性计算机可读存储介质 |
| CN115176466B (zh) * | 2020-02-14 | 2026-01-02 | 抖音视界有限公司 | 视频比特流中的子图片信息信令 |
| CN115349254A (zh) * | 2020-03-23 | 2022-11-15 | 抖音视界有限公司 | 控制编解码视频中不同级别的去块滤波 |
| CN113840148A (zh) * | 2020-06-24 | 2021-12-24 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
| CN111698517B (zh) * | 2020-06-29 | 2022-07-12 | Oppo广东移动通信有限公司 | 运动矢量的确定方法、装置、电子设备和可读存储介质 |
| CN113709488B (zh) | 2020-06-30 | 2023-02-28 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
Family Cites Families (98)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| RU2003174C1 (ru) * | 1990-01-22 | 1993-11-15 | Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) | Способ распознавани изображений |
| US5508744A (en) | 1993-03-12 | 1996-04-16 | Thomson Consumer Electronics, Inc. | Video signal compression with removal of non-correlated motion vectors |
| JP3640318B2 (ja) | 1995-09-01 | 2005-04-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ディジタル画像の符号化方法及びシステム |
| RU2182727C2 (ru) * | 2000-07-20 | 2002-05-20 | Дворкович Александр Викторович | Способ поиска векторов движения деталей в динамических изображениях |
| AU2001270885A1 (en) | 2000-07-20 | 2002-02-05 | Giant Leap Ahead Limited | Method and apparatus for determining motion vectors in dynamic images |
| US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
| KR100446083B1 (ko) | 2002-01-02 | 2004-08-30 | 삼성전자주식회사 | 움직임 추정 및 모드 결정 장치 및 방법 |
| US20050226462A1 (en) * | 2002-05-30 | 2005-10-13 | Wittebrood Rimmert B | Unit for and method of estimating a motion vector |
| CN101039427B (zh) | 2002-07-15 | 2010-06-16 | 株式会社日立制作所 | 动态图像的解码方法 |
| KR100865034B1 (ko) | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
| US7801217B2 (en) | 2002-10-01 | 2010-09-21 | Thomson Licensing | Implicit weighting of reference pictures in a video encoder |
| WO2004032506A1 (en) | 2002-10-01 | 2004-04-15 | Thomson Licensing S.A. | Implicit weighting of reference pictures in a video encoder |
| US7408986B2 (en) * | 2003-06-13 | 2008-08-05 | Microsoft Corporation | Increasing motion smoothness using frame interpolation with motion analysis |
| US20040258154A1 (en) * | 2003-06-19 | 2004-12-23 | Microsoft Corporation | System and method for multi-stage predictive motion estimation |
| US7609763B2 (en) | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
| KR20060121820A (ko) | 2003-08-22 | 2006-11-29 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 레이트-왜곡-복잡성 최적화된 비디오 코딩을 위한 모션벡터들의 결합된 공간-시간-배향-스케일 예측 및 코딩 |
| US8064520B2 (en) | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
| AU2003282462A1 (en) * | 2003-10-09 | 2005-05-26 | Thomson Licensing | Direct mode derivation process for error concealment |
| KR100597402B1 (ko) | 2003-12-01 | 2006-07-06 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
| KR100596706B1 (ko) | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
| CA2547891C (en) * | 2003-12-01 | 2014-08-12 | Samsung Electronics Co., Ltd. | Method and apparatus for scalable video encoding and decoding |
| JP3879741B2 (ja) | 2004-02-25 | 2007-02-14 | ソニー株式会社 | 画像情報符号化装置および画像情報符号化方法 |
| KR100694059B1 (ko) * | 2004-09-30 | 2007-03-12 | 삼성전자주식회사 | 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치 |
| KR100888962B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
| KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
| JP2008538433A (ja) | 2005-04-12 | 2008-10-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 領域ベース複数パス動き推定及び時間的動きベクトル候補の更新を用いたビデオ処理 |
| KR100896279B1 (ko) * | 2005-04-15 | 2009-05-07 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
| JP2006303734A (ja) | 2005-04-18 | 2006-11-02 | Victor Co Of Japan Ltd | 動画像符号化装置及びそのプログラム |
| KR20060123939A (ko) | 2005-05-30 | 2006-12-05 | 삼성전자주식회사 | 영상의 복부호화 방법 및 장치 |
| US8761258B2 (en) | 2005-06-17 | 2014-06-24 | The Hong Kong University Of Science And Technology | Enhanced block-based motion estimation algorithms for video compression |
| CN101253777A (zh) | 2005-07-01 | 2008-08-27 | 极速决件公司 | 用于在多媒体信号编码中使用的方法、装置和系统 |
| KR20070038396A (ko) | 2005-10-05 | 2007-04-10 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
| KR100728031B1 (ko) * | 2006-01-23 | 2007-06-14 | 삼성전자주식회사 | 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치 |
| CN101455084A (zh) * | 2006-03-30 | 2009-06-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
| KR100934671B1 (ko) | 2006-03-30 | 2009-12-31 | 엘지전자 주식회사 | 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치 |
| US20100091845A1 (en) | 2006-03-30 | 2010-04-15 | Byeong Moon Jeon | Method and apparatus for decoding/encoding a video signal |
| CN101090491B (zh) * | 2006-06-16 | 2016-05-18 | 香港科技大学 | 用于视频压缩的增强的基于块的运动估计算法 |
| WO2007148909A1 (en) | 2006-06-19 | 2007-12-27 | Lg Electronics, Inc. | Method and apparatus for processing a vedeo signal |
| CN101102503A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 视频分层编码层间运动矢量的预测方法 |
| WO2008023967A1 (en) | 2006-08-25 | 2008-02-28 | Lg Electronics Inc | A method and apparatus for decoding/encoding a video signal |
| US20080101474A1 (en) * | 2006-11-01 | 2008-05-01 | Yi-Jen Chiu | Optimizing the storage and reducing the computation of reference picture list processing in video decoding |
| CN101222638B (zh) * | 2007-01-08 | 2011-12-07 | 华为技术有限公司 | 多视视频编解码方法及装置 |
| CN101669367A (zh) | 2007-03-02 | 2010-03-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法及设备 |
| EP2149262A4 (en) * | 2007-04-25 | 2010-09-01 | Lg Electronics Inc | METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL |
| CN101119493B (zh) | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
| AU2008313328A1 (en) * | 2007-10-15 | 2009-04-23 | Nokia Corporation | Motion skip and single-loop encoding for multi-view video content |
| KR101835342B1 (ko) * | 2007-10-16 | 2018-03-07 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
| US8908765B2 (en) * | 2007-11-15 | 2014-12-09 | General Instrument Corporation | Method and apparatus for performing motion estimation |
| US9641861B2 (en) | 2008-01-25 | 2017-05-02 | Mediatek Inc. | Method and integrated circuit for video processing |
| CN101540902B (zh) * | 2008-03-20 | 2011-02-02 | 华为技术有限公司 | 运动矢量的缩放方法和装置、编解码方法和系统 |
| US8990018B2 (en) * | 2008-03-31 | 2015-03-24 | MEDIMETRICS Personalized Drug Delivery B.V. | Method of preparing a swallowable capsule comprising a sensor |
| JP2010011075A (ja) * | 2008-06-26 | 2010-01-14 | Toshiba Corp | 動画像符号化及び動画像復号化の方法及び装置 |
| JP2010016454A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 画像符号化装置および方法、画像復号装置および方法、並びにプログラム |
| TWI374672B (en) * | 2008-07-04 | 2012-10-11 | Univ Nat Taiwan | Seamless wireless video transmission for multimedia applications |
| WO2010004939A1 (ja) | 2008-07-10 | 2010-01-14 | 三菱電機株式会社 | 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 |
| US8699562B2 (en) * | 2008-10-06 | 2014-04-15 | Lg Electronics Inc. | Method and an apparatus for processing a video signal with blocks in direct or skip mode |
| CN101540926B (zh) * | 2009-04-15 | 2010-10-27 | 南京大学 | 基于h.264的立体视频编解码方法 |
| CN102883160B (zh) | 2009-06-26 | 2016-06-29 | 华为技术有限公司 | 视频图像运动信息获取方法、装置及设备、模板构造方法 |
| KR101456498B1 (ko) | 2009-08-14 | 2014-10-31 | 삼성전자주식회사 | 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
| CN102361671B (zh) | 2009-08-20 | 2013-08-21 | 金落成 | 朝前后倾斜椅子而摇荡的秋千 |
| JP2011097572A (ja) | 2009-09-29 | 2011-05-12 | Canon Inc | 動画像符号化装置 |
| WO2011070730A1 (ja) | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | 映像符号化装置および映像復号装置 |
| KR20110068792A (ko) * | 2009-12-16 | 2011-06-22 | 한국전자통신연구원 | 적응적 영상 부호화 장치 및 방법 |
| CN101860754B (zh) * | 2009-12-16 | 2013-11-13 | 香港应用科技研究院有限公司 | 运动矢量编码和解码的方法和装置 |
| JP2011151775A (ja) * | 2009-12-22 | 2011-08-04 | Jvc Kenwood Holdings Inc | 画像復号装置、画像復号方法および画像復号プログラム |
| KR101522850B1 (ko) | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
| US9036692B2 (en) | 2010-01-18 | 2015-05-19 | Mediatek Inc. | Motion prediction method |
| CN102131094A (zh) * | 2010-01-18 | 2011-07-20 | 联发科技股份有限公司 | 运动预测方法 |
| KR20120086232A (ko) | 2011-01-25 | 2012-08-02 | (주)휴맥스 | 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치 |
| WO2011096770A2 (ko) | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
| CN103250412A (zh) | 2010-02-02 | 2013-08-14 | 数码士有限公司 | 用于率失真优化的图像编码/解码方法和用于执行该方法的装置 |
| KR101495724B1 (ko) | 2010-02-02 | 2015-02-25 | 삼성전자주식회사 | 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치 |
| PL2945382T3 (pl) * | 2010-04-23 | 2017-11-30 | M&K Holdings Inc. | Urządzenie do kodowania obrazu |
| KR102158700B1 (ko) * | 2010-05-04 | 2020-09-22 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
| US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
| RS66722B1 (sr) * | 2010-09-02 | 2025-05-30 | Lg Electronics Inc | Uređaj za inter predikciju |
| KR101033243B1 (ko) | 2010-11-17 | 2011-05-06 | 엘아이지넥스원 주식회사 | 객체 추적 방법 및 장치 |
| US8824558B2 (en) | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
| US9137544B2 (en) | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
| US8711940B2 (en) * | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
| US10142630B2 (en) * | 2010-12-10 | 2018-11-27 | Texas Instruments Incorporated | Mode adaptive intra prediction smoothing in video coding |
| US10397599B2 (en) | 2010-12-17 | 2019-08-27 | Electronics And Telecommunications Research Institute | Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction |
| WO2012081949A2 (ko) | 2010-12-17 | 2012-06-21 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
| US9532050B2 (en) | 2011-01-25 | 2016-12-27 | Sun Patent Trust | Moving picture coding method and moving picture decoding method |
| US9319716B2 (en) | 2011-01-27 | 2016-04-19 | Qualcomm Incorporated | Performing motion vector prediction for video coding |
| WO2012140821A1 (ja) | 2011-04-12 | 2012-10-18 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置 |
| US9247266B2 (en) * | 2011-04-18 | 2016-01-26 | Texas Instruments Incorporated | Temporal motion data candidate derivation in video coding |
| RU2600547C2 (ru) | 2011-09-09 | 2016-10-20 | Кт Корпорейшн | Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ |
| US9392235B2 (en) * | 2011-11-18 | 2016-07-12 | Google Technology Holdings LLC | Explicit way for signaling a collocated reference picture for video coding |
| CN107347160B (zh) | 2011-11-18 | 2020-04-28 | 谷歌技术控股有限责任公司 | 针对高效率视频代码化用信号发送并置图片的显式方式 |
| EP2783510A1 (en) * | 2011-11-21 | 2014-10-01 | Motorola Mobility LLC | Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction |
| US9525861B2 (en) * | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
| US9445076B2 (en) * | 2012-03-14 | 2016-09-13 | Qualcomm Incorporated | Disparity vector construction method for 3D-HEVC |
| US10200709B2 (en) * | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
| US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
| US9210425B2 (en) | 2012-04-11 | 2015-12-08 | Google Technology Holdings LLC | Signaling of temporal motion vector predictor (MVP) flag for temporal prediction |
| WO2013154674A1 (en) | 2012-04-11 | 2013-10-17 | Motorola Mobility Llc | Evaluation of signaling of collocated reference picture for temporal prediction |
| US9325990B2 (en) * | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
-
2012
- 2012-09-06 RU RU2013140661/08A patent/RU2600547C2/ru active
- 2012-09-06 CN CN201710736224.2A patent/CN107580219B/zh not_active Expired - Fee Related
- 2012-09-06 RU RU2016133536A patent/RU2636117C1/ru active
- 2012-09-06 SE SE1651147A patent/SE1651147A1/sv not_active Application Discontinuation
- 2012-09-06 AU AU2012305071A patent/AU2012305071B2/en active Active
- 2012-09-06 RU RU2016133570A patent/RU2716231C2/ru active
- 2012-09-06 RU RU2016133566A patent/RU2716230C2/ru active
- 2012-09-06 CN CN201710737242.2A patent/CN107483928B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710735663.1A patent/CN107592527B/zh active Active
- 2012-09-06 CN CN201410601678.5A patent/CN104349164B/zh active Active
- 2012-09-06 PL PL407911A patent/PL231159B1/pl unknown
- 2012-09-06 RU RU2016133579A patent/RU2716563C2/ru active
- 2012-09-06 RU RU2016133481A patent/RU2635235C1/ru active
- 2012-09-06 CA CA2829114A patent/CA2829114C/en active Active
- 2012-09-06 CN CN201710736976.9A patent/CN107483927B/zh active Active
- 2012-09-06 RU RU2016133580A patent/RU2716229C2/ru active
- 2012-09-06 WO PCT/KR2012/007174 patent/WO2013036041A2/ko not_active Ceased
- 2012-09-06 CN CN201710736236.5A patent/CN107580221B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710735677.3A patent/CN107635140B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710736365.4A patent/CN107483926B/zh active Active
- 2012-09-06 CA CA2937483A patent/CA2937483C/en active Active
- 2012-09-06 GB GB1716270.2A patent/GB2559227B/en active Active
- 2012-09-06 JP JP2014516928A patent/JP5745693B2/ja active Active
- 2012-09-06 SE SE1351475A patent/SE538057C2/sv unknown
- 2012-09-06 CN CN201610740915.5A patent/CN106170088B/zh active Active
- 2012-09-06 CN CN201710737674.3A patent/CN107483929B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710735855.2A patent/CN107580218B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710735665.0A patent/CN107592528B/zh active Active
- 2012-09-06 GB GB1716275.1A patent/GB2562130B/en active Active
- 2012-09-06 EP EP12829566.4A patent/EP2672710B1/en active Active
- 2012-09-06 GB GB1321881.3A patent/GB2508739B/en active Active
- 2012-09-06 GB GB1716265.2A patent/GB2559226B/en active Active
- 2012-09-06 RU RU2016133546A patent/RU2636118C1/ru active
- 2012-09-06 MX MX2016003898A patent/MX351041B/es unknown
- 2012-09-06 CN CN201710735853.3A patent/CN107483925B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201280013098.3A patent/CN103430550B/zh active Active
- 2012-09-06 EP EP17153707.9A patent/EP3179723B1/en active Active
- 2012-09-06 US US14/002,444 patent/US10523967B2/en active Active
- 2012-09-06 ES ES201390098A patent/ES2487993B1/es active Active
- 2012-09-06 GB GB1809871.5A patent/GB2562635B/en active Active
- 2012-09-06 CN CN201710736975.4A patent/CN107396099B/zh active Active
- 2012-09-06 SE SE1651148A patent/SE1651148A1/sv not_active Application Discontinuation
- 2012-09-06 SE SE1551592A patent/SE538787C2/sv unknown
- 2012-09-06 CN CN201710737681.3A patent/CN107592529B/zh not_active Expired - Fee Related
- 2012-09-06 MX MX2017012378A patent/MX381917B/es unknown
- 2012-09-06 GB GB1716271.0A patent/GB2559445B/en active Active
- 2012-09-06 CN CN201710735700.9A patent/CN107404651B/zh active Active
- 2012-09-06 SE SE1651149A patent/SE1651149A1/sv not_active Application Discontinuation
- 2012-09-06 MX MX2016010978A patent/MX351052B/es unknown
- 2012-09-06 RU RU2016133501A patent/RU2622849C1/ru active
- 2012-09-06 BR BR112013022641-2A patent/BR112013022641B1/pt active IP Right Grant
- 2012-09-06 RU RU2016133485A patent/RU2646384C1/ru active
- 2012-09-06 MX MX2017012379A patent/MX381916B/es unknown
- 2012-09-06 GB GB1716273.6A patent/GB2562129B/en active Active
- 2012-09-06 CN CN201710736974.XA patent/CN107396098B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710736230.8A patent/CN107580220B/zh active Active
- 2012-09-06 MX MX2013010155A patent/MX2013010155A/es active IP Right Grant
-
2013
- 2013-09-04 MX MX2015010607A patent/MX338137B/es unknown
-
2015
- 2015-01-26 US US14/604,934 patent/US20150208093A1/en not_active Abandoned
- 2015-04-16 JP JP2015084318A patent/JP5993484B2/ja active Active
- 2015-04-16 JP JP2015084331A patent/JP6062480B2/ja active Active
- 2015-08-14 JP JP2015160173A patent/JP6062507B2/ja active Active
- 2015-08-14 JP JP2015160175A patent/JP6062508B2/ja active Active
-
2016
- 2016-12-13 JP JP2016241358A patent/JP6322693B2/ja active Active
-
2018
- 2018-04-09 JP JP2018074837A patent/JP6619045B2/ja active Active
-
2019
- 2019-11-13 US US16/682,473 patent/US10805639B2/en active Active
-
2020
- 2020-09-08 US US17/014,449 patent/US11089333B2/en active Active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2487993A2 (es) | Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento | |
| US12137243B2 (en) | Method for refining a motion vector derived under a merge mode using a difference vector | |
| US11303919B2 (en) | Method and apparatus for inter prediction in video coding system | |
| ES2715613T3 (es) | Método para fijar una lista de vectores de movimiento | |
| ES2955938T3 (es) | Intrapredicción en codificación de vídeo | |
| RU2632157C2 (ru) | Способ и устройство для совместного использования списка кандидатов | |
| US10856001B2 (en) | Polygon unit-based image processing method, and device for same | |
| BR112013018993B1 (pt) | Método de derivação de candidato de mesclagem | |
| US20190098299A1 (en) | Inter prediction mode-based image processing method and device therefor | |
| RU2575419C2 (ru) | Способ и устройство для совместного использования списка кандидатов |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG2A | Definitive protection |
Ref document number: 2487993 Country of ref document: ES Kind code of ref document: B1 Effective date: 20150929 |