ES2489816A2 - Método para gestionar una lista de imágenes de referencia, y aparato que lo usa - Google Patents
Método para gestionar una lista de imágenes de referencia, y aparato que lo usa Download PDFInfo
- Publication number
- ES2489816A2 ES2489816A2 ES201390089A ES201390089A ES2489816A2 ES 2489816 A2 ES2489816 A2 ES 2489816A2 ES 201390089 A ES201390089 A ES 201390089A ES 201390089 A ES201390089 A ES 201390089A ES 2489816 A2 ES2489816 A2 ES 2489816A2
- Authority
- ES
- Spain
- Prior art keywords
- images
- image
- term reference
- short
- max
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Se facilita un método para gestionar una lista de imágenes de referencia, y un aparato que lo usa. Un método de descodificación de imagen incluye los pasos de: descodificar una imagen de imágenes de capa temporal segunda más alta en una configuración jerárquica de imágenes; y descodificar imágenes de capa temporal superior que preceden y siguen a las imágenes de capa temporal segunda más alta con respecto a un recuento de orden de imágenes (POC) en una secuencia de POC, respectivamente. Por lo tanto, las imágenes de referencia disponibles permanecen en una memoria intermedia de imagen descodificada (DPB), mejorando por ello la eficiencia de codificación de imagen.
Description
DESCRIPCIÓN
Método para gestionar una lista de imágenes de referencia, y aparato que lo usa.
Campo técnico 5
La presente invención se refiere a un método de descodificación vídeo y un descodificador vídeo, y más en concreto, a un método de gestionar una lista de imágenes de referencia y un dispositivo que usa el método.
10
Antecedentes de la invención
En los últimos años ha incrementado la demanda de vídeo de alta resolución y alta calidad tal como vídeo de alta definición (HD) y vídeo de definición ultra alta (UHD) en varios campos de aplicaciones. Sin embargo, cuando un vídeo tiene una resolución más alta y calidad más alta, 15 la cantidad de datos del vídeo incrementa más que los datos vídeo actuales. Consiguientemente, cuando se transfieren datos vídeo usando medios tales como las actuales líneas de cable o inalámbricas de banda ancha o se guardan en medios de almacenamiento actuales, su costo de transferencia y su costo de almacenamiento aumentan. Se puede usar técnicas de compresión vídeo de alta eficiencia para resolver tales problemas debido a una 20 mejora en la resolución y la calidad de los datos vídeo.
Varias técnicas tales como una técnica de predicción inter consistente en predecir valores de píxel incluidos en una imagen corriente a partir de una imagen previa o posterior de la imagen corriente, una técnica de predicción intra consistente en predecir valores de píxel incluidos en 25 una imagen corriente usando información de píxel en la imagen corriente, y una técnica de codificación por entropía consistente en asignar un código corto a un valor de una frecuencia de aparición baja y asignar un código largo de un valor de una frecuencia de aparición alta son conocidas como las técnicas de compresión vídeo. Es posible comprimir, transferir o almacenar efectivamente datos vídeo usando tales técnicas de compresión vídeo. 30
Resumen de la invención
Problema técnico
35
Un objeto de la invención es proporcionar un método de gestionar una lista de imágenes de referencia con el fin de mejorar la eficiencia de codificación/descodificación vídeo.
Otro objeto de la invención es proporcionar un dispositivo que realiza el método de gestionar una lista de imágenes de referencia con el fin de mejorar la eficiencia de 40 codificación/descodificación vídeo.
Solución al problema
Según un aspecto de la invención, se facilita un método de descodificación vídeo incluyendo 45 los pasos de descodificar una imagen de las imágenes de capa temporal segunda más alta en una estructura jerárquica de imágenes, y descodificar una imagen de capa temporal más alta presente previa o posteriormente en el orden de recuentos de orden de imágenes (POC) en base al POC de las imágenes de capa temporal segunda más alta. El método de descodificación vídeo puede incluir además el paso de determinar si el número de imágenes 50 calculado en base a imágenes de referencia de corto plazo e imágenes de referencia de largo plazo guardadas en un DPB incluyendo las imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y si el número de imágenes de referencia de corto plazo es mayor que 0. El método de descodificación vídeo puede incluir
además el paso de calcular el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo. El método de descodificación vídeo puede incluir además el paso de sacar del DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el DPB cuando el número de imágenes almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y el número de 5 imágenes de referencia de corto plazo es mayor que 0. La estructura jerárquica de imágenes puede ser una estructura jerárquica de imágenes GOP incluyendo cinco imágenes de capa temporal y ocho imágenes. La imagen de segunda capa temporal más alta puede ser una imagen presente en una tercera capa temporal y la imagen de capa temporal más alta puede ser una imagen presente en una cuarta capa temporal. 10
Según otro aspecto de la invención, se facilita un método de descodificación vídeo incluyendo los pasos de determinar si el número de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de referencia de largo plazo guardadas en un DPB incluyendo imágenes de capa temporal segunda más alta descodificadas es igual a 15 Max(max_num_ref_frame, 1), y determinar si el número de imágenes de referencia de corto plazo es mayor que 0. El método de descodificación vídeo puede incluir además el paso de calcular el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo. El método de descodificación vídeo puede incluir además el paso de sacar del DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las 20 imágenes de referencia de corto plazo presentes en el DPB cuando el número de imágenes almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y el número de imágenes de referencia de corto plazo es mayor que 0.
Según otro aspecto de la invención, se facilita un descodificador vídeo incluyendo un módulo 25 de determinación de información de imagen que descodifica una imagen de imágenes de capa temporal segunda más alta en una estructura jerárquica de imágenes y determina información de imagen con el fin de descodificar una imagen de capa temporal más alta presente previa o posteriormente en el orden de recuentos de orden de imágenes (POC) en base al POC de las imágenes de capa temporal segunda más alta, y un módulo de almacenamiento de imagen de 30 referencia que guarda la imagen de segunda capa temporal más alta descodificada en base a la información de imagen determinada por el módulo de determinación de información de imagen. El descodificador vídeo puede incluir además un módulo de actualización de información de imagen de referencia que determina si el número de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de referencia de largo plazo 35 almacenadas en el módulo de almacenamiento de imagen de referencia incluyendo las imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y si el número de imágenes de referencia de corto plazo es mayor que 0. El módulo de actualización de información de imagen de referencia puede calcular el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de 40 largo plazo. El módulo de actualización de información de imagen de referencia puede quitar del DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el módulo de almacenamiento de imagen de referencia cuando el número de imágenes almacenadas en el módulo de almacenamiento de imagen de referencia es igual a Max(max_num_ref_frame, 1) y el número de imágenes de 45 referencia de corto plazo es mayor que 0. La estructura jerárquica de imágenes puede ser una estructura jerárquica de imágenes GOP incluyendo cinco imágenes de capa temporal y ocho imágenes. La imagen de segunda capa temporal más alta puede ser una imagen presente en una tercera capa temporal y la imagen de capa temporal más alta puede ser una imagen presente en una cuarta capa temporal. 50
Según otro aspecto de la invención, se facilita un descodificador vídeo incluyendo un módulo de actualización de información de imagen de referencia que determina si el número de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de referencia
de largo plazo almacenadas en un módulo de almacenamiento de imagen de referencia incluyendo imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y determina si el número de imágenes de referencia de corto plazo es mayor que 0, y un módulo de almacenamiento de imagen de referencia que actualiza las imágenes de referencia en base a información creada por la unidad de actualización de 5 información de imagen de referencia. El módulo de actualización de información de imagen de referencia puede calcular el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo. El módulo de actualización de información de imagen de referencia puede actualizar la imagen de referencia con el fin de quitar del DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de 10 corto plazo presentes en el DPB cuando el número de imágenes almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y el número de imágenes de referencia de corto plazo es mayor que 0.
Efectos ventajosos 15
En dicho método de gestionar una lista de imágenes de referencia y dicho dispositivo que usa el método según los aspectos de la invención, es posible reducir el número de casos donde una imagen de referencia óptima no está disponible y mejorar la eficiencia de codificación/descodificación vídeo cambiando el orden de descodificar imágenes de referencia 20 y cambiando el método de extracción de imagen de referencia aplicado al DPB.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que ilustra esquemáticamente un codificador vídeo 25 según una realización de la invención.
La figura 2 es un diagrama de bloques que ilustra esquemáticamente un descodificador vídeo según una realización de la invención.
30
La figura 3 es un diagrama conceptual que ilustra una estructura de codificación jerárquica según una realización de la invención.
La figura 4 es un diagrama de flujo que ilustra un método de determinación de orden de descodificación en una estructura jerárquica de imágenes según una realización de la 35 invención.
La figura 5 es un diagrama de flujo que ilustra un método de ventana móvil según una realización de la invención.
40
La figura 6 es un diagrama de flujo que ilustra un método de gestión de imágenes de referencia según una realización de la invención.
La figura 7 es un diagrama conceptual que ilustra un descodificador vídeo según una realización de la invención. 45
Descripción de realizaciones ejemplares
La invención puede ser modificada de varias formas y tener varias realizaciones, y sus realizaciones específicas se describirán en detalle con referencia a los dibujos acompañantes. 50 Sin embargo, se deberá entender que la invención no se limita a las realizaciones específicas e incluye todas las modificaciones, equivalentes y sustituciones incluidos en el espíritu y alcance técnicos de la invención. En los dibujos, los elementos análogos se indican con números de referencia análogos..
Términos como “primero” y “segundo” pueden ser usados para describir varios elementos, pero los elementos no se limitan a los términos. Los términos se usan solamente para distinguir un elemento de otro elemento. Por ejemplo, sin apartarse del alcance de la invención, un primer elemento se puede designar un segundo elemento e igualmente el segundo elemento se puede designar el primer elemento. El término “y/o” incluye una combinación de múltiples elementos 5 relevantes o alguno de los múltiples elementos relevantes.
Si se indica que un elemento está “conectado a” o “acoplado a” otro elemento, se deberá entender que otro elemento puede estar interpuesto entremedio, así como que el elemento puede estar conectado o acoplado directamente a otro elemento. Por el contrario, si se indica 10 que un elemento está “conectado directamente a” o “acoplado directamente a” otro elemento, se deberá entender que otro elemento no está interpuesto entremedio.
Los términos usados en la descripción siguiente se usan para describir simplemente realizaciones específicas, pero no tienen la finalidad de limitar la invención. Una expresión en 15 número singular incluye una expresión en número plural, a condición de que se indique claramente de forma diferente. Se ha previsto que términos como “incluir” y “tener” indiquen que hay características, números, pasos, operaciones, elementos, componentes o sus combinaciones usados en la descripción siguiente y así se deberá entender que no se excluye la posibilidad de existencia o adición de una o más características, números, pasos, 20 operaciones, elementos, componentes diferentes o sus combinaciones.
A continuación, se describirá en detalle realizaciones ejemplares de la invención con referencia a los dibujos acompañantes. Los elementos análogos de los dibujos se indicarán con números de referencia análogos y no se repetirá la descripción. 25
La figura 1 es un diagrama de bloques que ilustra un codificador vídeo según una realización de la invención.
Con referencia a la figura 1, un codificador vídeo 100 incluye un módulo de división de imagen 30 105, un módulo de predicción 110, un módulo de transformación 115, un módulo de cuantificación 120, un módulo de redisposición 125, un módulo de codificación por entropía 130, un módulo de descuantificación 135, un módulo de transformación inversa 140, un módulo filtro 145, y una memoria 150.
35
Los elementos en la figura 1 se ilustran de forma independiente al objeto de representar diferentes funciones distintivas y no indican que cada elemento no esté construido por un elemento de hardware o software independiente. Es decir, los elementos están dispuestos independientemente por razones de conveniencia de la explicación, y se puede combinar al menos dos elementos en un solo elemento o un solo elemento se puede dividir en múltiples 40 elementos para realizar las funciones. Las realizaciones en las que los elementos se combinan o dividen se incluyen dentro del alcance de la invención sin apartarse del concepto de la invención.
Algunos elementos pueden no ser elementos esenciales usados para realizar funciones 45 esenciales de la invención, pero pueden ser elementos selectivos usados simplemente para mejorar el rendimiento. La invención se puede realizar solamente con los elementos esenciales para realizar la invención, distintos de los elementos usados simplemente para mejorar el rendimiento, y una estructura incluyendo solamente los elementos esenciales distintos de los elementos selectivos usados simplemente para mejorar el rendimiento está incluida dentro del 50 alcance de la invención.
El módulo de división de imagen 105 puede dividir una imagen de entrada en una o más unidades de proceso. Aquí, la unidad de proceso puede ser una unidad de predicción (“PU”),
una unidad de transformación (“TU”), o una unidad de codificación (“CU”). El módulo de división de imagen 105 puede dividir una imagen en combinaciones de múltiples unidades de codificación, unidades de predicción, o unidades de transformación, y puede codificar una imagen seleccionando una combinación de unidades de codificación, unidades de predicción, o unidades de transformación con una referencia predeterminada (por ejemplo, función de costo). 5
Por ejemplo, una imagen se puede dividir en múltiples unidades de codificación. Se puede usar una estructura de árbol recursiva, tal como una estructura de árbol cuádruple, para dividir una imagen en unidades de codificación. Aquí, una unidad de codificación que se divide en otras unidades de codificación con una imagen o una unidad de codificación más grande como raíz 10 se puede dividir con nodos hijo correspondientes al número de unidades de codificación divididas. Una unidad de codificación que ya no se divida más por una limitación predeterminada sirve como un nodo hoja. Es decir, cuando se supone que una unidad de codificación no puede evitar que sea dividida en forma cuadrada, una unidad de codificación se puede dividir en otras cuatro unidades de codificación a lo sumo. 15
En las realizaciones de la invención, una unidad de codificación puede ser usada como una unidad de descodificación así como una unidad de codificación.
Una unidad de predicción se puede dividir en al menos una forma rectangular o cuadrada que 20 tenga el mismo tamaño en una sola unidad de codificación o se puede dividir de modo que una unidad de predicción dividida en una sola unidad de codificación tenga una forma diferente de las otras unidades de predicción divididas.
Cuando una unidad de predicción cuya predicción inter se realiza en base a que no es una 25 unidad de codificación mínima, la predicción inter puede ser realizada sin dividir la unidad de predicción en múltiples unidades de predicción (NxN).
El módulo de predicción 110 puede incluir un módulo de predicción inter que realiza un proceso de predicción inter y un módulo de predicción intra que realiza un proceso de predicción intra. 30 El módulo de predicción puede determinar si la predicción inter o la predicción intra se realizarán en la unidad de predicción y puede determinar información específica (por ejemplo, un modo de predicción intra, un vector de movimiento, y una imagen de referencia) dependiendo del método de predicción. Aquí, la unidad de proceso sometida al proceso de predicción puede ser diferente de la unidad de proceso de la que se determina el método de 35 predicción y la información específica. Por ejemplo, el método de predicción, el modo de predicción, y análogos pueden ser determinados en las unidades de PU y el proceso de predicción se puede realizar en las unidades de TU. La información de modo de predicción, la información de vector de movimiento, y análogos usada para la predicción junto con valores residuales puede ser codificada por el módulo de codificación por entropía 130 y puede ser 40 transmitida a un descodificador. Cuando se usa un modo de codificación específico, un bloque predicho no puede ser construido por el módulo de predicción 110, pero un bloque original puede ser codificado y transmitido al descodificador.
El módulo de predicción inter puede predecir una unidad de predicción en base a información 45 de al menos una imagen de una imagen previa o una imagen posterior de una imagen corriente. El módulo de predicción inter puede incluir un módulo de interpolación de imagen de referencia, un módulo de estimación de movimiento, y un módulo de compensación de movimiento.
50
El módulo de interpolación de imagen de referencia puede recibir información de imagen de referencia de la memoria 150 y puede crear información de píxel de un píxel entero o menos de la imagen de referencia. En caso de píxeles luma, se puede usar un filtro de interpolación basado en DCT de 8 tomas que tiene diferentes coeficientes de filtro para crear información de
píxel de un píxel entero o menos en las unidades de 1/4 píxeles. En caso de píxeles croma, se puede usar un filtro de interpolación basado en DCT de 4 tomas que tenga diferentes coeficientes de filtro para crear información de píxel de un píxel entero o menos en las unidades de 1/8 píxeles.
5
El módulo de estimación de movimiento puede realizar estimación de movimiento en base a una imagen de referencia interpolada por el módulo de interpolación de imagen de referencia. Se puede usar varios métodos, tales como un FBMA (algoritmo de comparación de bloques basado en búsqueda exhaustiva), un algoritmo TSS (Búsqueda en tres pasos), un NTS (algoritmo nuevo de búsqueda en tres pasos) para calcular un vector de movimiento. Un vector 10 de movimiento puede tener un valor de vector de movimiento en las unidades de 1/2 píxeles o 1/4 píxeles en base a los píxeles interpolados. El módulo de estimación de movimiento puede predecir una unidad de predicción corriente cambiando el método de estimación de movimiento. Se puede usar varios métodos, tales como un método de salto, un método de fusión, y un método AMVP (predicción de vector de movimiento avanzada) como el método de 15 predicción de movimiento.
En las realizaciones de la invención descrita más adelante se describirá un método de construir una lista de vectores de movimiento dicho candidato al tiempo de realizar predicción inter usando el método AMVP. 20
El módulo de predicción intra puede construir una unidad de predicción en base a información de píxel de referencia contigua a un bloque corriente que es información de píxel en una imagen corriente. Cuando un bloque contiguo de la unidad de predicción corriente es un bloque sometido a la predicción inter y así los píxeles de referencia son píxeles sometidos a la 25 predicción inter, los píxeles de referencia incluidos en el bloque sometido a la predicción inter pueden ser usados en lugar de la información de píxel de referencia del bloque contiguo sometido a la predicción intra. Es decir, cuando un píxel de referencia no está disponible, la información de píxel de referencia no disponible puede ser sustituida por al menos un píxel de referencia de los píxeles de referencia disponibles. 30
Los modos de predicción de la predicción intra pueden tener modos de predicción direccional en los que la información de píxel de referencia se usa dependiendo de la dirección de predicción y modos de predicción unidireccional en los que no se usa información de direccionalidad para realizar la predicción. Un modo para predecir información luma puede ser 35 diferente de un modo para predecir información croma, y se puede usar información de modo de predicción intra obtenida prediciendo información luma o información de señal luma predicha para predecir la información croma.
Cuando el tamaño de la unidad de predicción y el tamaño de la unidad de transformación son 40 iguales entre sí al tiempo de realizar la predicción intra, la predicción intra se realiza en la unidad de predicción en base a píxeles presentes en el lado izquierdo de la unidad de predicción, un píxel presente en la esquina superior-izquierda, y píxeles presentes en el lado superior. Sin embargo, cuando el tamaño de la unidad de predicción y el tamaño de la unidad de transformación son diferentes uno de otro al tiempo de realizar la predicción intra, la 45 predicción intra puede ser realizada usando píxeles de referencia en base a la unidad de transformación. La predicción intra usando división NxN puede ser realizada solamente en la unidad de codificación mínima.
En el método de predicción intra, se puede construir un bloque predicho después de aplicar un 50 filtro MDIS (alisado intra dependiente de modo) a píxeles de referencia dependiendo de los modos de predicción. El tipo del filtro MDIS aplicado a los píxeles de referencia puede variar. Con el fin de realizar el método de predicción intra, un modo de predicción intra de una unidad de predicción corriente se puede predecir a partir del modo de predicción intra de una unidad
de predicción contigua a la unidad de predicción corriente. Al predecir el modo de predicción de la unidad de predicción corriente usando información de modo predicha a partir de la unidad de predicción contigua, la información que indica que los modos de predicción de la unidad de predicción corriente y la unidad de predicción contigua son iguales entre sí puede ser transmitida usando información de señalizador predeterminada cuando los modos de 5 predicción intra de la unidad de predicción corriente y la unidad de predicción contigua son iguales entre sí, y se puede realizar codificación por entropía para codificar información de modo de predicción del bloque de predicción corriente cuando los modos de predicción de la unidad de predicción corriente y la unidad de predicción contigua son diferentes uno de otro.
10
Un bloque residual incluyendo información residual que es una diferencia entre la unidad de predicción sometida a la predicción y el bloque original de la unidad de predicción se puede construir en base a la unidad de predicción creada por el módulo de predicción 110. El bloque residual construido puede ser introducido en el módulo de transformación 115. El módulo de transformación 115 puede transformar el bloque residual incluyendo la información residual 15 entre el bloque original y la unidad de predicción creada por el módulo de predicción 110 usando un método de transformación tal como una DCT (transformada de coseno discreta) o una DST (transformada de seno discreta). En base a la información de modo de predicción intra de la unidad de predicción usada para construir el bloque residual, se puede determinar si se aplicará la DCT o la DST para transformar el bloque residual. 20
El módulo de cuantificación 120 puede cuantificar los valores transformados al dominio de frecuencia por el módulo de transformación 115. Los coeficientes de cuantificación pueden variar dependiendo del bloque o el grado de importancia de un vídeo. Los valores calculados por el módulo de cuantificación 120 pueden ser suministrados al módulo de descuantificación 25 135 y el módulo de redisposición 125.
El módulo de redisposición 125 puede redisponer los coeficientes de los valores residuales cuantificados.
30
El módulo de redisposición 125 puede cambiar los coeficientes de cuantificación en forma de un bloque bidimensional a la forma de un vector unidimensional mediante la utilización de un método de exploración de coeficientes. Por ejemplo, el módulo de redisposición 125 puede explorar desde los coeficientes DC a los coeficientes en un dominio de alta frecuencia usando un método de exploración en zigzag y puede cambiar los coeficientes a la forma de un vector 35 unidimensional. Se puede usar un método de exploración vertical consistente en explorar los coeficientes en forma de un bloque bidimensional en la dirección de columna y un método de exploración horizontal consistente en explorar los coeficientes en forma de un bloque bidimensional en la dirección de fila en lugar del método de exploración en zigzag dependiendo del tamaño de la unidad de transformación y el modo de predicción intra. Es decir, se puede 40 determinar cuál del método de exploración en zigzag, el método de exploración vertical, y el método de exploración horizontal usar dependiendo del tamaño de la unidad de transformación y el modo de predicción intra.
El módulo de codificación por entropía 130 puede realizar codificación por entropía en base a 45 los valores calculados por el módulo de redisposición 125. La codificación por entropía puede ser realizada usando varios métodos de codificación tales como Golomb exponencial, VLC (codificación de longitud variable), y CABAC (codificación binaria aritmética adaptable al contexto).
50
El módulo de codificación por entropía 130 puede codificar diversa información tal como información de coeficiente residual e información de tipo de bloque de la unidad de codificación, información de modo de predicción, información de unidad de división, información de unidad de predicción, información de unidad de transferencia, información de vector de
movimiento, información de cuadro de referencia, información de interpolación de bloque, e información de filtración transmitida desde el módulo de predicción 110.
El módulo de codificación por entropía 130 puede codificar por entropía los valores de coeficiente de la unidad de codificación introducidos desde el módulo de redisposición 125. 5
El módulo de descuantificación 135 puede descuantificar los valores cuantificados por el módulo de cuantificación 120 y el módulo de transformación inversa 140 puede transformar inversamente los valores transformados por el módulo de transformación 115. El bloque residual construido por el módulo de descuantificación 135 y el módulo de transformación 10 inversa 140 se combinan con la unidad de predicción predicha por el módulo de estimación de movimiento, el módulo de compensación de movimiento, y el módulo de predicción intra del módulo de predicción 110 para construir un bloque reconstruido.
El módulo filtro 145 puede incluir al menos uno de un filtro de desbloqueo, un módulo de 15 corrección de desviación, y un ALF (filtro de bucle adaptativo).
El filtro de desbloqueo 145 puede quitar la distorsión de bloque generada en el límite entre bloques en la imagen reconstruida. Para determinar si realizar desbloqueo, se puede determinar en base a píxeles incluidos en varias columnas o filas incluidas en el bloque si 20 aplicar el filtro de desbloqueo al bloque corriente. Cuando se aplica el filtro de desbloqueo al bloque, se puede aplicar un filtro fuerte o un filtro débil dependiendo de la necesaria intensidad de filtración de desbloqueo. Cuando se realizan filtración vertical y filtración horizontal al aplicar el filtro de desbloqueo, la filtración horizontal y la filtración vertical se pueden llevar a cabo en paralelo. 25
El módulo de corrección de desviación puede corregir una desviación de la imagen sometida al desbloqueo de la imagen original por los píxeles. Se puede usar un método de dividir píxeles incluidos en una imagen en un número predeterminado de zonas, determinar una zona a someter a la desviación, y aplicar la desviación a la zona determinada o un método de aplicar 30 la desviación en consideración de la información de borde de los píxeles para realizar la corrección de desviación en una imagen específica.
El ALF (filtro de bucle adaptativo) puede realizar una operación de filtración en base a valores como el resultado de comparación de la imagen reconstruida filtrada y la imagen original. Los 35 píxeles incluidos en la imagen se pueden dividir en grupos predeterminados, se puede determinar los filtros a aplicar a los grupos, y la operación de filtración se puede realizar individualmente para cada grupo. Con respecto a la información sobre si aplicar el ALF, una señal luma puede ser transmitida por las unidades de codificación (CU), y el tamaño y los coeficientes del ALF a aplicar pueden variar dependiendo de los bloques. El ALF puede tener 40 varias formas, y el número de coeficientes incluidos en el filtro puede variar consiguientemente. La información (tal como información de coeficiente de filtro, información de encendido/apagado de ALF, e información de tipo de filtro) relevante para la filtración del ALF se puede incluir en un conjunto de parámetros predeterminado de un flujo de bits y luego se puede transmitir. 45
La memoria 150 puede almacenar el bloque o la imagen reconstruido calculado a través del módulo filtro 145. El bloque o la imagen reconstruido almacenado en la memoria puede ser suministrado al módulo de predicción 110 al tiempo de realizar la predicción inter.
50
La figura 2 es un diagrama de bloques que ilustra un descodificador vídeo según una realización de la invención.
Con referencia a la figura 2, un descodificador vídeo 200 puede incluir un módulo de descodificación por entropía 210, un módulo de redisposición 215, un módulo de descuantificación 220, un módulo de transformación inversa 225, un módulo de predicción 230, un módulo filtro 235, y una memoria 240.
5
Cuando se introduce un flujo de bits vídeo desde el codificador vídeo, el flujo de bits de entrada puede ser descodificado en el orden inverso al orden en el que la información vídeo es procesada por el codificador vídeo.
El módulo de codificación por entropía 210 puede realizar descodificación por entropía en el 10 orden inverso al orden en que el módulo de codificación por entropía del codificador vídeo realiza la codificación por entropía, y el residual sometido a la descodificación por entropía por el módulo de descodificación por entropía puede ser introducido en el módulo de redisposición 215.
15
El módulo de descodificación por entropía 210 puede descodificar información relevante para la predicción intra y la predicción inter realizadas por el codificador vídeo. Como se ha descrito anteriormente, cuando se aplica una limitación predeterminada a la predicción intra y la predicción inter realizadas por el codificador vídeo, la descodificación por entropía en base a la limitación puede ser realizada para adquirir la información relevante para la predicción intra y la 20 predicción inter en el bloque corriente.
El módulo de redisposición 215 puede redisponer el flujo de bits descodificado por entropía por el módulo de descodificación por entropía 210 en base al método de redisposición usado en el codificador vídeo. El módulo de redisposición puede reconstruir y redisponer los coeficientes 25 expresados en forma de un vector unidimensional a los coeficientes en forma de un bloque bidimensional. El módulo de redisposición puede realizar redisposición usando un método de adquirir información relevante para la exploración de coeficiente realizada en el codificador vídeo y explorar inversamente los coeficientes en base al orden de exploración realizado por el codificador vídeo. 30
El módulo de descuantificación 220 puede realizar descuantificación en base a los parámetros de cuantificación suministrados desde el codificador vídeo y los valores de coeficiente redispuestos del bloque.
35
El módulo de transformación inversa 225 puede realizar DCT inversa y DST inversa de la DCT y la DST realizadas por el módulo de transformación en el resultado de cuantificación realizado por el codificador vídeo. La transformación inversa puede ser realizada en base a la unidad de transferencia determinada por el codificador vídeo. El módulo de transformación del codificador vídeo puede realizar selectivamente la DCT y la DST dependiendo de múltiples elementos de 40 información tales como el método de predicción, el tamaño del bloque corriente, y la dirección de predicción, y el módulo de transformación inversa 225 del descodificador vídeo puede realizar la transformación inversa en base a información sobre la transformación realizada por el módulo de transformación del codificador vídeo.
45
La transformación puede ser realizada en base a la unidad de codificación en lugar de la unidad de transformación.
El módulo de predicción 230 puede construir un bloque predicho en base a información relevante para la construcción de bloque predicho suministrada desde el módulo de 50 descodificación por entropía 210 y el bloque previamente descodificado o la información de imagen suministrada desde la memoria 240.
Cuando el tamaño de la unidad de predicción y el tamaño de la unidad de transformación son iguales entre sí al tiempo de realizar la predicción intra al igual que la operación del codificador vídeo como se ha descrito anteriormente, la predicción intra se realiza en la unidad de predicción en base a píxeles situados en el lado izquierdo de la unidad de predicción, un píxel situado en la esquina superior-izquierda, y píxeles situados en el lado superior. Sin embargo, 5 cuando el tamaño de la unidad de predicción y el tamaño de la unidad de transformación son diferentes uno de otro al tiempo de realizar la predicción intra, la predicción intra puede ser realizada usando los píxeles de referencia en base a la unidad de transformación. La predicción intra usando división NxN puede ser usada para la unidad de codificación más pequeña. 10
El módulo de predicción 230 puede incluir un módulo de determinación de unidad de predicción, un módulo de predicción inter, y un módulo de predicción intra. El módulo de determinación de unidad de predicción recibe diversa información, tal como información de unidad de predicción, información de modo de predicción del método de predicción intra, e 15 información relevante para la estimación del movimiento del método de predicción inter del módulo de descodificación por entropía, divide la unidad de predicción en la unidad de codificación predicción inter método, y determina si la predicción inter o la predicción intra serán realizadas en la unidad de predicción. El módulo de predicción inter puede realizar la predicción inter en la unidad de predicción corriente en base a información incluida en al menos 20 una imagen de una imagen previa y una imagen posterior de la imagen corriente incluyendo la unidad de predicción corriente usando la información necesaria para la predicción inter de la unidad de predicción corriente suministrada desde el codificador vídeo.
Se puede determinar cuál del modo de salto, el modo de fusión, y el modo AMVP se usa como 25 el método de predicción de la unidad de predicción incluida en la unidad de codificación en base a la unidad de codificación con el fin de realizar la predicción inter.
En realizaciones de la invención, a continuación se describirá un método de construir una lista de vectores de movimiento dicho candidato al tiempo de realizar la predicción inter usando el 30 método AMVP.
El módulo de predicción intra puede construir un bloque predicho en base a información de píxel de una imagen corriente. Cuando la unidad de predicción es una unidad de predicción sometida a la predicción intra, la predicción intra puede ser realizada en base a la información 35 de modo de predicción intra de la unidad de predicción suministrada desde el codificador vídeo. El módulo de predicción intra puede incluir un filtro MDIS, un módulo de interpolación de píxel de referencia, y un filtro DC. El filtro MDIS sirve para realizar una operación de filtración en los píxeles de referencia del bloque corriente y puede determinar si aplicar un filtro dependiendo del modo de predicción de la unidad de predicción corriente. La filtración MDIS puede ser 40 realizada en los píxeles de referencia del bloque corriente usando el modo de predicción de la unidad de predicción suministrada desde el codificador vídeo y la información de filtro MDIS. Cuando el modo de predicción del bloque corriente es un modo a no someter a la filtración MDIS, el filtro MDIS puede no ser aplicado.
45
Cuando el modo de predicción de la unidad de predicción es un modo de predicción en el que la predicción intra se realiza en base a los valores de píxel obtenidos interpolando los píxeles de referencia, el módulo de interpolación de píxel de referencia puede interpolar los píxeles de referencia para crear píxeles de referencia de un píxel entero o menos. Cuando el modo de predicción de la unidad de predicción corriente es un modo de predicción en el que se 50 construye un bloque predicho sin interpolar los píxeles de referencia, los píxeles de referencia pueden no ser interpolados. El filtro DC puede construir un bloque predicho a través de la filtración cuando el modo de predicción del bloque corriente es un modo DC.
El bloque o la imagen reconstruido puede ser suministrado al módulo filtro 235. El módulo filtro 235 puede incluir un filtro de desbloqueo, un módulo de corrección de desviación, y un ALF.
El módulo filtro puede recibir información acerca de si aplicar el filtro de desbloqueo en el bloque o imagen correspondiente e información sobre cuál de un filtro fuerte y un filtro débil se 5 ha de aplicar cuando el filtro de desbloqueo es aplicado desde el codificador vídeo. El filtro de desbloqueo del descodificador vídeo puede recibir información de filtro de desbloqueo relevante suministrada desde el codificador vídeo y puede realizar la filtración de desbloqueo en el bloque correspondiente. De forma similar al codificador vídeo, la filtración de desbloqueo vertical y la filtración de desbloqueo horizontal se pueden realizar primero y al menos uno del 10 desbloqueo vertical y el desbloqueo horizontal se puede realizar en la parte de solapamiento. La filtración de desbloqueo vertical o la filtración de desbloqueo horizontal previa no realizada se puede realizar en la porción de solapamiento en la que la filtración de desbloqueo vertical y la filtración de desbloqueo horizontal se solapan. La filtración de desbloqueo paralelo se puede realizar a través de este proceso de filtración de desbloqueo. 15
El módulo de corrección de desviación puede realizar corrección de desviación en la imagen reconstruida en base al tipo de la corrección de desviación aplicado a la imagen al tiempo de codificar la imagen y la información de valor de desviación.
20
El ALF puede realizar una operación de filtración en base al resultado de comparación de la imagen reconstruida sometida a la filtración y la imagen original. El ALF puede ser aplicado a la unidad de codificación en base a información sobre si el ALF ha sido aplicado y la información de coeficiente ALF suministrada desde el codificador vídeo. La información ALF relevante puede ser suministrada junto con un conjunto de parámetros específico. 25
La memoria 240 puede almacenar la imagen o el bloque reconstruido para uso como una imagen o bloque de referencia, y puede suministrar la imagen reconstruida a un módulo de salida.
30
Como se ha descrito anteriormente, en las realizaciones de la invención, la unidad de codificación se usa como un término que representa una unidad de codificación por razones de conveniencia de la explicación, pero la unidad de codificación puede servir como una unidad de descodificación así como una unidad de codificación.
35
Un método de codificación vídeo y un método de descodificación vídeo a describir más tarde en las realizaciones de la invención puede ser realizado por las partes constituyentes del codificador vídeo y el descodificador vídeo descritos con referencia a las figuras 1 y 2. Las partes constituyentes se pueden construir como hardware o pueden incluir módulos de procesado por software que pueden ser realizados en un algoritmo. 40
El módulo de predicción inter puede realizar la predicción inter consistente en predecir valores de píxel de un bloque de predicción deseado usando información de los cuadros reconstruidos distintos de un cuadro corriente. Una imagen usada para la predicción se denomina una imagen de referencia (o un cuadro de referencia). La información de predicción inter usada 45 para predecir un bloque de predicción deseado puede incluir información de índice de imagen de referencia que indica qué imagen de referencia usar y la información de vector de movimiento que indica un vector entre un bloque de la imagen de referencia y el bloque de predicción deseado.
50
Una lista de imágenes de referencia puede estar construida por imágenes usadas para la predicción inter de un bloque de predicción deseado. En el caso de un corte B, se necesitan dos listas de imágenes de referencia para realizar la predicción. En las realizaciones siguientes de la invención, las dos listas de imágenes de referencia se pueden denominar una primera
lista de imágenes de referencia (lista 0) y una segunda lista de imágenes de referencia (lista 1). Un corte B cuya primera lista de imágenes de referencia (lista de referencia 0) y la segunda lista de imágenes de referencia (lista de referencia 1) son iguales se puede denominar un corte GPB.
5
La tabla 1 representa un elemento de sintaxis relevante para información de imagen de referencia incluida en una sintaxis de nivel superior. Un elemento de sintaxis usado en las realizaciones de la invención y una sintaxis de nivel superior (SPS) incluyendo el elemento de sintaxis son arbitrarios y los elementos de sintaxis pueden ser definidos de manera que sean diferentes con el mismo significado. La sintaxis de nivel superior incluyendo el elemento de 10 sintaxis puede estar incluida en otra sintaxis de nivel superior (por ejemplo, sintaxis o PPS en la que solamente se incluye por separado información de imagen de referencia). A continuación se describirá un caso específico en las realizaciones de la invención, pero la forma de expresión de los elementos de sintaxis y la estructura de sintaxis incluyendo los elementos de sintaxis se pueden diversificar y tales realizaciones se incluyen dentro del alcance de la 15 invención.
<Tabla 1>
20
Con referencia a la tabla 1, una sintaxis de nivel superior tal como un SPS (conjunto de parámetros de secuencia) puede incluir información asociada con una imagen de referencia usada para la predicción inter.
25
Aquí, max_num_ref_frames representa el número máximo de imágenes de referencia que pueden ser almacenadas en un DPB (memoria intermedia de imagen descodificada). Cuando el número de píxeles de referencia actualmente almacenado en el DPB es igual al número de imágenes de referencia establecido en max_num_ref_frames, el DPB no tiene espacio para almacenar una imagen de referencia adicional. Consiguientemente, cuando haya que 30 almacenar una imagen de referencia adicional, habrá que quitar del DPB una imagen de referencia de las imágenes de referencia almacenadas en el DPB.
Se puede consultar un elemento de sintaxis tal como adaptive_ref_pic_marking_mode_flag incluido en una cabecera de corte con el fin de determinar qué imagen de referencia deberá ser 35 quitada del DPB.
Aquí, adaptive_ref_pic_marking_mode_flag es información para determinar una imagen de referencia a quitar del DPB. Cuando adaptive_ref_pic_marking_mode_flag es 1, la información adicional sobre qué imagen de referencia quitar puede ser transmitida para quitar del DPB la 40 imagen de referencia especificada. Cuando adaptive_ref_pic_marking_mode_flag es 0, se puede quitar del DPB una imagen de referencia de las imágenes de referencia almacenadas en el DPB, por ejemplo, en el orden en el que las imágenes son descodificadas y almacenadas en el DPB usando una método de ventana móvil. Se puede usar el método siguiente como el método de quitar una imagen de referencia usando la ventana móvil. 45
(1) Primero, numShortTerm se define como el número total de cuadros de referencia marcados por “imagen de referencia de corto plazo” y numLongTerm se define como el número total de cuadros de referencia marcados por “imágenes de referencia de largo plazo”.
Cuando la suma del número de imágenes de referencia de corto plazo (numShortTerm) y el 5 número de imágenes de referencia de largo plazo (numLongTerm) es igual a Max(max_num_ref_frames, 1) y se cumple la condición de que el número de imágenes de referencia de corto plazo es mayor que 0, una imagen de referencia de corto plazo que tiene el valor más pequeño de FrameNumWrap es marcada con “no disponible como imagen de referencia”. 10
Es decir, en dicho método de ventana móvil se puede quitar la imagen de referencia primero descodificada de la imagen de referencia de corto plazo almacenada en el DPB.
Según una realización de la invención, cuando las imágenes son codificadas y descodificadas 15 con una estructura jerárquica de imágenes, se puede usar imágenes distintas de una imagen que tenga el nivel temporal más alto como imágenes de referencia. Cuando las imágenes incluyen un corte B, los valores predichos de un bloque incluido en el corte B se pueden crear usando al menos una lista de imágenes de referencia de la lista L0 y la lista L1. El número de imágenes de referencia que se incluyen en la lista L0 y la lista L1 y que pueden ser usadas 20 como las imágenes de referencia puede estar restringido debido a un problema en la anchura de banda de la memoria.
Cuando el número máximo de cuadros de referencia establecido en max_num_ref_frames que es un elemento de sintaxis que indica el número máximo de cuadros de referencia capaz de 25 ser almacenado en el DPB es suficientemente mayor, el número de imágenes de referencia almacenado en el DPB aumenta y por ello están disponibles la mayor parte de las imágenes de referencia para construir un bloque de predicción deseado. Sin embargo, cuando la resolución de un vídeo aumenta y la cantidad de memoria necesaria se incrementa, se limita max_num_ref_frames, se pueden quitar del DPB imágenes de referencia necesarias, las 30 imágenes a usar como las imágenes de referencia no se pueden almacenar, y así las imágenes de referencia pueden no ser usadas para la predicción inter. Cuando las imágenes de referencia no están almacenadas en el DPB, la exactitud de la predicción de un bloque predicho puede disminuir y la eficiencia de codificación se puede reducir debido a este problema. En el método de gestión de imagen de referencia según la realización de la 35 invención se describirá un método de establecimiento consistente en hacer que se haga referencia a una imagen de referencia por un bloque de predicción deseado disponible al tiempo de realizar la predicción inter reduciendo el número de casos donde las imágenes de referencia no están almacenadas en el DPB y no están disponibles.
40
Cuando una imagen de referencia óptima a usar como una imagen de referencia en la estructura jerárquica de imágenes no está almacenada en el DPB, otra imagen puede ser usada como una imagen de referencia, lo que puede disminuir la eficiencia de codificación. En las realizaciones siguientes de la invención, un caso donde una imagen de referencia óptima no está almacenada en el DPB se define como un caso donde una imagen de referencia no 45 está disponible por razones de conveniencia de la explicación, e incluye un caso donde la imagen de referencia óptima no está disponible y por ello se usa una imagen de referencia segunda-óptima para la predicción inter.
En las realizaciones siguientes de la invención, por razones de conveniencia de la explicación, 50 se supone que max_num_ref_frames que indica el número máximo de imágenes de referencia permisible en el DPB es 4, el número máximo de imágenes de referencia (num_ref_idx_l0_active_minus1) que se puede incluir en la lista L0 es 1, el número máximo de imágenes de referencia (num_ref_idx_l1_active_minus1) que se puede incluir en la lista L1 es
1, y num_ref_idx_lc_active_minus1 es 3. Es decir, el número máximo de imágenes de referencia permisible en el DPB es 4, el número máximo de imágenes de referencia que se puede incluir en la lista L0 es 2, el número máximo de imágenes de referencia que se puede incluir en la lista L1 es 2, y el número máximo de imágenes de referencia que se puede incluir en la lista LC es 4. 5
La lista LC es una lista de combinación e indica una lista de imágenes de referencia construida por combinación de la lista L1 y la lista L0. La lista LC es una lista que puede ser usada para realizar la predicción inter en un bloque de predicción deseado usando un método de predicción unidireccional. Ref_pic_list_combination_flag puede representar el uso de la lista LC 10 cuando ref_pic_list_combination_flag es 1, y puede representar el uso de GPB (B generalizado) cuando ref_pic_list_combination_flag es 0. El GPB representa una lista de imágenes en la que la lista L0 y la lista L1, que son listas de imágenes de referencia usadas para realizar la predicción, tienen la misma imagen, como se ha descrito anteriormente.
15
En las realizaciones de la invención se supone que la estructura de GOP (grupo de imágenes) es 8, pero el número de imágenes que constituyen el GOP puede variar, y tales realizaciones se incluyen dentro del alcance de la invención.
La figura 3 es un diagrama conceptual que ilustra una estructura jerárquica de imágenes según 20 una realización de la invención.
Con referencia a la figura 3, el POC (recuento de orden de imágenes) de imágenes incluidas en el GOP representa el orden de visualización de imágenes, y FrameNum representa el orden de codificación/descodificación de imágenes. En la estructura de codificación jerárquica, las 25 imágenes presentes en capas temporales distintas de la capa temporal en la que el POC que tiene el nivel temporal más alto es 1, 3, 5, 7, 9, 11, 13, y 15, pueden ser usadas como imágenes de referencia.
Según una realización de la invención, el orden de codificación/descodificación de imágenes en 30 la estructura jerárquica de imágenes se puede cambiar para reducir el número de imágenes de referencia no disponibles y para aumentar todo lo posible el número de imágenes de referencia disponibles.
La estructura jerárquica de imágenes puede ser definida en base a capas temporales de 35 imágenes.
Cuando una imagen arbitraria se refiere a una imagen específica, la imagen arbitraria puede estar incluida en una capa temporal más alta que la imagen específica referida.
40
En la figura 3, una capa temporal cero corresponde a POC(0), una primera capa temporal corresponde a POC(8) y POC(16), una segunda capa temporal corresponde a POC(4) y POC(12), una tercera capa temporal corresponde a POC(2), POC(6), POC(10), y POC(14), y una cuarta capa temporal corresponde a POC(1), POC(3), POC(5), POC(7), POC(9), POC(11), POC(13), y POC(15). 45
Según la realización de la invención, estableciendo nuevamente el orden de descodificación (FrameNum) de imágenes presentes en la cuarta capa temporal (POC(1), POC(3), POC(5), POC(7), POC(9), POC(11), POC(13), POC(15)) que es el nivel temporal más alto e imágenes de referencia que tienen los niveles temporales (POC(2), POC(6), POC(10), POC(14)) 50 presentes en la tercera capa temporal que es la segunda capa más alta, el número de imágenes de referencia disponibles se puede incrementar de manera que sea mayor que en la estructura jerárquica de imágenes existente.
Al cambiar el orden de descodificación (FrameNum), una imagen de la segunda capa temporal más alta en la estructura jerárquica de imágenes puede ser descodificada primero y luego las imágenes presentes en la capa temporal más alta que es previa o posterior a la segunda capa temporal más alta en la secuencia de POC puede ser descodificada secuencialmente. Es decir, descodificando las imágenes de la capa temporal más alta presentes alrededor de la imagen 5 de segunda capa temporal más alta descodificada antes que las imágenes presentes en la otra segunda capa temporal más alta y que tiene un POC mayor que el de la imagen de segunda capa temporal más alta descodificada, es posible cambiar el orden de descodificación de la estructura jerárquica de imágenes.
10
Con referencia a la figura 3, en la estructura jerárquica de imágenes incluyendo la capa temporal cero hasta la cuarta capa temporal, una imagen de las imágenes de la tercera capa temporal se descodifica primero y luego la imagen presente en la cuarta capa temporal previa o posterior a la imagen de la tercera capa temporal en la secuencia de POC puede ser descodificada antes que las otras imágenes de la tercera capa temporal. Por ejemplo, 15 cambiando el orden del paso de descodificar las imágenes de referencia presentes en la capa temporal más alta y el paso de descodificar las imágenes de referencia presentes en la segunda capa temporal más alta usando el método de descodificar la imagen de la tercera capa temporal de POC(2) y luego descodificar secuencialmente la imagen de POC(1) y la imagen de POC(3) de las imágenes de la cuarta capa temporal presentes alrededor de la 20 imagen de POC(2), es posible aumentar el número de casos donde las imágenes almacenadas en el DPB son imágenes de referencia disponibles.
La tabla 2 representa los POCs de las imágenes de referencia a usar en las listas L0, L1, y LC con respecto al POC de las imágenes ilustradas en la figura 3 y las imágenes almacenadas en 25 el DPB en base a la estructura jerárquica de imágenes. En el DPB, se puede quitar al menos una imagen de las imágenes de referencia almacenada en el DPB usando dicho método de ventana móvil.
30
<Tabla 2>
Con referencia a la tabla 2, cuando el número POC es de 0 a 16 y el número POC es de 11 a 5 15, las imágenes de referencia necesarias para la lista L0, las imágenes de referencia necesarias para la lista L1, y las imágenes de referencia necesarias para la lista LC están almacenadas en el DPB, y así todas las imágenes de referencia están disponibles al tiempo de realizar la predicción inter en las imágenes de los POCs.
10
Por ejemplo, en el caso de POC(1), la lista L0 puede incluir preferentemente POC(0) presente en el lado izquierdo de POC(1) y que tiene una capa temporal inferior a POC(1) y puede incluir POC(2) presente en el lado derecho de POC(1) y que tiene una capa temporal inferior a POC(1). La lista L1 puede incluir preferentemente POC(2) presente en el primer lado izquierdo de POC(1) y que tiene una capa temporal inferior a POC(1) y puede incluir POC(4) presente en 15 el segundo lado derecho de POC(1) y que tiene una capa temporal inferior a POC(1).
Dado que POC(0), POC(8), POC(2), y POC(4) se almacenan en el DPB, se incluyen todas las imágenes de referencia de POC(0), POC(2), y POC(4) para predecir POC(1) y así todas las imágenes de referencia para predecir POC(1) están disponibles. 20
En la figura 3, POC(12), POC(10), POC(9), y POC(11), las imágenes de referencia no están disponibles cuatro veces para predicción L0, las imágenes de referencia no están disponibles una vez para predicción L1, y las imágenes de referencia no están disponibles cuatro veces para predicción LC, pero el número de casos donde las imágenes de referencia no están disponibles se reduce mejorando la eficiencia de codificación/descodificación en comparación 5 con el método de asignar FrameNum usado en la estructura jerárquica de imágenes.
La figura 4 es un diagrama de flujo que ilustra un método de determinación de orden de descodificación en una estructura jerárquica de imágenes según una realización de la invención. 10
Con referencia a la figura 4, se descodifica una imagen de las imágenes de la segunda capa más alta (paso S400).
A continuación, se descodifican una imagen de capa más alta que tiene un POC justo más 15 pequeño que el POC de la imagen de segunda capa más alta y una imagen de capa más alta que tiene un POC justo mayor que el POC de la imagen de segunda capa más alta (paso S410).
Según una realización de la invención, una imagen de segunda capa más alta es descodificada 20 y almacenada en el DPB y luego se descodifica una imagen de capa más alta con referencia a la segunda capa más alta de las imágenes de referencia presentes en la capa más alta. Es decir, se descodifica una imagen de segunda capa más alta arbitraria, luego se descodifica una imagen de capa más alta con referencia a la imagen de segunda capa más alta arbitraria, y luego se descodifica una imagen de capa más alta que tiene un POC mayor que el de la 25 imagen de segunda capa más alta arbitraria.
Cuando la imagen de segunda capa más alta es POC(n), la imagen de capa más alta a descodificar a continuación puede ser POC(n-1) y POC(n+1).
30
Según otra realización de la invención, es posible mejorar la disponibilidad de imágenes de referencia aplicando el método de ventana móvil de forma diferente para las imágenes de referencia presentes en el DPB en la estructura jerárquica.
El nuevo método de ventana móvil se puede aplicar de la forma siguiente. 35
(1) En primer lugar, numShortTerm se define como el número total de cuadros de referencia marcados por “imagen de referencia de corto plazo”, y numLongTerm se define como el número total de cuadros de referencia marcados por “imagen de referencia de largo plazo”.
40
(2) Cuando la suma de numShortTerm y numLongTerm es Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0, una imagen de referencia de corto plazo que tiene el valor más pequeño de PicOrderCnt(entryShortTerm) se marca con “no disponible como imagen de referencia”.
45
Es decir, según la realización de la invención, es posible gestionar las imágenes de referencia almacenadas en el DPB usando el método de ventana móvil consistente en sacar del DPB una imagen que tiene el valor de POC más pequeño de las imágenes que pueden ser almacenadas en el DPB.
50
La figura 5 es un diagrama de flujo que ilustra el método de ventana móvil según la realización de la invención.
Con referencia a la figura 5, se calcula el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo (paso S500).
Para calcular el número total de imágenes de referencia almacenadas en el DPB, se calcula el número de cuadros de referencia marcados con la imagen de referencia de corto plazo, y se 5 calcula el número de cuadros de referencia marcados con la imagen de referencia de largo plazo.
En base a las imágenes almacenadas en el DPB, se determina si el número calculado es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0 (paso S510). 10
En el paso S510, dos detalles de determinación sobre (1) si el número total de imágenes del número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo almacenado en el DPB incluyendo las imágenes descodificadas es igual a Max(max_num_ref_frame, 1) y (2) si numShortTerm es mayor que 0 se pueden realizar en 15 procesos de determinación individuales o en un solo proceso de determinación.
Es posible determinar si quitar una imagen del DPB determinando si el número total de imágenes de referencia es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0 en base a las imágenes almacenadas en el DPB. Cuando el número total de imágenes de 20 referencia es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0, significa que el número de imágenes actualmente almacenadas en el DPB es igual o mayor que el número máximo permisible de imágenes de referencia. Cuando numShortTerm es mayor que 0, significa que al menos una imagen de referencia de corto plazo está presente.
25
Cuando el número total de imágenes de referencia es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0, se quita del DPB una imagen de referencia de corto plazo que tiene el valor más pequeño de PicOrderCnt(entryShortTerm), es decir, que tiene el valor más pequeño de POC, de las imágenes de referencia de corto plazo almacenadas en el DPB (paso S520). 30
Cuando el número total de imágenes de referencia no es igual a Max(max_num_ref_frame, 1) y numShortTerm no es mayor que 0 en base a las imágenes almacenadas en el DPB, no se quita ninguna imagen del DPB.
35
La tabla 3 muestra la disponibilidad de imágenes de referencia dependiendo del POC cuando se usa el nuevo método de ventana móvil según la realización de la invención.
<Tabla 3>
Con referencia a la tabla 3, en el caso de POC(6), el número de imágenes almacenadas en el DPB es cuatro (POC(0), POC(8), POC(4), y POC(2)). Cuando POC(6) es descodificado 5 adicionalmente, se quita POC(0) correspondiente al POC más pequeño del DPB, por lo que el DPB incluye POC(8), POC(4), POC(2), y POC(6).
Es decir, en la realización de la invención, cuando las imágenes de referencia almacenadas en el DPB incluyen cuadros del número correspondiente a max(max_num_ref_frame, 1), se quita 10 del DPB una imagen de referencia que tiene el valor más pequeño de POC de los POCs.
Con referencia a la tabla 3, en POC(1), POC(3), POC(9), y POC(11), dado que la lista L0 no está disponible cuatro veces y la lista L1 no está disponible cuatro veces, el número de casos donde las imágenes de referencia no están disponibles se reduce en comparación con un caso 15 donde se usa la estructura jerárquica de imágenes existente, usando dicho método de gestión de DPB.
Según otra realización de la invención, se puede usar conjuntamente el método descrito con referencia a las figuras 4 y 5. 20
Es decir, según la realización de la invención, el método de redisponer FrameNum en la estructura jerárquica de imágenes ilustrada en la figura 4 y el nuevo método de ventana móvil ilustrado en la figura 5 se pueden aplicar simultáneamente.
25
La figura 6 es un diagrama de flujo que ilustra un método de gestión de imagen de referencia según una realización de la invención.
El uso simultáneo del método ilustrado en la figura 4 y el método ilustrado en la figura 5 se describirá con referencia a la figura 6. 5
Se descodifica una imagen de las imágenes de la segunda capa más alta (paso S600).
Se determina si el número total de imágenes de referencia de las imágenes de referencia de corto plazo y las imágenes de referencia de largo plazo almacenadas en el DPB incluyendo las 10 imágenes descodificadas es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0 (paso S610).
En el paso de determinación del paso S610, dos detalles de determinación sobre (1) si el número total de imágenes del número de imágenes de referencia de corto plazo y el número de 15 imágenes de referencia de largo plazo almacenadas en el DPB incluyendo las imágenes descodificadas es igual a Max(max_num_ref_frame, 1) y (2) si numShortTerm es mayor que 0, se pueden realizar en procesos de determinación individuales o en un solo proceso de determinación.
20
Cuando el número total de imágenes de referencia almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0, se quita del DPB una imagen de referencia de corto plazo que tiene el valor más pequeño de PicOrderCnt(entryShortTerm), es decir, que tiene el valor más pequeño de POC, de las imágenes de referencia de corto plazo almacenadas en el DPB (paso S620). 25
Cuando el número de imágenes de referencia almacenadas en el DPB no es igual a Max(max_num_ref_frame, 1) o numShortTerm no es mayor que 0, no se quita ninguna imagen del DPB.
30
Se descodifica una imagen de capa superior que tiene un POC menor que la secuencia de POC de la imagen de segunda capa más alta y un POC mayor que la secuencia de POC de la imagen de segunda capa más alta (paso S630).
Dado que una imagen de capa más alta no está almacenada como una imagen de referencia, 35 el proceso de gestionar imágenes de referencia almacenadas en el DPB no se puede llevar a cabo.
La tabla 4 muestra la disponibilidad de imágenes de referencia almacenadas en el DPB y la disponibilidad de imágenes incluidas en la lista L0 y la lista L1 cuando el método ilustrado en la 40 figura 3 y el método expuesto en la tabla 3 se aplican conjuntamente.
<Tabla 4>
Con referencia a la tabla 4, en POC(9), dado que las imágenes de referencia no están 5 disponibles una vez para la predicción usando la lista L0 y las imágenes de referencia no están disponibles una vez para la predicción usando la lista LC, se reduce la no disponibilidad de imágenes de referencia en comparación con la estructura jerárquica de imágenes existente.
La figura 7 es un diagrama conceptual que ilustra un descodificador vídeo según una 10 realización de la invención.
Con referencia a la figura 7, un DPB del descodificador vídeo incluye un módulo de almacenamiento de imagen de referencia 700, un módulo de determinación de información de imagen de referencia 720, y un módulo de gestión de imagen de referencia 740. 15
Los elementos se pueden disponer independientemente por razones de conveniencia de la explicación, y se puede combinar al menos dos elementos en un solo elemento o se puede dividir un solo elemento en múltiples elementos para realizar las funciones. Las realizaciones en las que los elementos se combinan o dividen se incluyen dentro del alcance de la invención 20 sin apartarse del concepto de la invención.
Algunos elementos pueden no ser elementos esenciales usados para realizar funciones esenciales de la invención, pero pueden ser elementos selectivos usados simplemente para mejorar el rendimiento. La invención se puede llevar a cabo solamente con elementos 25 esenciales para realizar la invención, distintos de los elementos usados simplemente para
mejorar el rendimiento, y una estructura incluyendo solamente los elementos esenciales distintos de los elementos selectivos usados simplemente para mejorar el rendimiento también se incluye dentro del alcance de la invención.
Por ejemplo, en la realización siguiente de la invención, el módulo de almacenamiento de 5 imagen de referencia 700, el módulo de determinación de información de imagen 720, y el módulo de actualización de información de imagen de referencia 740 se describen como independientes, pero un módulo incluyendo al menos un elemento del módulo de almacenamiento de imagen de referencia 700, el módulo de determinación de información de imagen 720, y el módulo de actualización de información de imagen de referencia 740 puede 10 ser expresado por un término de DPB o memoria.
El módulo de almacenamiento de imagen de referencia 700 puede almacenar imágenes de referencia de corto plazo e imágenes de referencia de largo plazo. Las imágenes de referencia de corto plazo y las imágenes de referencia de largo plazo se pueden almacenar y quitar de 15 forma diferente del módulo de almacenamiento de imagen de referencia. Por ejemplo, las imágenes de referencia de corto plazo y las imágenes de referencia de largo plazo se pueden almacenar y gestionar de forma diferente en la memoria. Por ejemplo, las imágenes de referencia de corto plazo se pueden gestionar en forma FIFO (primero en entrar primero en salir) en la memoria. Considerando las imágenes de referencia de largo plazo, una imagen de 20 referencia no adecuada para abrirse en forma FIFO puede ser marcada y usada como una imagen de referencia de largo plazo.
El módulo de determinación de información de imagen 720 puede determinar información de imagen tal como POC y FrameNum en la estructura jerárquica de imágenes y puede incluir 25 información de imagen a consultar e información de imagen secuencial a descodificar.
El módulo de determinación de información de imagen 720 puede determinar la información de imagen y puede almacenar la información de imagen en el módulo de almacenamiento de imagen de referencia 700 con el fin de descodificar una imagen de imágenes de capa temporal 30 segunda más alta en base a la estructura jerárquica de imágenes y luego descodificar imágenes de capa temporal más alta previas y posteriores a la imagen de segunda capa temporal más alta en la secuencia de POC (recuento de orden de imágenes).
El módulo de actualización de información de imagen de referencia 740 también puede 35 descodificar la información de estructura jerárquica de imágenes, la información de estructura de GOP, y análogos y puede determinar la información de imagen a almacenar en el módulo de almacenamiento de imagen de referencia 700.
El módulo de actualización de información de imagen de referencia 740 puede determinar si el 40 número de imágenes calculado en base a las imágenes de referencia de corto plazo y las imágenes de referencia de largo plazo almacenadas en el DPB incluyendo las imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y si numShortTerm es mayor que 0. Cuando se determina como el resultado de la determinación que el número de imágenes almacenadas en el módulo de almacenamiento de imagen de 45 referencia 700 es igual a Max(max_num_ref_frame, 1) y numShortTerm es mayor que 0, la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el DPB se puede quitar del módulo de almacenamiento de imagen de referencia.
50
El método de codificación y descodificación vídeo descrito anteriormente puede ser realizado por los elementos del codificador vídeo y el descodificador vídeo descritos con referencia a las figuras 1 y 2.
Aunque la invención se ha descrito con referencia a las realizaciones, los expertos en la técnica pueden entender que la invención se puede modificar de varias formas sin apartarse del espíritu y alcance técnicos de la invención descrita en las reivindicaciones anexas.
5
Claims (18)
- REIVINDICACIONES1. Un método de descodificación vídeo incluyendo los pasos de:descodificar una imagen de las imágenes de capa temporal segunda más alta en una 5 estructura jerárquica de imágenes; ydescodificar una imagen de capa temporal más alta presente previa o posteriormente en el orden de los recuentos de orden de imágenes (POC) en base al POC de las imágenes de capa temporal segunda más alta. 10
- 2. El método de descodificación vídeo según la reivindicación 1, incluyendo además el paso de:determinar si el número de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de referencia de largo plazo almacenadas en un DPB incluyendo las 15 imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y si el número de imágenes de referencia de corto plazo es mayor que 0.
- 3. El método de descodificación vídeo según la reivindicación 2, incluyendo además el paso de: 20calcular el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo.
- 4. El método de descodificación vídeo según la reivindicación 2, incluyendo además el paso de: 25quitar del DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el DPB cuando el número de imágenes almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y el número de imágenes de referencia de corto plazo es mayor que 0. 30
- 5. El método de descodificación vídeo según la reivindicación 1, donde la estructura jerárquica de imágenes es una estructura jerárquica de imágenes GOP incluyendo cinco imágenes de capa temporal y ocho imágenes.35
- 6. El método de descodificación vídeo según la reivindicación 1, donde la imagen de segunda capa temporal más alta es una imagen presente en una tercera capa temporal y la imagen de capa temporal más alta es una imagen presente en una cuarta capa temporal.
- 7. Un método de descodificación vídeo incluyendo los pasos de: 40determinar si el número de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de referencia de largo plazo almacenadas en un DPB incluyendo imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1); y45determinar si el número de imágenes de referencia de corto plazo es mayor que 0.
- 8. El método de descodificación vídeo según la reivindicación 7, incluyendo además el paso de:calcular el número de imágenes de referencia de corto plazo y el número de imágenes de 50 referencia de largo plazo.
- 9. El método de descodificación vídeo según la reivindicación 7, incluyendo además el paso de:quitar del DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el DPB cuando el número de imágenes almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y el número de imágenes de referencia de corto plazo es mayor que 0.5
- 10. Un descodificador vídeo incluyendo:un módulo de determinación de información de imagen que descodifica una imagen de imágenes de capa temporal segunda más alta en una estructura jerárquica de imágenes y determina información de imagen con el fin de descodificar una imagen de capa temporal más 10 alta presente previa o posteriormente en el orden de recuentos de orden de imágenes (POC) en base al POC de las imágenes de capa temporal segunda más alta; yun módulo de almacenamiento de imagen de referencia que guarda la imagen de segunda capa temporal más alta descodificada en base a la información de imagen determinada por el 15 módulo de determinación de información de imagen.
- 11. El descodificador vídeo según la reivindicación 10, incluyendo además:un módulo de actualización de información de imagen de referencia que determina si el número 20 de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de referencia de largo plazo almacenadas en el módulo de almacenamiento de imagen de referencia incluyendo las imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y si el número de imágenes de referencia de corto plazo es mayor que 0. 25
- 12. El descodificador vídeo según la reivindicación 11, donde el módulo de actualización de información de imagen de referencia calcula el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo.30
- 13. El descodificador vídeo según la reivindicación 11, donde el módulo de actualización de información de imagen de referencia quita la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el módulo de almacenamiento de imagen de referencia del DPB cuando el número de imágenes almacenadas en el módulo de almacenamiento de imagen de referencia es igual a 35 Max(max_num_ref_frame, 1) y el número de imágenes de referencia de corto plazo es mayor que 0.
- 14. El descodificador vídeo según la reivindicación 10, donde la estructura jerárquica de imágenes es una estructura jerárquica de imágenes GOP incluyendo cinco imágenes de capa 40 temporal y ocho imágenes.
- 15. El descodificador vídeo según la reivindicación 10, donde la imagen de segunda capa temporal más alta es una imagen presente en una tercera capa temporal y la imagen de capa temporal más alta es una imagen presente en una cuarta capa temporal. 45
- 16. Un descodificador vídeo incluyendo:un módulo de actualización de información de imagen de referencia que determina si el número de imágenes calculado en base a imágenes de referencia de corto plazo e imágenes de 50 referencia de largo plazo almacenadas en un módulo de almacenamiento de imagen de referencia incluyendo imágenes de capa temporal segunda más alta descodificadas es igual a Max(max_num_ref_frame, 1) y determina si el número de imágenes de referencia de corto plazo es mayor que 0; yun módulo de almacenamiento de imagen de referencia que actualiza las imágenes de referencia en base a información creada por la unidad de actualización de información de imagen de referencia.
- 17. El descodificador vídeo según la reivindicación 16, donde el módulo de actualización de 5 información de imagen de referencia calcula el número de imágenes de referencia de corto plazo y el número de imágenes de referencia de largo plazo.
- 18. El descodificador vídeo según la reivindicación 16, donde el módulo de actualización de información de imagen de referencia actualiza la imagen de referencia con el fin de quitar del 10 DPB la imagen de referencia de corto plazo que tiene el POC más pequeño de las imágenes de referencia de corto plazo presentes en el DPB cuando el número de imágenes almacenadas en el DPB es igual a Max(max_num_ref_frame, 1) y el número de imágenes de referencia de corto plazo es mayor que 0.15
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161479369P | 2011-04-26 | 2011-04-26 | |
US61/479369 | 2011-04-26 | ||
PCT/KR2012/003094 WO2012148139A2 (ko) | 2011-04-26 | 2012-04-20 | 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치 |
Publications (3)
Publication Number | Publication Date |
---|---|
ES2489816A2 true ES2489816A2 (es) | 2014-09-02 |
ES2489816R1 ES2489816R1 (es) | 2014-12-09 |
ES2489816B2 ES2489816B2 (es) | 2015-10-08 |
Family
ID=47072877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201390089A Active ES2489816B2 (es) | 2011-04-26 | 2012-04-20 | Método para gestionar una lista de imágenes de referencia, y aparato que lo usa |
Country Status (8)
Country | Link |
---|---|
US (1) | US20140050270A1 (es) |
JP (4) | JP5918354B2 (es) |
KR (5) | KR101911012B1 (es) |
CN (1) | CN103621091A (es) |
DE (1) | DE112012001635T5 (es) |
ES (1) | ES2489816B2 (es) |
GB (2) | GB2548739B (es) |
WO (1) | WO2012148139A2 (es) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9948939B2 (en) * | 2012-12-07 | 2018-04-17 | Qualcomm Incorporated | Advanced residual prediction in scalable and multi-view video coding |
EP2946558B1 (en) * | 2013-01-15 | 2020-04-29 | Huawei Technologies Co., Ltd. | Method for decoding an hevc video bitstream |
CN105284115B (zh) * | 2013-04-05 | 2018-11-23 | 三星电子株式会社 | 用于对多层视频进行解码的方法和设备以及用于对多层视频进行编码的方法和设备 |
KR102222311B1 (ko) * | 2013-07-09 | 2021-03-04 | 한국전자통신연구원 | 영상의 복호화 방법 및 이를 이용하는 장치 |
US9510001B2 (en) | 2013-07-09 | 2016-11-29 | Electronics And Telecommunications Research Institute | Video decoding method and apparatus using the same |
CN105379277B (zh) | 2013-07-15 | 2019-12-17 | 株式会社Kt | 用于编码/解码可伸缩视频信号的方法和装置 |
CN105379276A (zh) * | 2013-07-15 | 2016-03-02 | 株式会社Kt | 可伸缩视频信号编码/解码方法和装置 |
WO2015009022A1 (ko) * | 2013-07-15 | 2015-01-22 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
US9807407B2 (en) * | 2013-12-02 | 2017-10-31 | Qualcomm Incorporated | Reference picture selection |
KR20150075041A (ko) | 2013-12-24 | 2015-07-02 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015102271A1 (ko) * | 2014-01-02 | 2015-07-09 | 한국전자통신연구원 | 영상의 복호화 방법 및 이를 이용하는 장치 |
KR102294092B1 (ko) | 2014-01-02 | 2021-08-27 | 한국전자통신연구원 | 영상의 복호화 방법 및 이를 이용하는 장치 |
KR20150110295A (ko) * | 2014-03-24 | 2015-10-02 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
US9756355B2 (en) * | 2014-06-20 | 2017-09-05 | Qualcomm Incorporated | Value ranges for syntax elements in video coding |
US20170359577A1 (en) * | 2014-10-07 | 2017-12-14 | Samsung Electronics Co., Ltd. | Method and device for encoding or decoding multi-layer image, using interlayer prediction |
CN107925769B (zh) * | 2015-09-08 | 2020-11-27 | 联发科技股份有限公司 | 管理已解码图像缓存器的方法及视频编码器或视频解码器 |
WO2017049518A1 (en) * | 2015-09-24 | 2017-03-30 | Intel Corporation | Techniques for video playback decoding surface prediction |
KR102476207B1 (ko) * | 2015-11-12 | 2022-12-08 | 삼성전자주식회사 | 반도체 장치의 동작 방법 및 반도체 시스템 |
US11595652B2 (en) | 2019-01-28 | 2023-02-28 | Op Solutions, Llc | Explicit signaling of extended long term reference picture retention |
CN106937168B (zh) * | 2015-12-30 | 2020-05-12 | 掌赢信息科技(上海)有限公司 | 一种利用长期参考帧的视频编码方法、电子设备及系统 |
CN106488227B (zh) * | 2016-10-12 | 2019-03-15 | 广东中星电子有限公司 | 一种视频参考帧管理方法和系统 |
KR20180057563A (ko) * | 2016-11-22 | 2018-05-30 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN110870307A (zh) * | 2017-07-06 | 2020-03-06 | 佳稳电子有限公司 | 同步影像的处理方法及其装置 |
JP6992351B2 (ja) | 2017-09-19 | 2022-01-13 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US11825117B2 (en) * | 2018-01-15 | 2023-11-21 | Samsung Electronics Co., Ltd. | Encoding method and apparatus therefor, and decoding method and apparatus therefor |
BR112021002832A2 (pt) * | 2018-08-17 | 2021-05-04 | Huawei Technologies Co., Ltd. | gerenciamento de imagem de referência em codificação de vídeo |
JP2022508244A (ja) * | 2018-11-27 | 2022-01-19 | オーピー ソリューションズ, エルエルシー | 明示的信号伝達および暗黙的信号伝達を用いた、使用不可参照フレームの適応ブロック更新 |
US11196988B2 (en) * | 2018-12-17 | 2021-12-07 | Apple Inc. | Reference picture management and list construction |
WO2020159994A1 (en) * | 2019-01-28 | 2020-08-06 | Op Solutions, Llc | Online and offline selection of extended long term reference picture retention |
CN114205615B (zh) * | 2021-12-03 | 2024-02-06 | 北京达佳互联信息技术有限公司 | 解码图像缓存区的管理方法和装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4405272B2 (ja) * | 2003-02-19 | 2010-01-27 | パナソニック株式会社 | 動画像復号化方法、動画像復号化装置及びプログラム |
US20060013318A1 (en) * | 2004-06-22 | 2006-01-19 | Jennifer Webb | Video error detection, recovery, and concealment |
US20060083298A1 (en) | 2004-10-14 | 2006-04-20 | Nokia Corporation | Reference picture management in video coding |
EP1949701A1 (en) * | 2005-10-11 | 2008-07-30 | Nokia Corporation | Efficient decoded picture buffer management for scalable video coding |
EP1806930A1 (en) * | 2006-01-10 | 2007-07-11 | Thomson Licensing | Method and apparatus for constructing reference picture lists for scalable video |
EP1827023A1 (en) * | 2006-02-27 | 2007-08-29 | THOMSON Licensing | Method and apparatus for packet loss detection and virtual packet generation at SVC decoders |
KR20070111968A (ko) * | 2006-05-19 | 2007-11-22 | 엘지전자 주식회사 | 비디오 신호의 디코딩 방법 및 장치 |
BRPI0718206B1 (pt) * | 2006-10-16 | 2020-10-27 | Nokia Technologies Oy | método para codificar uma pluralidade de visões de uma cena; método de codificação de uma sequência de bits de vídeo codificada e aparelho |
JP5023739B2 (ja) * | 2007-02-28 | 2012-09-12 | ソニー株式会社 | 画像情報符号化装置及び符号化方法 |
WO2008125900A1 (en) * | 2007-04-13 | 2008-10-23 | Nokia Corporation | A video coder |
US20080253467A1 (en) * | 2007-04-13 | 2008-10-16 | Nokia Corporation | System and method for using redundant pictures for inter-layer prediction in scalable video coding |
US8855199B2 (en) * | 2008-04-21 | 2014-10-07 | Nokia Corporation | Method and device for video coding and decoding |
US20090279614A1 (en) * | 2008-05-10 | 2009-11-12 | Samsung Electronics Co., Ltd. | Apparatus and method for managing reference frame buffer in layered video coding |
KR20090117863A (ko) * | 2008-05-10 | 2009-11-13 | 삼성전자주식회사 | 계층적 영상 부호화를 위한 참조 프레임 관리 장치 및 방법 |
JP2009296078A (ja) * | 2008-06-03 | 2009-12-17 | Victor Co Of Japan Ltd | 符号化データ再生装置、符号化データ再生方法、および符号化データ再生プログラム |
US8660174B2 (en) * | 2010-06-15 | 2014-02-25 | Mediatek Inc. | Apparatus and method of adaptive offset for video coding |
US20120230409A1 (en) * | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
-
2012
- 2012-04-20 GB GB1709457.4A patent/GB2548739B/en active Active
- 2012-04-20 DE DE112012001635.1T patent/DE112012001635T5/de active Pending
- 2012-04-20 KR KR1020187011343A patent/KR101911012B1/ko active IP Right Grant
- 2012-04-20 CN CN201280030271.0A patent/CN103621091A/zh active Pending
- 2012-04-20 KR KR1020157033454A patent/KR101759672B1/ko active IP Right Grant
- 2012-04-20 KR KR1020137030938A patent/KR101581100B1/ko active IP Right Grant
- 2012-04-20 KR KR1020177031629A patent/KR101852789B1/ko active IP Right Grant
- 2012-04-20 WO PCT/KR2012/003094 patent/WO2012148139A2/ko active Application Filing
- 2012-04-20 ES ES201390089A patent/ES2489816B2/es active Active
- 2012-04-20 JP JP2014508284A patent/JP5918354B2/ja active Active
- 2012-04-20 GB GB1319020.2A patent/GB2505344B/en active Active
- 2012-04-20 KR KR1020177019514A patent/KR101794199B1/ko active IP Right Grant
- 2012-04-20 US US14/114,012 patent/US20140050270A1/en not_active Abandoned
-
2016
- 2016-04-06 JP JP2016076447A patent/JP6276319B2/ja active Active
-
2018
- 2018-01-11 JP JP2018002659A patent/JP6568242B2/ja active Active
-
2019
- 2019-08-01 JP JP2019142126A patent/JP6867450B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
GB201319020D0 (en) | 2013-12-11 |
KR20170085612A (ko) | 2017-07-24 |
JP6276319B2 (ja) | 2018-02-07 |
KR20170125122A (ko) | 2017-11-13 |
JP2018057049A (ja) | 2018-04-05 |
KR101581100B1 (ko) | 2015-12-29 |
KR20150140849A (ko) | 2015-12-16 |
JP6568242B2 (ja) | 2019-08-28 |
GB2505344A (en) | 2014-02-26 |
KR101759672B1 (ko) | 2017-07-31 |
GB201709457D0 (en) | 2017-07-26 |
ES2489816B2 (es) | 2015-10-08 |
KR101911012B1 (ko) | 2018-12-19 |
JP2016146667A (ja) | 2016-08-12 |
JP2014519223A (ja) | 2014-08-07 |
GB2548739B (en) | 2018-01-10 |
WO2012148139A2 (ko) | 2012-11-01 |
JP5918354B2 (ja) | 2016-05-18 |
GB2505344B (en) | 2017-11-15 |
CN103621091A (zh) | 2014-03-05 |
KR101852789B1 (ko) | 2018-06-04 |
WO2012148139A3 (ko) | 2013-03-21 |
US20140050270A1 (en) | 2014-02-20 |
GB2548739A (en) | 2017-09-27 |
ES2489816R1 (es) | 2014-12-09 |
KR20180049130A (ko) | 2018-05-10 |
JP2019208268A (ja) | 2019-12-05 |
JP6867450B2 (ja) | 2021-04-28 |
DE112012001635T5 (de) | 2014-02-27 |
KR20140029459A (ko) | 2014-03-10 |
KR101794199B1 (ko) | 2017-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2489816B2 (es) | Método para gestionar una lista de imágenes de referencia, y aparato que lo usa | |
ES2800551B2 (es) | Método y aparato para tratar una señal de vídeo | |
ES2955938T3 (es) | Intrapredicción en codificación de vídeo | |
ES2786077B2 (es) | Metodo y aparato para procesar una senal de video | |
JP6334634B2 (ja) | 画面内予測方法及び画像復号化装置 | |
ES2744201T3 (es) | Dispositivo y procedimiento para la codificación escalable de información de vídeo | |
ES2705355B1 (es) | Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo | |
ES2793489T3 (es) | Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo | |
ES2972076T3 (es) | Procedimiento de codificación/decodificación de señales de imagen y dispositivo para lo mismo | |
ES2913828T3 (es) | Método de predicción inter y aparato correspondiente | |
JP6246919B2 (ja) | 深度イントラコーディングのためのウェッジレットパターン拡張 | |
ES2972074T3 (es) | Método de codificación/descodificación de señal de imagen, y dispositivo para el mismo | |
ES2955040T3 (es) | Método de codificación/descodificación de señales de imagen y dispositivo para el mismo | |
ES2703458A2 (es) | Metodo y aparato para procesar senales de video | |
KR20190118125A (ko) | 병렬 또는 분산 처리를 위한 화면 분할 정보를 제공하는 방법 및 이를 이용한 장치 | |
US20180359468A1 (en) | Image processing method on basis of inter prediction mode and apparatus therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2489816 Country of ref document: ES Kind code of ref document: B2 Effective date: 20151008 |