ES2936026T3 - Procedimiento para decodificar vídeo en consideración del orden de salto y división - Google Patents

Procedimiento para decodificar vídeo en consideración del orden de salto y división Download PDF

Info

Publication number
ES2936026T3
ES2936026T3 ES21183935T ES21183935T ES2936026T3 ES 2936026 T3 ES2936026 T3 ES 2936026T3 ES 21183935 T ES21183935 T ES 21183935T ES 21183935 T ES21183935 T ES 21183935T ES 2936026 T3 ES2936026 T3 ES 2936026T3
Authority
ES
Spain
Prior art keywords
unit
information
depth
coding
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21183935T
Other languages
English (en)
Inventor
Ii-Koo Kim
Jung-Hye Min
Hae-Kyung Jung
Sun-Il Lee
Min-Su Cheon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2936026T3 publication Critical patent/ES2936026T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un método para codificar un video incluye: determinar unidades de codificación que tienen una estructura de árbol que incluye unidades de codificación de profundidades codificadas y determinar modos de codificación para las unidades de codificación de las profundidades codificadas mediante la codificación basada en unidades de codificación según las profundidades, las unidades de codificación según las profundidades obtenido al dividir jerárquicamente la unidad de codificación máxima a medida que aumenta la profundidad; y emitir información que indica un orden de información dividida e información de modo de salto que se determina selectivamente para las unidades de codificación de acuerdo con las profundidades, e información sobre los modos de codificación para las unidades de codificación de las profundidades codificadas que incluyen la información dividida y la información del modo de salto que son dispuestos según el orden. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento para decodificar vídeo en consideración del orden de salto y división
Campo técnico
Aparatos y procedimientos consistentes con realizaciones ejemplares se refieren a codificar y decodificar un vídeo.
Antecedentes de la técnica
A medida que se desarrolla y suministra hardware para reproducir y almacenar contenido de vídeo de alta resolución o alta calidad, la necesidad de un códec de vídeo para codificar o decodificar efectivamente el contenido de vídeo de alta resolución o alta calidad está aumentando. En un códec de vídeo artístico relacionado, un vídeo se codifica de acuerdo con un procedimiento de codificación limitado basado en un macrobloque que tiene un tamaño predeterminado.
La solicitud de patente internacional WO2011/019250, teniendo fecha de prioridad el 14 de agosto de 2009 y fecha de publicación el 17 de febrero de 2011, desvela un procedimiento para codificar un vídeo, el procedimiento incluye dividir una imagen actual en al menos una unidad de codificación máxima; determinar una profundidad codificada para generar un resultado de codificación final de acuerdo con al menos una región dividida obtenida por medio de la división de una región de la unidad de codificación máxima de acuerdo con las profundidades, que codifica al menos una región dividida, en base a una profundidad que se profundiza en proporción al número de veces que se divide la región de la unidad de codificación máxima, y la salida de datos de imagen que constituyen el resultado de codificación final de acuerdo con al menos una región dividida, y la información de codificación sobre la profundidad codificada y modo de predicción, de acuerdo con al menos una unidad de codificación máxima.
La solicitud de patente europea EP2106146 describe un procedimiento y un aparato para codificar/decodificar información de vectores de movimiento, en el que una unidad de codificación se divide en una pluralidad de subunidades, se predicen los vectores de movimiento predictivo (PMV) de las subunidades, se determina si los PMV satisfacen una condición predeterminada y se generan datos codificados del vector de movimiento, que incluyen información que indica una omisión de los vectores de movimiento de las subunidades, si los PMV satisfacen la condición predeterminada.
La solicitud de patente internacional WO2009/051719 describe procedimientos y aparatos para la codificación y decodificación de vídeo de superbloques divididos geométricamente. Un aparato incluye un codificador para codificar datos de imagen para al menos una parte de una imagen. Los datos de imagen están formados por una partición geométrica que aplica particiones geométricas a las particiones de bloques de imágenes. Las particiones de bloques de imágenes se obtienen de al menos una de las particiones de arriba hacia abajo y de la unión de árbol de abajo hacia arriba.
Divulgación
Problema técnico
Las realizaciones ejemplares proporcionan la codificación y decodificación de un vídeo en consideración de un orden de omisión y división de una unidad de codificación de acuerdo con las características de una unidad de datos. Solución técnica
De acuerdo con la presente invención se proporciona un procedimiento como se establece en las reivindicación adjunta 1.
Otras características de la invención serán evidentes a partir de la descripción que sigue.
Efectos ventajosos
Las unidades de codificación que tienen la estructura de árbol se forman por medio de la determinación de las unidades de codificación que tienen una forma y un tamaño óptimos para cada unidad de codificación máxima, en base al tamaño de la unidad de codificación máxima y la profundidad máxima determinada en consideración de las características de la imagen actual. También, dado que la codificación se puede realizar en cada unidad de codificación máxima utilizando cualquiera de los diversos modos de predicción y transformaciones, se puede determinar un modo de codificación óptimo considerando las características de la unidad de codificación de varios tamaños de imagen.
El orden de la información del modo de omisión y la información dividida se determina en consideración de una unidad de datos, un modo de codificación o similares. También, el orden de la información del modo de omisión y la información dividida puede determinarse considerando un número total de bits de la información del modo de omisión y la información dividida, y una frecuencia de ocurrencia de un modo de omisión en la codificación y decodificación de datos de vídeo. Dado que se puede establecer el orden de la información del modo de omisión y la información dividida de las unidades de codificación según las profundidades, la eficiencia de transmisión de datos codificados puede mejorarse aún más.
Descripción de los dibujos
La FIG. 1 es un diagrama de bloques de un aparato que codifica un vídeo;
La FIG. 2 es un diagrama de bloques de un aparato que decodifica un vídeo;
La FIG. 3 es un diagrama para describir un concepto de codificación;
La FIG. 4 es un diagrama de bloques de un codificador de imágenes en base a una unidad de codifica La FIG. 5 es un diagrama de bloques de un decodificador de imágenes en base a una unidad de co La FIG. 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con las profundidades, y una unidad de predicción;
La FIG. 7 es un diagrama para describir una relación entre una unidad de codificación y unidades de transformación;
La FIG. 8 es un diagrama para describir información de codificación de unidades de codificación correspondientes a una profundidad codificada;
La FIG. 9 es un diagrama de unidades de codificación más profundas de acuerdo con las profundidades;
Las Figuras 10 a 12 son diagramas para describir una relación entre unidades de codificación, unidades de predicción y unidades de transformación;
La FIG. 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación, de acuerdo con la información del modo de codificación de la
Tabla 1;
La FIG. 14 es un diagrama de flujo que ilustra un procedimiento para decodificar un vídeo;
La FIG. 15 es un diagrama de flujo que ilustra un procedimiento para codificar un vídeo, de acuerdo con una realización ejemplar;
La FIG. 16 es un diagrama de bloques que ilustra un aparato para codificar un vídeo en consideración de un orden de omisión y división;
La FIG. 17 es un diagrama de bloques que ilustra un aparato para decodificar un vídeo en consideración de un orden de omisión y división;
La FIG. 18 ilustra unidades de codificación de acuerdo con profundidades codificadas en una unidad de codificación máxima;
Las Figuras 19 a 21 son diagramas de flujo que ilustran procedimientos de codificación y decodificación de información de omisión e información dividida;
La FIG. 22 es un diagrama de flujo que ilustra un procedimiento para decodificar un vídeo en consideración de un orden de omisión y división.
La FIG. 23 es un diagrama de flujo que ilustra un procedimiento para decodificar un vídeo en consideración de un orden de omisión y división.
Mejor modo
De acuerdo con un aspecto de una realización ejemplar, se proporciona un procedimiento de codificación de vídeo como se establece en la reivindicación 1 adjunta.
Una unidad de codificación se puede caracterizar por un tamaño máximo y una profundidad. La profundidad indica el número de veces que una unidad de codificación se divide jerárquicamente y, a medida que la profundidad se profundiza, Las unidades de codificación más profundas de acuerdo con las profundidades pueden dividirse de una unidad de codificación máxima a una unidad de codificación mínima. Una profundidad de la unidad de codificación máxima puede ser una profundidad más alta, y una profundidad de la unidad de codificación mínima puede ser una profundidad más baja. Dado que los tamaños de las unidades de codificación según las profundidades disminuyen a medida que la profundidad de la unidad de codificación máxima se profundiza, una unidad de codificación de una profundidad superior puede incluir una pluralidad de unidades de codificación de profundidades inferiores.
De acuerdo con un tamaño máximo de una unidad de codificación, los datos de imagen de una imagen actual se pueden dividir en unidades de codificación máximas, y cada una de las unidades de codificación máximas puede incluir unidades de codificación divididas de acuerdo con las profundidades. Como una unidad de codificación máxima se divide según las profundidades, los datos de imagen de un dominio espacial incluido en la unidad de codificación máxima se pueden clasificar jerárquicamente según las profundidades.
Una profundidad máxima y un tamaño máximo de una unidad de codificación, que limitan un número total de veces que una altura y un ancho de la unidad de codificación máxima se dividen jerárquicamente, pueden estar predeterminados.
El orden de la información dividida y la información del modo de omisión que se determina selectivamente para las unidades de codificación de acuerdo con las profundidades se puede determinar por al menos una de una secuencia de imágenes a la que pertenecen las unidades de codificación de acuerdo con las profundidades, un corte, un tipo de corte de acuerdo con una dirección de predicción y un parámetro de cuantificación de una unidad de datos.
El orden de la información dividida y la información del modo de omisión que se determina selectivamente para las unidades de codificación de acuerdo con las profundidades se puede determinar por las profundidades de las unidades de codificación en la unidad de codificación máxima.
El orden de la información dividida y la información del modo de omisión de las unidades de codificación de acuerdo con las profundidades se puede determinar de forma que, si una unidad de codificación es la unidad de codificación máxima, la información del modo de omisión precede a la información dividida, y si la unidad de codificación no es la unidad de codificación máxima, la información dividida precede a la información del modo de omisión.
La extracción puede incluir: si una unidad de codificación es la unidad de codificación máxima, de acuerdo con el orden de la información de división y la información de modo de salto, determinar si la unidad de codificación máxima se predice en un modo de salto de acuerdo con la información de modo de salto antes de determinar si la unidad de codificación máxima se divide de acuerdo con la información de división; si la unidad de codificación no es la unidad de codificación máxima, determinar si la unidad de codificación está dividida de acuerdo con la información de división antes de determinar si la unidad de codificación está prevista en un modo de salto de acuerdo con la información de modo de salto; y extraer la información sobre la profundidad codificada y el modo de codificación de la profundidad codificada y los datos de vídeo codificados de acuerdo con las unidades de codificación de la profundidad codificada.
En la extracción, si se extrae una pieza de información de división y omisión obtenida por medio de la combinación de la información de división y la información de modo de omisión para la unidad de codificación de acuerdo con las profundidades, las unidades de codificación de acuerdo con las profundidades se pueden predecir en un modo de omisión sin dividir, y si se extrae la información de división o la información de modo de omisión para las unidades de codificación de acuerdo con las profundidades, las unidades de codificación de acuerdo con las profundidades se pueden no dividir o no predecir en un modo de omisión.
Modo para la invención
Un aparato para codificar un vídeo, un aparato para decodificar un vídeo, y se explicará un procedimiento de codificación de un vídeo con referencia a las FIGS. 1 a 23. La codificación y decodificación de un vídeo en base a una unidad de datos espacialmente jerárquica de acuerdo con una o más se explicará con referencia a las FIGS. 1 a 15, y l0a codificación y decodificación de un vídeo en consideración de un orden de omisión y división de acuerdo con realizaciones ejemplares se explicará ahora con referencia a las FIGS. 16 a 23.
De aquí en adelante, una 'unidad de codificación' es una unidad de datos de codificación en la que los datos de imagen se codifican en un lado del codificador, por ejemplo, un aparato de codificación que incluye un procesador y un codificador, y una unidad de datos codificada en la que los datos de imagen codificados se decodifican en un lado del decodificador, por ejemplo, un aparato de decodificación que incluye un procesador y un decodificador.
De aquí en adelante, una 'imagen' puede denotar una imagen fija para un vídeo o una imagen en movimiento, es decir, el vídeo en sí.
Un aparato para codificar un vídeo, un aparato para decodificar un vídeo, se explicará un procedimiento para codificar un vídeo y un procedimiento para decodificar un vídeo con referencia a las FIGS 1 a 15.
La FIG. 1 es un diagrama de bloques de un aparato 100 que codifica un vídeo.
El aparato 100 incluye un divisor 110 de unidad de codificación máxima, una unidad 120 de entrada y una unidad 130 de visualización.
El divisor 110 de unidad de codificación máxima puede dividir una instantánea actual basándose en una unidad de codificación máxima para la instantánea actual de una imagen. Si la imagen actual es mayor que la unidad de codificación máxima, los datos de imagen de la imagen actual pueden dividirse en al menos una unidad de codificación máxima. La unidad de codificación máxima puede ser una unidad de datos que tenga un tamaño de 32x32, 64x64, 128x128, 256x256, etc., en la que una forma de la unidad de datos es un cuadrado que tiene un ancho y una longitud en cuadrados de 2. Los datos de imagen pueden emitirse al determinante 120 de unidad de codificación de acuerdo con la al menos una unidad de codificación máxima.
Una unidad de codificación se puede caracterizar por un tamaño máximo y una profundidad. La profundidad indica varias veces que la unidad de codificación se divide espacialmente de la unidad de codificación máxima, y a medida que la profundidad se profundiza o aumenta, las unidades de codificación más profundas de acuerdo con las profundidades pueden dividirse de la unidad de codificación máxima a una unidad de codificación mínima. Una profundidad de la unidad de codificación máxima es una profundidad más superior y una profundidad de la unidad de codificación mínima es una profundidad más inferior. Como el tamaño de una unidad de codificación correspondiente a cada profundidad disminuye a medida que se profundiza la unidad de codificación máxima, una unidad de codificación correspondiente a una profundidad superior puede incluir una pluralidad de unidades de codificación correspondientes a profundidades inferiores.
Como se ha descrito anteriormente, los datos de imagen de la imagen actual se dividen en las unidades de codificación máximas de acuerdo con un tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máximas puede incluir unidades de codificación más profundas que se dividen según las profundidades. Como una unidad de codificación máxima se divide de acuerdo con las profundidades, los datos de imagen de un dominio espacial incluido en la unidad de codificación máxima se pueden clasificar jerárquicamente de acuerdo con las profundidades.
Una profundidad máxima y un tamaño máximo de una unidad de codificación, que limitan el número total de veces que una altura y un ancho de la unidad de codificación máxima se dividen jerárquicamente pueden predeterminarse. El determinante 120 de unidad de codificación codifica al menos una región de división obtenida dividiendo una región de la unidad de codificación máxima de acuerdo con las profundidades, y determina una profundidad para emitir unos datos de imagen finalmente codificados de acuerdo con la al menos una región de división. En otras palabras, el determinante 120 de la unidad de codificación determina una profundidad codificada codificando los datos de imagen en las unidades de codificación más profundas de acuerdo con las profundidades, de acuerdo con la unidad de codificación máxima de la imagen actual, y seleccionando una profundidad que tenga el menor error de codificación. Por lo tanto, los datos de imagen codificados de la unidad de codificación correspondientes a la profundidad codificada determinada se emiten finalmente. También, las unidades de codificación correspondientes a la profundidad codificada pueden considerarse como unidades de codificación codificadas.
La profundidad codificada determinada y los datos de imagen codificados de acuerdo con la profundidad codificada determinada se emiten a la unidad 130 de salida.
Los datos de imagen en la unidad de codificación máxima se codifican basándose en las unidades de codificación más profundas que corresponden a al menos una profundidad igual o por debajo de la profundidad máxima, y los resultados de la codificación de los datos de imagen se comparan basándose en cada una de las unidades de codificación más profundas. Una profundidad que tiene el error de codificación mínimo puede seleccionarse después de comparar errores de codificación de las unidades de codificación más profundas. Al menos una profundidad codificada puede seleccionarse para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima se divide a medida que una unidad de codificación se divide jerárquicamente de acuerdo con las profundidades y a medida que el número de unidades de codificación aumenta. También, incluso si las unidades de codificación corresponden a la misma profundidad en una unidad de codificación máxima, cada una de las unidades de codificación correspondientes a la misma profundidad puede dividirse a una profundidad menor midiendo un error de codificación de los datos de imagen de cada unidad de codificación, por separado. Por consiguiente, incluso cuando los datos de imagen se incluyen en una unidad de codificación máxima, los datos de la imagen se dividen en regiones según las profundidades, los errores de codificación pueden diferir según las regiones en la unidad de codificación máxima y, por lo tanto, las profundidades codificadas pueden diferir según las regiones en los datos de imagen. Por lo tanto, se pueden determinar una o más profundidades codificadas en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima se pueden dividir de acuerdo con unidades de codificación de al menos una profundidad codificada.
Por consiguiente, el determinante 120 de la unidad de codificación puede determinar unidades de codificación que tienen una estructura de árbol incluida en la unidad de codificación máxima. Las 'unidades de codificación que tienen una estructura de árbol' incluyen unidades de codificación correspondientes a una profundidad determinada como la profundidad codificada, de entre todas las unidades de codificación más profundas incluidas en la unidad de codificación máxima. Una unidad de codificación de una profundidad codificada puede determinarse jerárquicamente de acuerdo con las profundidades en la misma región de la unidad de codificación máxima, y puede determinarse independientemente en diferentes regiones. De manera similar, una profundidad codificada en una región actual puede determinarse independientemente de una profundidad codificada en otra región.
Una profundidad máxima es un índice relacionado con el número de tiempos de división desde una unidad de codificación máxima a una unidad de codificación mínima. Una primera profundidad máxima puede denotar el número total de tiempos de división desde la unidad de codificación máxima a la unidad de codificación mínima. Una segunda profundidad máxima puede denotar el número total de niveles de profundidad desde la unidad de codificación máxima hasta la unidad de codificación mínima. Por ejemplo, cuando una profundidad de la unidad de codificación máxima es 0, una profundidad de una unidad de codificación, en el que la unidad de codificación máxima se divide una vez, puede establecerse en 1, y una profundidad de una unidad de codificación, en el que la unidad de codificación máxima se divide dos veces, puede establecerse en 2. En este punto, si la unidad de codificación mínima es una unidad de codificación en la que la unidad de codificación máxima se divide cuatro veces, Existen 5 niveles de profundidad de profundidades 0, 1, 2, 3 y 4 y, por lo tanto, la primera profundidad máxima puede establecerse en 4, y la segunda profundidad máxima puede establecerse en 5.
Puede realizarse codificación por predicción y transformación de acuerdo con la unidad de codificación máxima. La codificación de predicción y la transformación también se realizan en función de las unidades de codificación más profundas de acuerdo con una profundidad igual o menor que la profundidad máxima, según la unidad de codificación máxima. La transformación puede realizarse de acuerdo con el procedimiento de transformación ortogonal o transformación de enteros.
Dado que el número de unidades de codificación más profundas aumenta cada vez que la unidad de codificación máxima se divide según las profundidades, la codificación, incluida la codificación de predicción y la transformación, se realiza en todas las unidades de codificación más profundas generadas a medida que la profundidad se profundiza. Para conveniencia de la descripción, la codificación de predicción y la transformación se describirán ahora en función de una unidad de codificación de una profundidad actual, en una unidad de codificación máxima. El aparato 100 puede seleccionar de forma variable un tamaño o forma de una unidad de datos para codificar los datos de imagen. Para codificar los datos de la imagen, operaciones, como la codificación de predicción, transformación y codificación de entropía, se realizan, y en este momento, se puede usar la misma unidad de datos para todas las operaciones o se pueden usar diferentes unidades de datos para cada operación.
Por ejemplo, el aparato 100 puede seleccionar no solo una unidad de codificación para codificar los datos de imagen, pero también una unidad de datos diferente de la unidad de codificación para realizar la codificación de predicción en los datos de imagen en la unidad de codificación.
Para realizar la codificación de predicción en la unidad de codificación máxima, la codificación de predicción se puede realizar a base de una unidad de codificación correspondiente a una profundidad codificada, es decir, basada en una unidad de codificación que ya no se divide en unidades de codificación correspondientes a una profundidad menor. De aquí en adelante, la unidad de codificación que ya no está dividida y se convierte en una unidad base para la codificación de predicción ahora se denominará 'unidad de predicción'. Una partición obtenida dividiendo la unidad de predicción puede incluir una unidad de datos obtenida dividiendo al menos uno de una altura y un ancho de la unidad de predicción.
Por ejemplo, cuando una unidad de codificación de 2Nx2N (en la que N es un entero positivo) ya no se divide y se convierte en una unidad de predicción de 2Nx2N, y el tamaño de una partición puede ser 2Nx2N, 2NxN, Nx2N o NxN. Los ejemplos de un tipo de partición incluyen particiones simétricas que se obtienen dividiendo simétricamente una altura o ancho de la unidad de predicción, particiones obtenidas dividiendo asimétricamente la altura o el ancho de la unidad de predicción, como 1:n o n:1, particiones que se obtienen dividiendo geométricamente la unidad de predicción y particiones que tienen formas arbitrarias.
Un modo de predicción de la unidad de predicción puede ser al menos uno de un modo intra, un modo inter y un modo de omisión. Por ejemplo, el modo intra o el modo inter pueden realizarse en la partición de 2Nx2N, 2NxN, Nx2N o NxN. También, el modo de omisión solo se puede realizar en la partición de 2Nx2N. La codificación se realiza independientemente en una unidad de predicción en una unidad de codificación, seleccionando así un modo de predicción que tenga el menor error de codificación.
El aparato 100 también puede realizar la transformación en los datos de imagen en una unidad de codificación basada no solo en la unidad de codificación para codificar los datos de imagen, pero también se basa en una unidad de datos que es diferente de la unidad de codificación.
Para realizar la transformación en la unidad de codificación, la transformación se puede realizar a base de una unidad de datos que tiene un tamaño menor o igual que la unidad de codificación. Por ejemplo, la unidad de datos para la transformación puede incluir una unidad de datos para un modo intra y una unidad de datos para un modo inter.
Una unidad de datos utilizada como base de la transformación ahora se denominará 'unidad de transformación'. Una profundidad de transformación que indica el número de veces de división para alcanzar la unidad de transformación dividiendo la altura y anchura de la unidad de codificación puede establecerse también en la unidad de transformación. Por ejemplo, en una unidad de codificación actual de 2Nx2N, una profundidad de transformación puede ser 0 cuando el tamaño de una unidad de transformación también es 2Nx2N, puede ser 1 cuando cada una de las alturas y anchos de la unidad de codificación actual se divide en dos partes iguales, totalmente dividida en 41 unidades de transformación, y el tamaño de la unidad de transformación es, por tanto NxN, y puede ser 2 cuando cada uno de la altura y la anchura de la unidad de codificación de corriente es dividida en cuatro partes iguales, totalmente dividido en 42 unidades de transformación y el tamaño de la unidad de transformación es, por lo tanto, N/2xN/2. Por ejemplo, la unidad de transformación se puede establecer de acuerdo con una estructura de árbol jerárquica, en el que una unidad de transformación de una profundidad de transformación superior se divide en cuatro unidades de transformación de una profundidad de transformación inferior de acuerdo con las características jerárquicas de una profundidad de transformación.
De manera similar a la unidad de codificación, la unidad de transformación en la unidad de codificación puede dividirse recursivamente en regiones de menor tamaño, para que la unidad de transformación pueda determinarse independientemente en unidades de regiones. Por lo tanto, los datos residuales en la unidad de codificación pueden dividirse de acuerdo con la transformación que tiene la estructura de árbol de acuerdo con las profundidades de transformación.
La codificación de información según las unidades de codificación correspondientes a una profundidad codificada requiere no solo información sobre la profundidad codificada, pero también información relacionada con la codificación y transformación de predicción. Por consiguiente, el determinante 120 de la unidad de codificación no solo determina una profundidad codificada que tiene un error de codificación mínimo, pero también determina un tipo de partición en una unidad de predicción, un modo de predicción según las unidades de predicción y el tamaño de una unidad de transformación para la transformación.
Unidades de codificación de acuerdo con una estructura de árbol en una unidad de codificación máxima y un procedimiento para determinar una partición, se describirá en detalle más adelante con referencia a las FIGS. 3 a 12.
El determinante 120 de unidad de codificación puede medir un error de codificación de unidades de codificación más profundas de acuerdo con las profundidades usando optimización de distorsión de tasa basándose en multiplicadores de Lagrange.
La unidad 130 de salida emite los datos de imagen de la unidad de codificación máxima, que se codifica en función de al menos una profundidad codificada determinada por el determinante 120 de la unidad de codificación, y la información sobre el modo de codificación de acuerdo con la profundidad codificada, en corrientes de bits.
Los datos de imagen codificados pueden obtenerse codificando datos residuales de una imagen.
La información sobre el modo de codificación según la profundidad codificada puede incluir información sobre la profundidad codificada, sobre el tipo de partición en la unidad de predicción, el modo de predicción y el tamaño de la unidad de transformación.
La información sobre la profundidad codificada puede definirse mediante el uso de información dividida de acuerdo con las profundidades, que indica si la codificación se realiza en unidades de codificación de menor profundidad en lugar de una profundidad actual. Si la profundidad actual de la unidad de codificación actual es la profundidad codificada, los datos de imagen en la unidad de codificación actual se codifican y emiten, y por lo tanto la información dividida puede definirse para no dividir la unidad de codificación actual a una profundidad menor. Como alternativa, si la profundidad actual de la unidad de codificación actual no es la profundidad codificada, la codificación se realiza en la unidad de codificación de la profundidad más baja y, por lo tanto, la información dividida puede definirse para dividir la unidad de codificación actual para obtener las unidades de codificación de la profundidad más baja.
Si la profundidad actual no es la profundidad codificada, la codificación se realiza en la unidad de codificación que se divide en la unidad de codificación de la profundidad más baja. Como al menos una unidad de codificación de la profundidad más baja existe en una unidad de codificación de la profundidad actual, la codificación se realiza repetidamente en cada unidad de codificación de menor profundidad y, por lo tanto, la codificación puede realizarse recursivamente para las unidades de codificación que tienen la misma profundidad.
Dado que las unidades de codificación que tienen una estructura de árbol se determinan para una unidad de codificación máxima, y la información sobre al menos un modo de codificación se determina para una unidad de codificación de una profundidad codificada, la información sobre al menos un modo de codificación puede determinarse para una unidad de codificación máxima. También, una profundidad codificada de los datos de la imagen de la unidad de codificación máxima puede ser diferente según las ubicaciones, ya que los datos de la imagen se dividen jerárquicamente según las profundidades y, por lo tanto, se puede establecer información sobre la profundidad codificada y el modo de codificación para los datos de la imagen.
Por consiguiente, la unidad 130 de salida puede asignar información de codificación sobre una profundidad codificada correspondiente y un modo de codificación al menos a una de las unidades de codificación, la unidad de predicción y una unidad mínima incluida en la unidad de codificación máxima.
La unidad mínima es una unidad de datos rectangular obtenida por medio de la división de la unidad de codificación mínima que constituye la profundidad más baja por 4. Como alternativa, la unidad mínima puede ser una unidad de datos rectangular máxima que se puede incluir en todas las unidades de codificación, unidades de predicción, unidades de partición y unidades de transformación incluidas en la unidad de codificación máxima.
Por ejemplo, la información de codificación emitida a través de la unidad 130 de salida puede clasificarse en información de codificación de acuerdo con unidades de codificación e información de codificación de acuerdo con unidades de predicción. La información de codificación de acuerdo con las unidades de codificación puede incluir la información acerca del modo de predicción y acerca del tamaño de las particiones. La información de codificación de acuerdo con las unidades de predicción puede incluir información sobre una dirección estimada de un modo inter, sobre un índice de imagen de referencia del modo inter, sobre un vector de movimiento, sobre un componente de croma de un modo intra y sobre un procedimiento de interpolación del modo intra. También, información sobre un tamaño máximo de la unidad de codificación definida de acuerdo con las imágenes, divisiones o GOP, y la información sobre una profundidad máxima se puede insertar en SPS (Conjunto de parámetros de secuencia) o en un encabezado de una corriente de bits.
En el aparato 100, la unidad de codificación más profunda puede ser una unidad de codificación obtenida dividiendo la altura o el ancho de una unidad de codificación de una profundidad superior por dos. En otras palabras, cuando el tamaño de la unidad de codificación de la profundidad actual es 2Nx2N, El tamaño de la unidad de codificación de la profundidad inferior es NxN. También, la unidad de codificación de la profundidad actual que tiene el tamaño de 2Nx2N puede incluir un máximo de 4 de la unidad de codificación de la profundidad más baja.
Por consiguiente, el aparato 100 puede formar las unidades de codificación que tienen la estructura de árbol determinando las unidades de codificación que tienen una forma y un tamaño óptimos para cada unidad de codificación máxima, basado en el tamaño de la unidad de codificación máxima y la profundidad máxima determinada considerando las características de la imagen actual. También, dado que la codificación se puede realizar en cada unidad de codificación máxima utilizando cualquiera de los diversos modos de predicción y transformaciones, se puede determinar un modo de codificación óptimo considerando las características de la unidad de codificación de varios tamaños de imagen.
Por lo tanto, si una imagen con alta resolución o gran cantidad de datos está codificada en un macrobloque convencional, un número de macrobloques por imagen aumenta excesivamente. Por consiguiente, aumenta una cantidad de información comprimida generada para cada macrobloque y, por lo tanto, es difícil transmitir la información comprimida y la eficiencia de compresión de datos disminuye. Sin embargo, utilizando el aparato 100, la eficiencia de compresión de la imagen puede incrementarse ya que una unidad de codificación se ajusta considerando las características de una imagen mientras se aumenta el tamaño máximo de una unidad de codificación mientras se considera el tamaño de la imagen.
La FIG. 2 es un diagrama de bloques de un aparato que decodifica un vídeo.
El aparato 200 incluye un receptor 210, un extractor 220 de datos de imagen e información de codificación, y un decodificador 230 de datos de imagen. Definiciones de varios términos, tales como una unidad de codificación, una profundidad, una unidad de predicción, una unidad de transformación e información sobre varios modos de codificación, para diversas operaciones del aparato 200 son idénticas a las descritas con referencia a la FIG. 1 y el aparato 100.
El receptor 210 recibe y analiza una secuencia de bits de un vídeo codificado. El extractor 220 de datos de imagen e información de codificación extrae datos de imagen codificados para cada unidad de codificación de la corriente de bits analizada, en el que las unidades de codificación tienen una estructura de árbol de acuerdo con cada unidad de codificación máxima, y envía los datos de imagen extraídos al decodificador 230 de datos de imagen. Los datos de imagen y el extractor de información de codificación 220 pueden extraer información sobre un tamaño máximo de una unidad de codificación de una imagen actual, desde un encabezado sobre la imagen actual o SPS.
También, el extractor 220 de datos de imagen e información de codificación extrae información sobre una profundidad codificada y un modo de codificación para las unidades de codificación que tienen una estructura de árbol de acuerdo con cada unidad de codificación máxima, de la corriente de bits analizada. La información extraída sobre la profundidad codificada y el modo de codificación se envía al descodificador de datos de imagen 230. En otras palabras, los datos de imagen en una corriente de bits se dividen en la unidad de codificación máxima de forma que el decodificador 230 de datos de imagen decodifica los datos de imagen para cada unidad de codificación máxima.
La información sobre la profundidad codificada y el modo de codificación de acuerdo con la unidad de codificación máxima se puede establecer para información sobre al menos una unidad de codificación correspondiente a la profundidad codificada, y la información sobre un modo de codificación puede incluir información sobre un tipo de partición de una codificación correspondiente unidad correspondiente a la profundidad codificada, sobre un modo de predicción y el tamaño de una unidad de transformación. También, la información dividida de acuerdo con las profundidades se puede extraer como la información sobre la profundidad codificada.
La información sobre la profundidad codificada y el modo de codificación de acuerdo con cada unidad de codificación máxima extraída por el extractor de datos de imagen y de información de codificación 220 es información sobre una profundidad codificada y un modo de codificación determinado para generar un error de codificación mínimo cuando un codificador, tal como el aparato 100, realiza repetidamente la codificación para cada unidad de codificación más profunda según las profundidades según cada unidad de codificación máxima. Por consiguiente, el aparato 200 puede restaurar una imagen decodificando los datos de la imagen de acuerdo con una profundidad codificada y un modo de codificación que genera el mínimo error de codificación.
Como la información de codificación sobre la profundidad codificada y el modo de codificación puede asignarse a una unidad de datos predeterminada entre una unidad de codificación correspondiente, una unidad de predicción y una unidad mínima, el extractor 220 de datos de imagen e información de codificación puede extraer la información sobre la profundidad codificada y el modo de codificación de acuerdo con las unidades de datos predeterminadas. Se puede inferir que las unidades de datos predeterminadas a las que se asigna la misma información sobre la profundidad codificada y el modo de codificación son las unidades de datos incluidas en la misma unidad de codificación máxima.
El decodificador 230 de datos de imagen restaura la instantánea actual decodificando los datos de imagen en cada unidad de codificación máxima basándose en la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima. En otras palabras, el decodificador 230 de datos de imagen puede decodificar los datos de imagen codificados a base de la información extraída sobre el tipo de partición, el modo de predicción y la unidad de transformación para cada unidad de codificación entre las unidades de codificación que tienen la estructura de árbol incluida en cada unidad de codificación máxima. Un procedimiento de decodificación puede incluir una predicción que incluye predicción intra y una transformación inversa. La transformación inversa puede realizarse de acuerdo con el procedimiento de transformación ortogonal inversa o transformación entera inversa.
El decodificador 230 de datos de imagen puede realizar predicción intra o compensación de movimiento de acuerdo con una partición y un modo de predicción de cada unidad de codificación, basado en la información sobre el tipo de partición y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con las profundidades codificadas.
También, el decodificador 230 de datos de imagen puede realizar una transformación inversa de acuerdo con cada unidad de transformación en la unidad de codificación, basado en la información sobre el tamaño de la unidad de transformación de la unidad de codificación según las profundidades codificadas, para realizar la transformación inversa de acuerdo con las unidades máximas de codificación.
El decodificador 230 de datos de imagen puede determinar al menos una profundidad codificada de una unidad de codificación máxima actual usando información dividida de acuerdo con las profundidades. Si la información dividida indica que los datos de la imagen ya no se dividen en la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el decodificador 230 de datos de imagen puede decodificar datos codificados de al menos una unidad de codificación correspondiente a cada profundidad codificada en la unidad de codificación máxima actual utilizando la información sobre el tipo de partición de la unidad de predicción, el modo de predicción y el tamaño de la unidad de transformación para cada unidad de codificación correspondiente a la profundidad codificada, y generan los datos de imagen de la unidad de codificación máxima actual.
En otras palabras, las unidades de datos que contienen la información de codificación que incluye la misma información dividida pueden reunirse observando el conjunto de información de codificación asignado para la unidad de datos predeterminada entre la unidad de codificación, la unidad de predicción, y la unidad mínima, y las unidades de datos reunidas pueden considerarse como una unidad de datos para decodificar por el decodificador 230 de datos de imagen en el mismo modo de codificación.
El aparato 200 puede obtener información sobre al menos una unidad de codificación que genera el error de codificación mínimo cuando la codificación se realiza recursivamente para cada unidad de codificación máxima, y puede usar la información para decodificar la imagen actual. En otras palabras, pueden descodificarse las unidades de codificación que tienen la estructura de árbol determinada como las unidades de codificación óptimas en cada unidad de codificación máxima. También, el tamaño máximo de la unidad de codificación se determina considerando la resolución y la cantidad de datos de imagen.
Por consiguiente, incluso si los datos de imagen tienen alta resolución y una gran cantidad de datos, los datos de la imagen pueden decodificarse y restaurarse eficientemente utilizando un tamaño de una unidad de codificación y un modo de codificación, que se determinan de forma adaptativa según las características de los datos de la imagen, mediante el uso de información sobre un modo de codificación óptimo recibido de un codificador.
Un procedimiento para determinar las unidades de codificación que tienen una estructura de árbol, una unidad de predicción, y una unidad de transformación, se describirán ahora con referencia a las FIGS. 3 a 13.
La FIG. 3 es un diagrama para describir un concepto de unidades de codificación.
Un tamaño de una unidad de codificación puede expresarse en anchura x altura, y puede ser 64x64, 32x32, 16x16, y 8x8. Una unidad de codificación de 64x64 puede dividirse en particiones de 64x64, 64x32, 32x64 o 32x32, y una unidad de codificación de 32x32 puede dividirse en particiones de 32x32, 32x16, 16x32 o 16x16, una unidad de codificación de 16x16 puede dividirse en particiones de 16x16, 16x8, 8x16 u 8x8, y una unidad de codificación de 8x8 puede dividirse en particiones de 8x8, 8x4, 4x8 o 4x4.
En los datos 310 de vídeo, una resolución es 1920x1080, el tamaño máximo de una unidad de codificación es 64 y la profundidad máxima es 2. En los datos 320 de vídeo, una resolución es 1920x1080, el tamaño máximo de una unidad de codificación es 64 y la profundidad máxima es 3. En los datos 330 de vídeo, una resolución es 352x288, el tamaño máximo de una unidad de codificación es 16 y la profundidad máxima es 1. La profundidad máxima mostrada en la Figura 3 indica un número total de divisiones desde una unidad de codificación máxima a una unidad de codificación mínima.
Si una resolución es alta o la cantidad de datos es grande, un tamaño máximo de una unidad de codificación puede ser grande para no solo aumentar la eficiencia de codificación sino también para reflejar con precisión las características de una imagen. Por consiguiente, el tamaño máximo de la unidad de codificación de los datos 310 y 320 de vídeo que tiene la resolución más alta que los datos 330 de vídeo puede ser 64.
Como la profundidad máxima de los datos 310 de vídeo es 2, las unidades 315 de codificación de los datos 310 de vídeo pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y unidades de codificación que tienen tamaños de eje largo de 32 y 16 ya que las profundidades se profundizan en dos capas dividiendo la unidad de codificación máxima dos veces. Al mismo tiempo, como la profundidad máxima de los datos 330 de vídeo es 1, las unidades 335 de codificación de los datos 330 de vídeo pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 16, y unidades de codificación que tienen un tamaño de eje largo de 8 ya que las profundidades se profundizan en una capa dividiendo la unidad de codificación máxima una vez.
Como la profundidad máxima de los datos 320 de vídeo es 3, las unidades 325 de codificación de los datos 320 de vídeo pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y unidades de codificación que tienen tamaños de eje largo de 32, 16 y 8 ya que las profundidades se profundizan en 3 capas dividiendo la unidad de codificación máxima tres veces. A medida que se profundiza, la información detallada puede expresarse con precisión.
La FIG. 4 es un diagrama de bloques de un codificador de imágenes 400 en base a una unidad de codificación. El codificador 400 de imagen realiza operaciones del determinante 120 de la unidad de codificación del aparato 100 para codificar datos de imagen. En otras palabras, un predictor 410 intra realiza predicción intra en unidades de codificación en un modo intra, entre un cuadro 405 actual, y un estimador 420 de movimiento y un compensador 425 de movimiento realiza una estimación inter y compensación de movimiento en unidades de codificación en un modo inter del cuadro 405 actual usando el cuadro 405 actual, y un cuadro 495 de referencia.
Datos emitidos desde el predictor 410 intra, el estimador 420 de movimiento, y el compensador 425 de movimiento se emiten como un coeficiente de transformación cuantificado a través de un transformador 430 y un cuantificador 440. El coeficiente de transformación cuantificado se restaura como datos en un dominio espacial a través de un cuantificador 460 inverso y un transformador 470 inverso, y los datos restaurados en el dominio espacial se emiten como el fotograma 495 de referencia después de post-procesarse a través de una unidad 480 de desbloqueo y una unidad 490 de filtración de bucle. El coeficiente de transformación cuantificado puede emitirse como una secuencia de bits 455 a través de un codificador 450 por entropía.
Para que el codificador 400 de imagen se aplique en el aparato 100, todos los elementos del codificador 400 de imagen, es decir, el intra 410 predictor, el estimador 420 de movimiento, el compensador 425 de movimiento, el transformador 430, el cuantificador 440, el codificador 450 de entropía, el cuantificador 460 inverso, el transformador 470 inverso, la unidad 480 de desbloqueo y la unidad 490 de filtrado de bucle realizan operaciones basadas en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol mientras se considera la profundidad máxima de cada unidad de codificación máxima.
Específicamente, el intra 410 predictor, el estimador 420 de movimiento, y el compensador 425 de movimiento determina particiones y un modo de predicción de cada unidad de codificación entre las unidades de codificación que tienen una estructura de árbol mientras se considera el tamaño máximo y la profundidad máxima de una unidad de codificación máxima actual, y el transformador 430 determina el tamaño de la unidad de transformación en cada unidad de codificación entre las unidades de codificación que tienen una estructura de árbol.
La FIG. 5 es un diagrama de bloques de un descodificador 500 de imágenes en base a una unidad de codificación. Un analizador 510 analiza datos de imagen codificados a decodificarse e información acerca de la codificación requerida para decodificación de una secuencia de bits 505. Los datos de imagen codificados se emiten como datos cuantificados inversos a través de un decodificador 520 por entropía y un cuantificador 530 inverso, y los datos cuantificados inversos se restauran a datos de imagen en un dominio espacial a través de un transformador 540 inverso.
Un intra 550 predictor realiza intra predicción en unidades de codificación en un intra modo con respecto a los datos de imagen en el dominio espacial, y un compensador 560 de movimiento realiza compensación de movimiento en unidades de codificación en un inter modo usando un fotograma 585 de referencia.
Los datos de la imagen en el dominio espacial, que pasó a través del predictor 550 intra y el compensador 560 de movimiento, puede salir como un cuadro 595 restaurado después de ser procesado posteriormente a través de una unidad 570 de desbloqueo y una unidad 580 de filtrado de bucle. También, los datos de imagen se procesan posteriormente pasando a través de una unidad 570 de desbloqueo y una unidad 580 de filtrado de bucle y se emiten como el cuadro 585 de referencia.
Para decodificar los datos de imagen en el decodificador 230 de datos de imagen del aparato 200, el decodificador 500 de imagen puede realizar operaciones que se realizan después del analizador 510.
Para que el decodificador 500 de imagen se aplique en el aparato 200, todos los elementos del decodificador 500 de imagen, es decir, el analizador 510, el decodificador 520 de entropía, el cuantificador 530 inverso, el transformador 540 inverso, el intra 550 predictor, el compensador 560 de movimiento, la unidad 570 de desbloqueo y la unidad 580 de filtrado de bucle realizan operaciones basadas en unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
Específicamente, el intra 550 predictor y el compensador 560 de movimiento realizan operaciones basadas en particiones y un modo de predicción para cada una de las unidades de codificación que tienen una estructura de árbol, y el transformador 540 inverso realiza operaciones basadas en el tamaño de una unidad de transformación para cada unidad de codificación.
La FIG. 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con profundidades y particiones.
El aparato 100 y el aparato 200 usan unidades de codificación jerárquica para considerar las características de una imagen. Una altura máxima, un ancho máximo y una profundidad máxima de unidades de codificación pueden determinarse de manera adaptativa de acuerdo con las características de la imagen, o pueden ser configurados de manera diferente por un usuario. Los tamaños de unidades de codificación más profundas de acuerdo con las profundidades pueden determinarse de acuerdo con el tamaño máximo predeterminado de la unidad de codificación. En una estructura 600 jerárquica de unidades de codificación, la altura máxima y el ancho máximo de las unidades de codificación son cada una de 64, y la profundidad máxima es de 4. Como una profundidad se profundiza a lo largo de un eje vertical de la estructura 600 jerárquica, una altura y un ancho de la unidad de codificación más profunda se dividen cada uno. También, una unidad de predicción y particiones, que son bases para la codificación de predicción de cada unidad de codificación más profunda, se muestran a lo largo de un eje horizontal de la estructura 600 jerárquica.
En otras palabras, una unidad 610 de codificación es una unidad de codificación máxima en la estructura 600 jerárquica, en la que una profundidad es 0 y un tamaño, es decir, una altura por ancho, 64x64. La profundidad se profundiza a lo largo del eje vertical, y una unidad 620 de codificación que tiene un tamaño de 32x32 y una profundidad de 1, una unidad 630 de codificación que tiene un tamaño de 16x16 y una profundidad de 2, existe una unidad 640 de codificación que tiene un tamaño de 8x8 y una profundidad de 3, y existe una unidad 650 de codificación que tiene un tamaño de 4x4 y una profundidad de 4. La unidad 650 de codificación que tiene el tamaño de 4x4 y la profundidad de 4 es una unidad de codificación mínima.
La unidad de predicción y las particiones de una unidad de codificación están dispuestas a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad 610 de codificación tiene un tamaño de 64x64 y la profundidad de 0 es una unidad de predicción, la unidad de predicción puede dividirse en particiones incluidas en la unidad 610 de codificación, es decir, una partición 610 que tiene un tamaño de 64x64, particiones 612 que tienen el tamaño de 64x32, particiones 614 que tienen el tamaño de 32x64, o particiones 616 que tienen el tamaño de 32x32. De manera similar, una unidad de predicción de la unidad 620 de codificación que tiene el tamaño de 32x32 y la profundidad de 1 puede dividirse en particiones incluidas en la unidad 620 de codificación, es decir, una partición 620 que tiene un tamaño de 32x32, particiones 622 que tienen un tamaño de 32x16, particiones 624 que tienen un tamaño de 16x32, y particiones 626 que tienen un tamaño de 16x16.
De manera similar, una unidad de predicción de la unidad 630 de codificación que tiene el tamaño de 16x16 y la profundidad de 2 puede dividirse en particiones incluidas en la unidad 630 de codificación, es decir, una partición que tiene un tamaño de 16x16 incluida en la unidad 630 de codificación, particiones 632 que tienen un tamaño de 16x8, particiones 634 que tienen un tamaño de 8x16, y particiones 636 que tienen un tamaño de 8x8.
De manera similar, una unidad de predicción de la unidad 640 de codificación que tiene el tamaño de 8x8 y la profundidad de 3 puede dividirse en particiones incluidas en la unidad 640 de codificación, es decir, una partición que tiene un tamaño de 8x8 incluida en la unidad 640 de codificación, particiones 642 que tienen un tamaño de 8x4, particiones 644 que tienen un tamaño de 4x8, y particiones 646 que tienen un tamaño de 4x4.
La unidad 650 de codificación que tiene el tamaño de 4x4 y la profundidad de 4 es la unidad de codificación mínima y una unidad de codificación de la profundidad más inferior. Una unidad de predicción de la unidad 650 de codificación solo se asigna a una partición que tiene un tamaño de 4x4, en lugar de dividirse en particiones 652 que tienen un tamaño de 4x2, particiones 654 que tienen un tamaño de 2x4, y particiones 656 que tienen un tamaño de 2x2.
Para determinar al menos una profundidad codificada de las unidades de codificación que constituyen la unidad 610 de codificación máxima, el determinante 120 de la unidad de codificación del aparato 100 realiza la codificación para unidades de codificación correspondientes a cada profundidad incluida en la unidad 610 de codificación máxima. Un número de unidades de codificación más profundas de acuerdo con las profundidades que incluyen datos en el mismo intervalo y el mismo tamaño aumenta a medida que se hace profunda la profundidad. Por ejemplo, Se requieren cuatro unidades de codificación correspondientes a una profundidad de 2 para cubrir los datos que se incluyen en una unidad de codificación correspondiente a una profundidad de 1. Por consiguiente, para comparar los resultados de codificación de los mismos datos según las profundidades, la unidad de codificación correspondiente a la profundidad de 1 y cuatro unidades de codificación correspondientes a la profundidad de 2 está codificada cada una.
Para realizar la codificación para una profundidad actual entre la profundidad, se puede seleccionar un error de codificación mínimo para la profundidad actual realizando la codificación para cada unidad de predicción en las unidades de codificación correspondientes a la profundidad actual, a lo largo del eje horizontal de la estructura 600 jerárquica. Como alternativa, el error de codificación mínimo puede buscarse comparando los errores de codificación mínimos según las profundidades, realizando codificación para cada profundidad a medida que la profundidad se profundiza a lo largo del eje vertical de la estructura 600 jerárquica. Una profundidad y una partición que tiene el error de codificación mínimo en la unidad 610 de codificación pueden seleccionarse como la profundidad codificada y un tipo de partición de la unidad 610 de codificación.
La FIG. 7 es un diagrama para describir una relación entre una unidad 710 de codificación y las unidades 720 de transformación.
El aparato 100 o 200 codifica o descodifica una imagen de acuerdo con unidades de codificación que tienen tamaños menores o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de las unidades de transformación para la transformación durante la codificación se pueden seleccionar en función de las unidades de datos que no son más grandes que la unidad de codificación correspondiente.
Por ejemplo, en el aparato 100 o 200, si un tamaño de la unidad 710 de codificación es 64x64, la transformación puede realizarse usando las unidades 720 de transformación que tienen un tamaño de 32x32.
También, los datos de la unidad 710 de codificación que tiene el tamaño de 64x64 pueden codificarse realizando la transformación en cada una de las unidades de transformación que tienen el tamaño de 32x32, 16x16, 8x8 y 4x4, que son más pequeños que 64x64, y luego se puede seleccionar una unidad de transformación que tenga el menor error de codificación.
La FIG. 8 es un diagrama para describir información de codificación de unidades de codificación correspondientes a una profundidad codificada.
La unidad 130 de salida del aparato 100 puede codificar y transmitir información 800 sobre un tipo de partición, la información 810 sobre un modo de predicción, y la información 820 sobre un tamaño de una unidad de transformación para cada unidad de codificación correspondiente a una profundidad codificada, como información sobre un modo de codificación.
La información 800 indica información sobre la forma de una partición obtenida dividiendo una unidad de predicción de una unidad de codificación actual, en la que la partición es una unidad de datos para la codificación de predicción de la unidad de codificación actual. Por ejemplo, una unidad de codificación actual CU_0 que tiene un tamaño de 2Nx2N puede dividirse en cualquiera de una partición 802 que tenga un tamaño de 2Nx2N, una partición 804 que tiene un tamaño de 2NxN, una partición 806 que tiene un tamaño de Nx2N, y una partición 808 que tiene un tamaño de NxN. En este punto, la información 800 sobre un tipo de partición se establece para indicar que una de las particiones 804 tiene un tamaño de 2NxN, la partición 806 tiene un tamaño de Nx2N y la partición 808 tiene un tamaño de NxN
La información 810 indica un modo de predicción de cada partición. Por ejemplo, la información 810 puede indicar un modo de codificación de predicción realizado en una partición indicada por la información 800, es decir, un modo 812 intra, un modo 814 inter o un modo 816 de omisión.
La información 820 indica una unidad de transformación para en la que basarse cuando se realiza transformación en una unidad de codificación actual. Por ejemplo, la unidad de transformación puede ser una primera unidad 822 intra transformación, una segunda unidad 824 intra transformación, una primera unidad 826 entre transformaciones, o una segunda unidad 828 entre transformaciones.
Los datos de imagen y el extractor 220 de información de codificación del aparato 200 pueden extraer y usar la información 800, 810 y 820 para decodificar.
La FIG. 9 es un diagrama de unidades de codificación más profundas de acuerdo con las profundidades.
La información dividida puede usarse para indicar un cambio de una profundidad. La información dividida indica si una unidad de codificación de una profundidad actual se divide en unidades de codificación de una profundidad inferior.
Una unidad 910 de predicción para la codificación de predicción de una unidad 900 de codificación que tiene una profundidad de 0 y un tamaño de 2N_0x2N_0 puede incluir particiones de un tipo 912 de partición que tiene un tamaño de 2N_0x2N_0, un tipo 914 de partición que tiene un tamaño de 2N_0xN_0, un tipo 916 de partición que tiene un tamaño de N_0x2N_0, y un tipo 918 de partición que tiene un tamaño de N_0xN_0. La FIG. 9 solo ilustra los tipos 912 a 918 de partición que se obtienen por medio de la división simétricamente la unidad 910 de predicción, pero un tipo de partición no está limitado al mismo, y las particiones de la unidad 910 de predicción pueden incluir particiones asimétricas, particiones que tienen una forma predeterminada, y particiones que tienen una forma geométrica.
La codificación de predicción se realiza repetidamente en una partición que tiene un tamaño de 2N_0x2N_0, dos particiones que tienen un tamaño de 2N_0xN_0, dos particiones con un tamaño de N_0x2N_0 y cuatro particiones con un tamaño de N_0xN_0, de acuerdo con cada tipo de partición. La codificación de predicción en un modo intra y un modo inter puede realizarse en las particiones que tienen los tamaños de 2N_0x2N_0, N_0x2N_0, 2N_0xN_0, y N_0xN_0. La codificación por predicción en un modo de omisión se realiza únicamente en la partición que tiene el tamaño de 2N_0x2N_0.
Se comparan los errores de codificación, incluida la codificación de predicción en los tipos 912 a 918 de partición, y se determina el menor error de codificación entre los tipos de partición. Si un error de codificación es más pequeño en uno de los tipos 912 a 916 de partición, la unidad 910 de predicción no puede dividirse en una profundidad inferior.
Si el error de codificación es el más pequeño en el tipo 918 de partición, se cambia una profundidad de 0 a 1 para dividir el tipo 918 de partición en la operación 920, y la codificación se realiza repetidamente en unidades 930 de codificación que tienen una profundidad de 2 y un tamaño de N_0xN_0 para buscar un error de codificación mínimo. Una unidad 940 de predicción para la codificación de predicción de la unidad 930 de codificación que tiene una profundidad de 1 y un tamaño de 2N_1x2N_1 (= N_0xN_0) puede incluir particiones de un tipo 942 de partición que tiene un tamaño de 2N_1x2N_1, un tipo 944 de partición que tiene un tamaño de 2N_1xN_1, un tipo 946 de partición que tiene un tamaño de N_1x2N_1, y un tipo 948 de partición que tiene un tamaño de N_1xN_1.
Si un error de codificación es el más pequeño en el tipo 948 de partición, se cambia una profundidad de 1 a 2 para dividir el tipo 948 de partición en la operación 950, y la codificación se realiza repetidamente en las unidades 960 de codificación, que tienen una profundidad de 2 y un tamaño de N_2xN_2 para buscar un error de codificación mínimo. Cuando una profundidad máxima es d, la operación de división de acuerdo con cada profundidad se puede realizar hasta cuando una profundidad se convierte en d-1, y la información dividida se puede codificar hasta cuando una profundidad es de 0 a d-2. En otras palabras, cuando la codificación se realiza hasta cuando la profundidad es d-1 después de que una unidad de codificación correspondiente a una profundidad de d-2 se divide en la operación 970, una unidad 990 de predicción para la predicción de codificación de una unidad 980 de codificación que tiene una profundidad de d-1 y un tamaño de 2N_ (d-1) x2N_ (d-1) puede incluir particiones de un tipo 992 de partición que tiene un tamaño de 2N_ (d-1) x2N_ (d-1), un tipo 994 de partición que tiene un tamaño de 2N_ (d-1) xN_ (d-1), un tipo 996 de partición que tiene un tamaño de N_ (d-1) x2N_ (d-1), y un tipo 998 de partición que tiene un tamaño de N_ (d-1) xN_ (d-1).
La codificación de predicción puede realizarse repetidamente en una partición que tenga un tamaño de 2N_ (d-1) x2N_ (d-1), dos particiones que tienen un tamaño de 2N_ (d-1) xN_ (d-1), dos particiones que tienen un tamaño de N_ (d-1) x2N_ (d-1), cuatro particiones que tienen un tamaño de N_ (d-1) xN_ (d-1) entre los tipos 992 a 998 de partición para buscar un tipo de partición que tenga un error de codificación mínimo.
Incluso cuando el tipo 998 de partición tiene el mínimo error de codificación, como una profundidad máxima es d, una unidad de codificación CU_ (d-1) que tiene una profundidad de d-1 ya no se divide en una profundidad inferior, y una profundidad codificada para las unidades de codificación que constituyen una unidad 900 de codificación máxima actual se determina que es d-1 y un tipo 900 de partición de la unidad de codificación puede determinarse como N_ (d-1) xN_ (d-1). También, como la profundidad máxima es d y una unidad 980 de codificación mínima que tiene una profundidad más baja de d-1 ya no se divide en una profundidad más baja, la información dividida para una unidad 980 de codificación no está configurada.
Una unidad 999 de datos puede ser una 'unidad mínima' para la unidad de codificación máxima actual. Una unidad mínima puede ser una unidad de datos rectangular obtenida por medio de la división de una unidad 980 mínima de codificación por 4. Al realizar la codificación repetidamente, el aparato 100 puede seleccionar una profundidad que tenga el menor error de codificación comparando los errores de codificación de acuerdo con las profundidades de la unidad 900 de codificación para determinar una profundidad codificada, y establecer un tipo de partición correspondiente y un modo de predicción como modo de codificación de la profundidad codificada.
En consecuencia, los errores de codificación mínimos según las profundidades se comparan en todas las profundidades de 1 a d, y una profundidad que tiene el menor error de codificación puede determinarse como una profundidad codificada. La profundidad codificada, el tipo de partición de la unidad de predicción y el modo de predicción pueden codificarse y transmitirse como información sobre un modo de codificación. También, como una unidad de codificación se divide de una profundidad de 0 a una profundidad codificada, solo la información dividida de la profundidad codificada se establece en 0, y la información dividida de las profundidades excluyendo la profundidad codificada se establece en 1.
El extractor 220 de datos de imagen y de información de codificación del aparato 200 puede extraer y usar la información sobre la profundidad codificada y la unidad de predicción de la unidad 900 de codificación para decodificar la partición 912. El aparato 200 puede determinar una profundidad, en el que la información dividida es 0, como profundidad codificada mediante el uso de información dividida de acuerdo con las profundidades, y utilice información sobre un modo de codificación de la profundidad correspondiente para la decodificación.
Las FIGS. 10 a 12 son diagramas para describir una relación entre las unidades 1010 de codificación, unidades 1060 de predicción y unidades 1070 de transformación.
Las unidades 1010 de codificación son unidades de codificación que tienen una estructura de árbol, correspondiente a profundidades codificadas determinadas por el aparato 100, en una unidad de codificación máxima. Las unidades 1060 de predicción son particiones de unidades de predicción de cada una de las unidades 1010 de codificación, y las unidades 1070 de transformación son unidades de transformación de cada una de las unidades 1010 de codificación.
Cuando la profundidad de una unidad de codificación máxima es 0 en las unidades 1010 de codificación, las profundidades de las unidades 1012 y 1054 de codificación son 1, las profundidades de las unidades 1014, 1016, 1018, 1028, 1050 y 1052 de codificación son 2, las profundidades de las unidades 1020, 1022, 1024, 1026, 1030, 1032 y 1048 de codificación son 3, y las profundidades de las unidades 1040, 1042, 1044 y 1046 de codificación son 4.
En las unidades 1060 de predicción, Algunas unidades 1014, 1016, 1022, 1032, 1048, 1050, 1052 y 1054 de codificación se dividen en particiones para la codificación de predicción. En otras palabras, Los tipos de partición en las unidades 1014, 1022, 1050 y 1054 de codificación tienen un tamaño de 2NxN, Los tipos de partición en las unidades 1016, 1048 y 1052 de codificación tienen un tamaño de Nx2N, y un tipo de partición de la unidad 1032 de codificación tiene un tamaño de NxN. Las unidades de predicción y particiones de las unidades 1010 de codificación son menores o iguales que cada unidad de codificación.
La transformación o transformación inversa se realiza en datos de imagen de la unidad 1052 de codificación en las unidades 1070 de transformación en una unidad de datos que es menor que la unidad 1052 de codificación. También, las unidades 1014, 1016, 1022, 1032, 1048, 1050 y 1052 de codificación en las unidades 1070 de transformación son diferentes de las de las unidades 1060 de predicción en términos de tamaños y formas. En otras palabras, los aparatos 100 y 200 pueden realizar predicciones intra, estimación de movimiento, compensación de movimiento, transformación y transformación inversa individualmente en una unidad de datos en la misma unidad de codificación.
Por consiguiente, la codificación se realiza recursivamente en cada una de las unidades de codificación que tienen una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y de este modo se pueden obtener unidades de codificación que tienen una estructura de árbol recursiva. La información de codificación puede incluir información dividida sobre una unidad de codificación, información sobre un tipo de partición, información sobre un modo de predicción e información sobre el tamaño de una unidad de transformación. La Tabla 1 muestra la información de codificación que pueden establecer los aparatos 100 y 200.
[Tabla 1]
Figure imgf000014_0001
La unidad 130 de salida del aparato 100 puede emitir la información de codificación sobre las unidades de codificación que tienen una estructura de árbol, y extractor 220 de datos de imagen e información de codificación del aparato 200 pueden extraer la información de codificación sobre las unidades de codificación que tienen una estructura de árbol de una corriente de bits recibido.
La información dividida indica si una unidad de codificación actual se divide en unidades de codificación de una profundidad inferior. Si la información dividida de una profundidad actual d es 0, una profundidad, en el que una unidad de codificación actual ya no se divide en una profundidad menor, es una profundidad codificada y, por lo tanto, información sobre un tipo de partición, modo de predicción, y el tamaño de una unidad de transformación puede definirse para la profundidad codificada. Si la unidad de codificación actual se divide más según la información dividida, la codificación se realiza independientemente en cuatro unidades de codificación divididas de menor profundidad.
Un modo de predicción puede ser uno de un modo intra, un modo inter y un modo de omisión. El intra modo y el inter modo pueden definirse en todos los tipos de partición, y el modo de omisión se define únicamente en un tipo de partición que tiene un tamaño de 2Nx2N.
La información sobre el tipo de partición puede indicar tipos de partición simétricos que tienen tamaños de 2Nx2N, 2NxN, Nx2N y NxN, que se obtienen dividiendo simétricamente una altura o un ancho de una unidad de predicción, y tipos de partición asimétricos que tienen tamaños de 2NxnU, 2NxnD, nLx2N y nRx2N, que se obtienen dividiendo asimétricamente la altura o el ancho de la unidad de predicción. Los tipos de particiones asimétricas que tienen los tamaños de 2NxnU y 2NxnD pueden obtenerse respectivamente dividiendo la altura de la unidad de predicción en 1:3 y 3:1, y los tipos de particiones asimétricas que tienen los tamaños de nLx2N y nRx2N pueden obtenerse respectivamente dividiendo el ancho de la unidad de predicción en 1:3 y 3:1
El tamaño de la unidad de transformación puede establecerse para que sea dos tipos en el intra modo y dos tipos en el inter modo. En otras palabras, si la información dividida de la unidad de transformación es 0, el tamaño de la unidad de transformación puede ser 2Nx2N, cuál es el tamaño de la unidad de codificación actual. Si la información dividida de la unidad de transformación es 1, las unidades de transformación se pueden obtener dividiendo la unidad de codificación actual. También, si un tipo de partición de la unidad de codificación actual que tiene el tamaño de 2Nx2N es un tipo de partición simétrica, el tamaño de una unidad de transformación puede ser NxN, y si el tipo de partición de la unidad de codificación actual es un tipo de partición asimétrica, El tamaño de la unidad de transformación puede ser N/2xN/2.
La información de codificación sobre unidades de codificación que tienen una estructura de árbol puede incluir al menos una de una unidad de codificación correspondiente a una profundidad codificada, una unidad de predicción y una unidad de mínimo. La unidad de codificación que corresponde a la profundidad codificada puede incluir al menos una de una unidad de predicción y una unidad mínima que contiene la misma información de codificación. Por consiguiente, se determina si las unidades de datos adyacentes se incluyen en la misma unidad de codificación correspondiente a la profundidad codificada comparando la información de codificación de las unidades de datos adyacentes. También, una unidad de codificación correspondiente a una profundidad codificada se determina utilizando información de codificación de una unidad de datos, y por lo tanto se puede determinar una distribución de profundidades codificadas en una unidad de codificación máxima.
Por consiguiente, si se predice una unidad de codificación actual en función de la información de codificación de las unidades de datos adyacentes, La información de codificación de unidades de datos en unidades de codificación más profundas adyacentes a la unidad de codificación actual puede ser directamente referida y utilizada.
Como alternativa, si se predice una unidad de codificación actual en función de la información de codificación de las unidades de datos adyacentes, las unidades de datos adyacentes a la unidad de codificación actual se buscan utilizando información codificada de las unidades de datos, y las unidades de codificación adyacentes buscadas se pueden referir para predecir la unidad de codificación actual.
La FIG. 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación, de acuerdo con la información del modo de codificación de la Tabla 1. Una unidad 1300 de codificación máxima incluye unidades 1302, 1304, 1306, 1312, 1314, 1316, y 1318 de codificación de profundidades codificadas. En este punto, dado que la unidad de codificación 1318 es una unidad de codificación de una profundidad codificada, la información dividida se puede establecer en 0. La información sobre un tipo de partición de la unidad 1318 de codificación que tiene un tamaño de 2Nx2N se puede configurar para que sea una de un tipo 1322 de partición que tenga un tamaño de 2Nx2N, un tipo 1324 de partición que tiene un tamaño de 2NxN, un tipo 1326 de partición que tiene un tamaño de Nx2N, un tipo 1328 de partición que tiene un tamaño de NxN, un tipo 1332 de partición que tiene un tamaño de 2NxnU, un tipo 1334 de partición que tiene un tamaño de 2NxnD, un tipo 1336 de partición que tiene un tamaño de nLx2N, y un tipo 1338 de partición que tiene un tamaño de nRx2N.
Cuando el tipo de partición está configurado para ser simétrico, es decir, el tipo 1322, 1324, 1326 o 1328 de partición, se establece una unidad 1342 de transformación que tiene un tamaño de 2Nx2N si la información dividida (indicador de tamaño de TU) de una unidad de transformación es 0, y una unidad 1344 de transformación que tiene un tamaño de NxN se establece si un indicador de tamaño de TU es 1.
Cuando el tipo de partición se configura como asimétrico, es decir, el tipo 1332, 1334, 1336 o 1338 de partición, se establece una unidad 1352 de transformación que tiene un tamaño de 2Nx2N si un indicador de tamaño de TU es 0, y una unidad 1354 de transformación que tiene un tamaño de N/2xN/2 se establece si un indicador de tamaño de TU es 1.
Con referencia a la FIG. 13, la bandera de tamaño TU es una bandera que tiene un valor o 0 o 1, pero el indicador de tamaño de TU no está limitado a 1 bit, y una unidad de transformación se puede dividir jerárquicamente con una estructura de árbol, mientras que el indicador de tamaño de TU aumenta de 0.
En este caso, el tamaño de una unidad de transformación que se ha utilizado realmente se puede expresar mediante el uso de un indicador de tamaño TU de una unidad de transformación, de acuerdo con una realización ejemplar, junto con un tamaño máximo y un tamaño mínimo de la unidad de transformación. De acuerdo con una realización ejemplar, el aparato 100 de codificación de vídeo es capaz de codificar información de tamaño de unidad de transformación máxima, información de tamaño mínimo de unidad de transformación y una marca de tamaño máximo de TU. El resultado de codificar la información del tamaño máximo de la unidad de transformación, la información sobre el tamaño mínimo de la unidad de transformación y el indicador de tamaño máximo de TU pueden insertarse en un SPS. De acuerdo con una realización ejemplar, el aparato de decodificación de vídeo 200 puede decodificar vídeo mediante el uso de la información de tamaño de unidad de transformación máxima, la información sobre el tamaño mínimo de la unidad de transformación y el indicador de tamaño máximo de TU.
Por ejemplo, si el tamaño de una unidad de codificación actual es 64x64 y el tamaño máximo de la unidad de transformación es 32x32, entonces el tamaño de una unidad de transformación puede ser 32x32 cuando un indicador de tamaño TU es 0, puede ser 16x16 cuando el indicador de tamaño de TU es 1, y puede ser 8x8 cuando el indicador de tamaño de TU es 2.
A modo de otro ejemplo, si el tamaño de la unidad de codificación actual es 32x32 y el tamaño mínimo de la unidad de transformación es 32x32, entonces el tamaño de la unidad de transformación puede ser 32x32 cuando el indicador de tamaño de TU es 0. En este punto, el indicador de tamaño de TU no se puede establecer en un valor distinto de 0, ya que el tamaño de la unidad de transformación no puede ser inferior a 32x32.
A modo de otro ejemplo, si el tamaño de la unidad de codificación actual es 64x64 y un indicador de tamaño máximo de TU es 1, entonces la bandera de tamaño de TU puede ser 0 o 1. En este punto, el indicador de tamaño de TU no se puede establecer en un valor que no sea 0 o 1.
De este modo, si se define que el indicador de tamaño máximo de TU es 'ÍndiceTamañoTransformadaMáx', un tamaño mínimo de unidad de transformación es 'TamañoTransformadaMín' y un tamaño de unidad de transformación es 'TamañoTuRaíz' cuando el indicador de tamaño de TU es 0, luego un tamaño de unidad de transformación mínima actual 'TamañoTuMínActual' que se puede determinar en una unidad de codificación actual, puede definirse por la ecuación (1):
TamañoTuMínActual = máx (TamañoTransformadaMín, TamañoTuRaíz/(2 A ÍndiceTamañoTransformadaMáx))
........... (1)
En comparación con el tamaño mínimo actual de la unidad de transformación 'TamañoTuMínActual' que se puede determinar en la unidad de codificación actual, un tamaño de unidad de transformación 'TamañoTuRaíz' cuando el indicador de tamaño de TU es 0 puede denotar un tamaño de unidad de transformación máximo que se puede seleccionar en el sistema. En la Ecuación (1), 'TamañoTuRaíz/(2 a ÍndiceTamañoTransformadaMáx)' denota un tamaño de unidad de transformación cuando el tamaño de la unidad de transformación 'TamañoTuRaíz', cuando la bandera de tamaño TU es 0, se divide varias veces correspondiente al indicador de tamaño máximo de TU, y 'TamañoTransformadaMín' indica un tamaño mínimo de transformación. Por lo tanto, un valor menor entre 'TamañoTuRaíz/(2 a ÍndiceTamañoTransformadaMáx)' y 'TamañoTransformadaMín' puede ser el tamaño mínimo actual de la unidad de transformación 'TamañoTuMínActual' que se puede determinar en la unidad de codificación actual.
De acuerdo con una realización ejemplar, el tamaño máximo de la unidad de transformación TamañoTuRaíz puede variar de acuerdo con el tipo de modo de predicción.
Por ejemplo, si un modo de predicción actual es un modo inter, entonces 'TamañoTuRaíz' se puede determinar mediante el uso de la Ecuación (2) a continuación. En la Ecuación (2), 'TamañoTransformadaMáx' denota un tamaño máximo de unidad de transformación, y 'TamañoPU' denota un tamaño de unidad de predicción actual.
TamañoTuRaíz = min (TamañoTransformadaMáx, TamañoPU)....... (2)
Es decir, si el modo de predicción actual es el modo inter, el tamaño de la unidad de transformación 'TamañoTuRaíz' cuando el indicador de tamaño de TU es 0, puede ser un valor menor entre el tamaño máximo de la unidad de transformación y el tamaño actual de la unidad de predicción.
Si un modo de predicción de una unidad de partición actual es un modo intra, 'TamañoTuRaíz' se puede determinar mediante el uso de la Ecuación (3) a continuación. En la Ecuación (3), 'TamañoPartición' denota el tamaño de la unidad de partición actual.
TamañoTuRaíz = min (TamañoTransformadaMáx, TamañoPU)....... (3)
Es decir, si el modo de predicción actual es el modo intra, el tamaño de la unidad de transformación 'TamañoTuRaíz' cuando el indicador de tamaño de TU es 0 puede ser un valor menor entre el tamaño máximo de la unidad de transformación y el tamaño de la unidad de partición actual.
Sin embargo, el tamaño máximo actual de la unidad de transformación 'TamañoTuRaíz' que varía de acuerdo con el tipo de modo de predicción en una unidad de partición es solo un ejemplo y no está limitado a ello.
La FIG. 14 es un diagrama de flujo que ilustra un procedimiento para decodificar un vídeo.
En la operación 1210, una imagen actual se divide en al menos una unidad de codificación máxima. Se puede predeterminar una profundidad máxima que indica el número total de tiempos de división posibles.
En la operación 1220, una profundidad codificada para generar un resultado de codificación final de acuerdo con al menos una región dividida, que se obtiene por medio de la división de una región de cada unidad de codificación máxima de acuerdo con las profundidades, se determina al codificar al menos una región dividida, y se determina una unidad de codificación de acuerdo con una estructura de árbol.
La unidad de codificación máxima se divide espacialmente cuando la profundidad se profundiza y, de este modo, se divide en unidades de codificación de menor profundidad. Cada unidad de codificación puede dividirse en unidades de codificación de otra profundidad inferior dividiéndose espacialmente independientemente de las unidades de codificación adyacentes. La codificación se realiza repetidamente en cada unidad de codificación según las profundidades.
También, se determina una unidad de transformación de acuerdo con los tipos de partición que tienen el menor error de codificación para cada unidad de codificación más profunda. Para determinar una profundidad codificada con un error de codificación mínimo en cada unidad de codificación máxima, Los errores de codificación pueden medirse y compararse en todas las unidades de codificación más profundas según las profundidades.
En la operación 1230, los datos de imagen codificada que constituyen el resultado final de codificación de acuerdo con la profundidad codificada se emiten para cada unidad de codificación máxima, con información de codificación sobre la profundidad codificada y un modo de codificación. La información sobre el modo de codificación puede incluir información sobre una profundidad codificada o información dividida, información sobre un tipo de partición de una unidad de predicción, un modo de predicción y el tamaño de una unidad de transformación. La información codificada sobre el modo de codificación puede transmitirse a un decodificador con los datos de imagen codificados. La FIG. 15 es un diagrama de flujo que ilustra un procedimiento para un vídeo codificado, de acuerdo con un procedimiento una realización ejemplar y/o codificado mediante el uso de un aparato.
En la operación 1310, se recibe y analiza una corriente de bits de un vídeo codificado.
En la operación 1320, los datos de imagen codificada de una imagen actual asignada a una unidad de codificación máxima, y la información sobre una profundidad codificada y un modo de codificación de acuerdo con las unidades de codificación máximas se extraen de la corriente de bits analizada. La profundidad codificada de cada unidad de codificación máxima es una profundidad que tiene el menor error de codificación para cada unidad de codificación máxima. Al codificar cada unidad de codificación máxima, los datos de imagen se codifican a base de al menos una unidad de datos obtenida dividiendo jerárquicamente cada unidad de codificación máxima de acuerdo con las profundidades.
De acuerdo con la información sobre la profundidad codificada y el modo de codificación, la unidad de codificación máxima se puede dividir en unidades de codificación que tienen una estructura de árbol. Cada unidad de codificación de las unidades de codificación que tiene la estructura de árbol se determina como una unidad de codificación correspondiente a una profundidad codificada, codificado de manera óptima para generar el menor error de codificación. Por consiguiente, la eficiencia de codificación y decodificación de una imagen puede mejorarse decodificando cada pieza de datos de imagen codificada en las unidades de codificación después de determinar al menos una profundidad codificada de acuerdo con las unidades de codificación.
En la operación 1330, los datos de imagen de cada unidad de codificación máxima se decodifican en función de la información sobre la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máximas. Los datos de imagen decodificados pueden ser reproducidos por un aparato de reproducción, almacenados en un medio de almacenamiento o transmitido a través de una red.
La codificación y decodificación de un vídeo en consideración de un orden de omisión y división de acuerdo con realizaciones ejemplares se explicará ahora con referencia a las FIGS. 16 a 23.
La FIG. 16 es un diagrama de bloques que ilustra un aparato 1400 para codificar un vídeo en consideración de un orden de omisión y división.
Con referencia a las FIG. 16, el aparato 1400 incluye un divisor de unidad 1410 de codificación máxima, un determinante 1420 del modo de codificación y unidad de codificación, y una unidad 1430 de salida.
El aparato 1400 de la FIG. 16 puede ser un ejemplo del aparato 100 de la FIG. 1, y un divisor 110 de unidad de codificación máxima, una unidad 120 de determinador de codificación, y una unidad 130 de salida en un aparato 100 de la FIG.. 1 puede corresponder al divisor de unidad de codificación máxima 1410, al determinador de unidad de codificación y modo de codificación 1420, y a la unidad de salida 1430 de la FIG. 16, respectivamente.
El divisor 1410 de unidad de codificación máxima divide una imagen de una imagen de entrada en unidades de codificación máximas que tienen tamaños predeterminados, y los datos de imagen de acuerdo con las unidades de codificación máximas se envían al determinante 1420 del modo de codificación y unidad de codificación.
El determinante 1420 del modo de codificación y unidad de codificación dividen jerárquicamente las regiones de cada una de las unidades de codificación máximas ingresadas desde el divisor 1410 de unidad de codificación máxima a medida que se profundiza la profundidad, y realiza la codificación individualmente en función de las unidades de codificación de acuerdo con las profundidades correspondientes a los números divididos para cada región independiente dividido jerárquicamente. El determinante 1420 del modo de codificación y unidad de codificación determinan un modo de codificación y una profundidad codificada para generar un resultado de codificación de acuerdo con cada región. El modo de codificación puede incluir información sobre un tipo de partición de una unidad de codificación correspondiente a la profundidad codificada, sobre un modo de predicción y sobre el tamaño de una unidad de transformación.
A fin de determinar un modo de codificación y una profundidad codificada para generar un resultado de codificación para cada región independiente de una unidad de codificación máxima, el determinante 1420 del modo de codificación y unidad de codificación pueden realizar la codificación en base a unidades de codificación de acuerdo con las profundidades, y pueden buscar una profundidad codificada que tenga el menor error de codificación en los datos de imagen originales y un modo de codificación relacionado con la profundidad codificada. Por consiguiente, el determinante 1420 del modo de codificación y unidad de codificación pueden determinar las unidades de codificación que tienen la estructura de árbol determinando las unidades de codificación correspondientes a profundidades codificadas para cada unidad de codificación máxima de la imagen actual
La información sobre la profundidad codificada y el modo de codificación determinado por el determinante 1420 del modo de codificación y unidad de codificación y un resultado de codificación correspondiente se envían a la unidad 1430 de salida.
La unidad 1430 de salida emite información sobre una profundidad codificada y un modo de codificación de acuerdo con una unidad de codificación máxima, y datos de vídeo codificados. Un modo de codificación incluye información del modo de omisión que indica si un modo de predicción de una unidad de codificación es un modo de omisión, e información dividida que indica si la unidad de codificación se divide a una profundidad inferior. Como el modo de predicción de una unidad de codificación puede determinarse en una unidad de codificación de una profundidad codificada que no se divide más, la información del modo de omisión puede codificarse en la unidad de codificación de la profundidad codificada.
La unidad 1430 de salida puede determinar selectivamente un orden en el que se emiten la información del modo de omisión y la información dividida de las unidades de codificación de acuerdo con las profundidades.
La unidad 1430 de salida puede emitir información que indica un orden determinado selectivamente en el que se emite información de modo de omisión e información dividida. Por consiguiente, la unidad 1430 de salida puede emitir información sobre un orden en el que se emite información de modo de omisión e información dividida, la información sobre un modo de codificación que incluye la información del modo de omisión y la información dividida que se organiza en el orden determinado selectivamente y los datos de vídeo codificados.
El orden de la información del modo de omisión y la información dividida que se determina selectivamente para cada unidad de codificación de acuerdo con las profundidades se puede determinar de acuerdo con al menos una secuencia de imagen a la que pertenece una unidad de codificación correspondiente a cada profundidad, un corte, un tipo de corte de acuerdo con una dirección de predicción y un parámetro de cuantificación (QP) de una unidad de datos.
También, el orden de la información del modo de omisión y la información dividida que se determina selectivamente para cada unidad de codificación de acuerdo con las profundidades se puede determinar individualmente de acuerdo con las profundidades de las unidades de codificación en una unidad de codificación máxima.
Por ejemplo, el orden de la información del modo de omisión y la información dividida se puede determinar de forma que la información del modo de omisión preceda a la información dividida para una unidad de codificación máxima, y la información dividida preceda a la información del modo de omisión para unidades de codificación de profundidades inferiores a la unidad de codificación máxima.
La unidad 1430 de salida puede llevar a cabo la codificación al combinar la información dividida y la información del modo de omisión como una pieza de información dividida y saltada. También, la unidad 1430 de salida puede asignar diferentes números de bit a la información dividida y omisión de acuerdo con la frecuencia de aparición de una combinación de la información dividida y la información del modo de omisión.
Por ejemplo, si tanto la información dividida que indica que una unidad de codificación correspondiente está dividida como la información del modo de omisión que indica que un modo de predicción de la unidad de codificación correspondiente no es un modo de omisión, se codifican, la información dividida y omisión puede asignarse a un bit. También, en casos distintos al caso en el que tanto la información dividida que indica que la unidad de codificación correspondiente está dividida como la información del modo de omisión que indica que el modo de predicción de la unidad de codificación correspondiente no es el modo de omisión, están codificadas, A la información dividida y omisión se le pueden asignar dos bits y salida.
La unidad 1430 de salida puede no codificar un coeficiente de transformación e información relacionada con la predicción, tal como una dirección de predicción y un vector de movimiento, para una unidad de codificación que se predice en un modo de omisión. Selectivamente, la unidad 1430 de salida puede codificar información del índice del predictor del vector de movimiento sobre una unidad de predicción adyacente a una unidad de codificación actual. También, la unidad 1430 de salida puede generar información sobre un tamaño máximo de las unidades de codificación.
La FIG. 17 es un diagrama de bloques que ilustra un aparato 1500 para decodificar un vídeo en consideración de un orden de omisión y división.
Con referencia a la FIG. 17, el aparato 1500 incluye un receptor 1510, un extractor 1520 de datos y un decodificador 1530. El aparato 1500 de la FIG. 17 puede ser un ejemplo del aparato 200 de la FIG. 2. El receptor 210, el extractor de datos de imagen e información de codificación 220, y el decodificador de datos de imagen 230 del aparato 200 de la FIG. 2 pueden corresponder al receptor 1510, al extractor de datos 1520 y al decodificador 1530 del aparato 1500 de la FIG. 17, respectivamente.
El receptor 1510 recibe y analiza una secuencia de bits de un vídeo codificado.
El extractor 1520 de datos recibe la corriente de bits analizada desde el receptor 1510, y extrae datos de vídeo codificados e información sobre una profundidad codificada y un modo de codificación para cada unidad de codificación máxima de la corriente de bits. También, el extractor 1520 de datos puede extraer información sobre un tamaño máximo de las unidades de codificación de la corriente de bits. El extractor 1520 de datos extractos, de la corriente de bits, información sobre un orden de información del modo de omisión y la información dividida de las unidades de codificación según las profundidades.
El extractor 1520 de datos puede leer la información del modo de omisión y la información dividida de la información sobre el modo de codificación basándose en la información extraída sobre el orden de la información del modo de omisión y la información dividida, y extraer los datos de vídeo codificados en unidades de codificación de acuerdo con profundidades en base a la información del modo de omisión y la información dividida.
El orden de la información del modo de omisión y la información dividida se puede establecer selectivamente de acuerdo con al menos una de una secuencia de imágenes a la que pertenece una unidad de codificación correspondiente a cada profundidad, un corte, un tipo de segmento de acuerdo con una dirección de predicción y un QP de una unidad de datos. También, el orden de la información del modo de omisión y la información dividida se puede establecer selectivamente de acuerdo con las profundidades de las unidades de codificación de acuerdo con las profundidades en una unidad de codificación máxima.
Por ejemplo, si una unidad de codificación es una unidad de codificación máxima, de acuerdo con el orden de la información del modo de omisión y la información dividida, si la unidad de codificación se predice en un modo de omisión de acuerdo con la información del modo de omisión se puede determinar antes de determinar si la unidad de codificación se divide de acuerdo con la información dividida. También, si una unidad de codificación no es una unidad de codificación máxima, si la unidad de codificación se divide de acuerdo con la información dividida puede determinarse antes de determinar si la unidad de codificación se predice en un modo de omisión de acuerdo con la información del modo de omisión.
El extractor 1520 de datos puede extraer una pieza de información dividida y omitida obtenida por medio de la combinación de la información del modo de omisión y la información dividida para las unidades de codificación de acuerdo con las profundidades. Por ejemplo, si se extrae un bit de información dividida y omisión, se puede predecir una unidad de codificación correspondiente en un modo de omisión sin dividirse, y si se leen dos bits de información dividida y omisión, si la unidad de codificación correspondiente se divide puede determinarse en función de la información dividida y si la unidad de codificación correspondiente se predice en un modo de omisión puede determinarse en función de la información del modo de omisión.
El extractor 1520 de datos puede extraer solo la información dividida y la información del modo de omisión para una unidad de codificación que se predice en un modo de omisión, y no puede extraer información para la decodificación de predicción, tal como un coeficiente de transformación e información relacionada con la predicción, tal como una dirección de predicción. y un vector de movimiento. La información del índice del predictor del vector de movimiento para una unidad de codificación que se predice en un modo de omisión puede extraerse selectivamente. Por consiguiente, el decodificador 1530 puede realizar la decodificación de predicción en una unidad de codificación actual tomando prestada información de movimiento de una unidad de predicción adyacente a la unidad de codificación actual que se predice en un modo de omisión, o deduciendo información de movimiento de la unidad de codificación actual de la información de movimiento de la unidad de predicción adyacente.
El decodificador 1530 decodifica datos de vídeo codificados de acuerdo con una unidad de codificación de al menos una profundidad codificada para cada unidad de codificación máxima de los datos de vídeo codificados en base a la información sobre la profundidad codificada y el modo de codificación.
Los datos de vídeo decodificados y restaurados se pueden transmitir a varios terminales que pueden reproducir los datos de vídeo o se pueden almacenar en un dispositivo de almacenamiento.
El aparato 1400 de las FIG. 16 y el aparato 1500 de la FIG. 17 pueden determinar el orden de la información del modo de omisión y la información dividida en consideración de una unidad de datos, un modo de codificación o similares. También, el orden de la información del modo de omisión y la información dividida puede determinarse considerando un número total de bits de la información del modo de omisión y la información dividida, y una frecuencia de ocurrencia de un modo de omisión en la codificación y decodificación de datos de vídeo. Dado que se puede establecer el orden de la información del modo de omisión y la información dividida de las unidades de codificación según las profundidades, la eficiencia de transmisión de datos codificados puede mejorarse aún más. La FIG. 8 ilustra unidades de codificación de acuerdo con profundidades codificadas en una unidad de codificación máxima.
A fin de explicar un orden en el que el extractor 1520 de datos lee una salida de corriente de bits codificada de la unidad 1430 de salida en consideración de un orden de información de modo de omisión e información dividida, una unidad 1600 de codificación máxima se ilustra a modo de ejemplo.
Las unidades de codificación incluidas en la unidad 1600 de codificación máxima incluyen la unidad 1600 de codificación máxima que tiene una profundidad de 0, unidades 1610, 1620, 1630 y 1640 de codificación que tienen una profundidad de 1, y unidades 1622, 1624, 1626 y 1628 de codificación que tienen una profundidad de 2. También, las unidades 1610, 1630 y 1640 de codificación que tienen la profundidad codificada de 1 y las unidades 1622, 1624, 1626 y 1628 de codificación que tienen la profundidad codificada de 2 se determinan como profundidades codificadas de la unidad 1600 de codificación máxima. También, se supone que los modos de predicción de las unidades 1610, 1630 y 1640 de codificación que tienen la profundidad de 1 están configurados para omitir modos, y los modos de predicción de las unidades 1622, 1624, 1626 y 1628 de codificación que tienen la profundidad de 2 no están configurados para saltear modos.
Primero se explicará un ejemplo en el que el extractor 1520 de datos del aparato 1500 lee información dividida antes de leer la información del modo de omisión para la unidad 1600 de codificación máxima de una imagen actual. En este ejemplo, en el que la información dividida precede a la información del modo de omisión, si la información dividida es 1, la información dividida de las unidades de codificación de profundidades más bajas se lee de forma recursiva, y si la información dividida es 0, se lee la información del modo de omisión de una unidad de codificación de una profundidad correspondiente.
Por consiguiente, un orden en el que se establece o lee la información dividida y la información del modo de omisión es el siguiente.
Divida la información 1 sobre la unidad 1600 de codificación máxima, dividir la información 0 y omitir la información 1 sobre la unidad 1610 de codificación que tiene la profundidad de 1, dividir la información 1 sobre la unidad 1620 de codificación que tiene la profundidad de 1, dividir la información 0 y omitir la información 0 sobre la unidad 1622 de codificación que tiene la profundidad de 2, dividir la información 0 y la información de omisión 0 sobre la unidad 1624 de codificación que tiene la profundidad de 2, dividir la información 0 y omitir la información 0 sobre la unidad 1626 de codificación que tiene la profundidad de 2, dividir la información 0 y omitir la información 0 sobre la unidad 1628 de codificación que tiene la profundidad de 2, la información dividida 0 y la información de omisión 1 sobre la unidad 1630 de codificación que tiene la profundidad de 1, y la información dividida 0 y la información de omisión 1 sobre la unidad 1640 de codificación que tiene la profundidad de 1 se pueden leer secuencialmente. Por consiguiente, un número total de bits de la información dividida y la información del modo de omisión de la unidad 1600 de codificación máxima es 16.
También, se explicará otro ejemplo en el que el extractor 1520 de datos del aparato 1400 lee la información del modo de omisión de la unidad 1600 de codificación máxima de una imagen actual antes de la información dividida.
En este ejemplo en el que la información del modo de omisión precede a la información dividida, si la información del modo de omisión es 1, no es necesario establecer la información dividida de las unidades de codificación que tienen profundidades más bajas, y si la información del modo de omisión es 0, se establece la información dividida. Por consiguiente, un orden en el que se establece o lee la información dividida y la información del modo de omisión es el siguiente.
Información de modo de omisión 0 sobre la unidad 1600 de codificación máxima, información de modo de omisión 1 sobre la unidad 1610 de codificación que tiene la profundidad de 1, omitir la información del modo 0 y dividir la información 1 sobre la unidad 1620 de codificación que tiene la profundidad de 1, omitir la información del modo 0 y dividir la información 0 sobre la unidad 1622 de codificación que tiene la profundidad de 2, omitir la información del modo 0 y dividir la información 0 sobre la unidad 1624 de codificación que tiene la profundidad de 2, omitir la información del modo 0 y dividir la información 0 sobre la unidad 1626 de codificación que tiene la profundidad de 2, omitir la información del modo 0 y dividir la información 0 sobre la unidad 1628 de codificación que tiene la profundidad de 2, la información de modo de omisión 1 sobre la unidad 1630 de codificación que tiene la profundidad de 1, y la información de modo de omisión 1 sobre la unidad 1640 de codificación que tiene la profundidad de 1 se puede leer secuencialmente. En este caso, un número total de bits de la información dividida y la información del modo de omisión sobre la unidad 1600 de codificación máxima es 14.
Las FIGS. 19 a 21 son diagramas de flujo que ilustran procedimientos de codificación y decodificación de información de omisión e información dividida.
Si la unidad 1430 de salida del aparato 1400 emite una corriente de bits codificado de forma que la información dividida precede a la información del modo de omisión de acuerdo con un primer procedimiento dividido, el extractor 1520 de datos del aparato 1500 lee datos de vídeo codificados de acuerdo con un orden en el que se leen la información del modo de omisión y la información dividida.
Es decir, en la operación 1650, de acuerdo con el primer procedimiento dividido, el extractor 1520 de datos lee información dividida sobre una unidad de codificación máxima que tiene una profundidad de 0 y determina si la unidad de codificación máxima está dividida. Si en la operación 1650 se determina que la unidad de codificación máxima no está dividida, el procedimiento procede a la operación 1652. En la operación 1652, se lee la información del modo de omisión y se determina si la unidad de codificación máxima se predice en un modo de omisión. Si en la operación 1650 se determina que la unidad de codificación máxima está dividida, El procedimiento de acuerdo con la reivindicación 1654. En la operación 1654, se lee la información dividida de una unidad de codificación que tiene una profundidad de 1. De manera similar, en la operación 1654, se determina si la unidad de codificación que tiene la profundidad de 1 está dividida. Si en la operación 1654 se determina que la unidad de codificación que tiene la profundidad de 1 no se divide de acuerdo con la información dividida de la unidad de codificación que tiene la profundidad de 1, el procedimiento procede a la operación 1656. En la operación 1656, se lee la información del modo de omisión de la unidad de codificación que tiene la profundidad de 1. Si en la operación 1654 se determina que la unidad de codificación que tiene la profundidad de 1 está dividida, el procedimiento procede a la operación 1658. En la operación 1658, se lee la información dividida de una unidad de codificación que tiene una profundidad de 2 y se determina si la unidad de codificación que tiene la profundidad de 2 está dividida. Si en la operación 1658 se determina que la unidad de codificación que tiene una profundidad de 2 no está dividida, el procedimiento procede a la operación 1660. En la operación 1660, se lee la información del modo de omisión de la unidad de codificación que tiene la profundidad de 2. Si en la operación 1658 se determina que la unidad de codificación que tiene la profundidad de 2 está dividida, El procedimiento puede pasar a la siguiente profundidad.
Si la unidad 1430 de salida del aparato 1400 emite una corriente de bits codificado de forma que la información del modo de omisión precede a la información dividida de acuerdo con un primer procedimiento de omisión, el extractor 1520 de datos del aparato 1500 lee datos de vídeo codificados de acuerdo con un orden en el que se leen la información del modo de omisión y la información dividida.
Es decir, en la operación 1670, de acuerdo con el primer procedimiento de omisión, el extractor 1520 de datos lee la información del modo de omisión sobre una unidad de codificación máxima que tiene una profundidad de 0. Si a partir de la lectura se determina que un modo de predicción de la unidad de codificación máxima es un modo de omisión, el decodificador 1530 puede decodificar la unidad de codificación máxima en un modo de omisión. En la operación 1670, si se determina a partir de la lectura que el modo de predicción de la unidad de codificación máxima no es un modo de omisión, el procedimiento puede proceder a la operación 1672. En la operación 1672, el extractor 1520 de datos puede leer información dividida de la unidad de codificación máxima que tiene una profundidad de 0. En la operación 1672, si se determina a partir de la lectura que la unidad de codificación máxima no está dividida, el decodificador 1530 puede decodificar la unidad de codificación máxima. En la operación 1672, si se determina a partir de la lectura que la unidad de codificación máxima está dividida, el procedimiento procede a la operación 1674. En la operación 1674, el extractor 1520 de datos puede leer la información del modo de omisión de una unidad de codificación que tiene una profundidad de 1.
De manera similar, en la operación 1674, de acuerdo con la información del modo de omisión de la unidad de codificación que tiene la profundidad de 1, si se determina a partir de la lectura que un modo de predicción de la unidad de codificación que tiene la profundidad de 1 es un modo de omisión, la unidad de codificación que tiene la profundidad de 1 puede decodificarse en un modo de omisión. Si a partir de la lectura en la operación 1674 se determina que un modo de predicción de la unidad de codificación que tiene la profundidad de 1 no es un modo de omisión, el procedimiento procede a la operación 1676. En la operación 1676, se puede leer información dividida de la unidad de codificación que tiene la profundidad de 1.
Si la unidad 1430 de salida del aparato 1400 lleva a cabo la codificación de forma que la información del modo de omisión precede a la información dividida para una unidad de codificación máxima y la información dividida precede a la información del modo de omisión para unidades de codificación distintas de la unidad de codificación máxima, el extractor 1520 de datos del aparato 1500 lee datos de vídeo codificados de acuerdo con un orden en el que se leen la información del modo de omisión y la información dividida.
Es decir, en la operación 1680, de acuerdo con un primer procedimiento de omisión para una unidad de codificación máxima que tiene una profundidad de 0, el extractor 1520 de datos lee la información del modo de omisión sobre la unidad de codificación máxima que tiene la profundidad de 0. Si a partir de la lectura se determina que un modo de predicción de la unidad de codificación máxima es un modo de omisión, el decodificador 1530 puede decodificar la unidad de codificación máxima en un modo de omisión. En la operación 1680, si se determina a partir de la lectura que el modo de predicción de la unidad de codificación máxima no es un modo de omisión, el procedimiento procede a la operación 1682. En la operación 1682, el extractor 1520 de datos puede leer información dividida de la unidad de codificación máxima que tiene una profundidad de 0. En la operación 1682, si se determina a partir de la lectura que la unidad de codificación máxima no está dividida, el decodificador 1530 puede decodificar la unidad de codificación máxima. En la operación 1682, si se determina a partir de la lectura que la unidad de codificación máxima está dividida, el extractor 1520 de datos puede leer información dividida e información de modo de omisión de una unidad de codificación que tiene una profundidad de 1 en las operaciones 1684 y 1686.
En la operación 1684, de acuerdo con un primer procedimiento dividido para la unidad de codificación que tiene la profundidad de 1, si a partir de la lectura se determina que la unidad de codificación que tiene la profundidad de 1 no se divide de acuerdo con la información dividida de la unidad de codificación que tiene la profundidad de 1, el procedimiento procede a la operación 1686. En la operación 1686, se lee la información del modo de omisión de la unidad de codificación que tiene la profundidad de 1. En la operación 1684, si a partir de la lectura se determina que la unidad de codificación que tiene la profundidad de 1 está dividida, el procedimiento continúa con la operación 1688, y puede leerse la información dividida de una unidad de codificación que tiene una profundidad de 2. En la operación 1688, si la unidad de codificación que tiene la profundidad de 2 no se divide de acuerdo con la información dividida de la unidad de codificación que tiene la profundidad de 2, el procedimiento procede a la operación 1690. En la operación 1690, se puede leer la información del modo de omisión de la unidad de codificación que tiene la profundidad de 2, y si la unidad de codificación que tiene la profundidad de 2 se divide, El procedimiento puede pasar a la siguiente profundidad.
El número total de bits de la información de modo de salto y de la información de división de acuerdo con los ejemplos de las FIGS. 19 a 21 se compararán entre sí del siguiente modo.
En detalle, si una unidad de codificación máxima se codifica en un modo de omisión, el número total de bits de la información del modo de omisión y la información dividida de acuerdo con varias realizaciones ejemplares son como se muestra en la Tabla 2.
[Tabla 2]
Figure imgf000022_0001
De acuerdo con un primer procedimiento dividido de la Tabla 2, dado que la información dividida de una unidad de codificación máxima que tiene una profundidad de 0 se codifica para que sea '0' y la información del modo de omisión de la unidad de codificación máxima que tiene una profundidad de 0 se codifica para que sea '1', el extractor 1520 de datos puede leer dos bits de información de modo de omisión y dividir información en total. Según un primer procedimiento de omisión de la Tabla 2, dado que la información del modo de omisión de la unidad de codificación máxima que tiene la profundidad de 0 se codifica como '1', el extractor 1520 de datos puede leer un bit de información de modo de omisión en total. Según una unidad de codificación máxima, omita el primer procedimiento de la Tabla 2, dado que la información del modo de omisión de la unidad de codificación máxima que tiene la profundidad de 0 se codifica como '1', el extractor 1520 de datos puede leer solo un bit de información de modo de omisión en total.
En detalle, si una unidad de codificación que tiene una profundidad de 2 se codifica en un modo de omisión, el número total de bits de la información del modo de omisión y la información dividida de acuerdo con varias realizaciones ejemplares son como se muestra en la Tabla 3.
[Tabla 3]
Figure imgf000023_0001
De acuerdo con un primer procedimiento dividido de la Tabla 3, dado que la información dividida de una unidad de codificación máxima que tiene una profundidad de 0 se codifica como '1', la información dividida de una unidad de codificación que tiene una profundidad de 1 se codifica para ser '1', la información dividida de una unidad de codificación que tiene una profundidad de 2 se codifica para que sea '0', y la información del modo de omisión de la unidad de codificación que tiene una profundidad de 2 se codifica para que sea '1', el extractor 1520 de datos puede leer cuatro bits de información de modo de omisión y dividir información en total. Según un primer procedimiento de omisión de la Tabla 3, dado que la información del modo de omisión de la unidad de codificación máxima que tiene la profundidad de 0 se codifica como '0', la información dividida de la unidad de codificación máxima que tiene una profundidad de 0 se codifica para ser '1', la información del modo de omisión de la unidad de codificación que tiene una profundidad de 1 se codifica para ser '0', la información dividida de la unidad de codificación que tiene la profundidad de 1 se codifica para que sea '1', y la información del modo de omisión de la unidad de codificación que tiene la profundidad de 2 se codifica para que sea '1', el extractor 1520 de datos puede leer cinco bits de información de modo de omisión y dividir información en total. Según una unidad de codificación máxima, omita el primer procedimiento de la Tabla 3, dado que la información del modo de omisión de la unidad de codificación máxima que tiene la profundidad de 0 se codifica como '0', la información dividida de la unidad de codificación máxima que tiene una profundidad de 0 se codifica para ser '1', la información dividida de la unidad de codificación que tiene la profundidad de 1 se codifica para ser '1', la información dividida de la unidad de codificación que tiene la profundidad de 2 se codifica para que sea '0', y la información del modo de omisión de la unidad de codificación que tiene la profundidad de 2 se codifica para que sea '1', el extractor 1520 de datos puede leer cinco bits de información de modo de omisión y dividir información en total.
Como se describe más arriba con referencia a las FIGS. 19 a 21, por medio de un cambio de orden de información dividida e información de modo de omisión, se puede variar un número total de bits de información de modo de omisión sobre unidades de codificación de acuerdo con las profundidades. Por ejemplo, si una unidad de codificación de una profundidad superior se predice y codifica en un modo de omisión, como la información dividida de una unidad de codificación de menor profundidad no necesita ser codificada, si hay muchas regiones predichas y codificadas en un modo de omisión, puede ser ventajoso en términos de una tasa de bits que la información del modo de omisión preceda a la información dividida. Sin embargo, en una imagen con un pequeño número de modos de salto, puede ser ventajoso en términos de tasa de bits que la información de división preceda a la información de modo de salto.
Por consiguiente, se puede ajustar una velocidad de bits al ajustar un orden de información dividida y de modo omitir de acuerdo con las características de una imagen, una secuencia, un nivel de unidad de datos tal como un segmento, un QP y un tipo de corte. También, como en el ejemplo explicado con referencia a la FIG. 21 en el que se selecciona un primer procedimiento de omisión solo para una unidad de codificación máxima y se selecciona un primer procedimiento dividido para unidades de codificación que tienen profundidades distintas de la unidad de codificación máxima, un orden de información dividida e información de modo de omisión se puede cambiar de acuerdo con las profundidades.
En el ejemplo que se describe con referencia a la FIG. 18, la información del modo de salto o la información de división se lee antes en unidades de imágenes. El aparato 1400 de la FIG. 16 y el aparato 1500 de la FIG. 17 puede determinar de forma variable un orden en el que la información del modo de omisión y la información dividida se emiten o leen de acuerdo con una unidad de datos, una profundidad, un QP, y un tipo de corte de acuerdo con una dirección de predicción sin limitarse a la realización ejemplar de la FIG. 18.
También, la información dividida y la información del modo de omisión se pueden combinar y usar como una sola pieza de información dividida y omisión. El aparato 1400 de la FIG. 16 y el aparato 1500 de la FIG. 17 puede usar información dividida y omisión que se le asigna 1 bit para una combinación de información dividida e información de modo de omisión que tiene una frecuencia alta de ocurrencia, e información dividida y omisión que se le asigna 2 bits para una combinación que tiene una frecuencia de ocurrencia baja.
Si la información dividida precede a la información del modo de omisión, como la información dividida de una unidad de codificación de menor profundidad se lee inmediatamente cuando la información dividida de una unidad de codificación de una profundidad actual es 1, no se lee un modo de omisión de una unidad de codificación actual. Por consiguiente, tres combinaciones, es decir, información dividida 1, una combinación de información dividida 0 e información de modo de omisión 0, y una combinación de información dividida 0 e información de modo de omisión 1, puede ocurrir. Por ejemplo, una frecuencia de ocurrencia de la combinación de información dividida 0 e información de modo de omisión 1 es la más alta, a la combinación se le asigna 1 bit, y cada una de la información dividida 1 y la combinación de información dividida 0 e información de modo de omisión 0 pueden asignarse 2 bits. La FIG. 22 es un diagrama de flujo que ilustra un procedimiento para decodificar un vídeo en consideración de un orden de omisión y división.
En la operación 1710, una imagen se divide en unidades de codificación máximas que tienen tamaños máximos predeterminados.
En la operación 1720, para cada una de las unidades de codificación que tienen una estructura de árbol, un modo de codificación sobre una profundidad codificada para emitir un resultado de codificación y una unidad de codificación de la profundidad codificada se determina al llevar a cabo una codificación en base a unidades de codificación de acuerdo con las profundidades, de acuerdo con las regiones obtenidas por medio de la división jerárquicamente de la unidad de codificación máxima a medida que se profundiza.
En la operación 1730, información que indica un orden de información de modo de omisión e información dividida que se determina selectivamente para cada unidad de codificación de acuerdo con las profundidades, la información sobre el modo de codificación, incluida la información del modo de omisión y la información dividida que se organiza de acuerdo con el orden determinado, y los datos de vídeo codificados se emiten para cada unidad de codificación máxima.
También, se puede establecer una pieza de información combinada de división y omisión obtenida al combinar la información dividida y la información del modo de omisión. También, se puede asignar un número de bit de la información dividida y omisión correspondiente en función de la frecuencia de aparición de una combinación de la información dividida y la información del modo de omisión.
La FIG. 23 es un diagrama de flujo que ilustra un procedimiento para decodificar un vídeo en consideración de un orden de omisión y división.
En la operación 1810, se recibe y analiza una corriente de bits de un vídeo codificado.
En la operación 1820, la información sobre un orden de información del modo de omisión y la información dividida de las unidades de codificación de acuerdo con las profundidades se extrae de la corriente de bits, y de acuerdo con el orden de la información del modo de omisión y la información dividida, la información sobre una profundidad codificada y un modo de codificación y datos de vídeo codificados se extraen de acuerdo con una unidad de codificación máxima de la corriente de bits.
Además, se puede leer una pieza de información combinada de división y omisión obtenida al combinar la información dividida y la información del modo de omisión. El procedimiento de decodificación del vídeo de la FIG.
23 puede leer una combinación de la información dividida y la información del modo de omisión en base a la información dividida y omisión que se asigna de forma discriminatoria en función de la frecuencia de aparición de una combinación de la información dividida y la información del modo de omisión.
En la operación 1830, los datos de vídeo codificados se decodifican de acuerdo con unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima de datos de vídeo codificados en función de la información sobre la profundidad codificada y el modo de codificación.
Las realizaciones ejemplares se pueden escribir como programas de ordenador y se pueden implementar en ordenadores digitales de uso general que ejecutan los programas mediante el uso de un medio de grabación legible por ordenador. Los ejemplos del medio de grabación legible por ordenador incluyen medios de almacenamiento magnéticos (por ejemplo, ROM, discos flexibles, discos duros, etc.) y medios de grabación ópticos (por ejemplo, CD-ROM o DVD). Más aún, una o más unidades del aparato 1400 y el aparato 1500 pueden incluir un procesador o microprocesador que ejecuta un programa de ordenador almacenado en un medio legible por ordenador, como el almacenamiento 220 local.

Claims (1)

REIVINDICACIONES
1. Un procedimiento de decodificación de una corriente de bits de vídeo que comprende datos de vídeo codificados,
en el que una imagen de una secuencia de imágenes consiste en unidades de codificación de tamaño máximo, en el que dichas unidades de codificación son de tamaño máximo unidades de datos que tienen un tamaño máximo predeterminado de unidad de codificación;
por el cual cada unidad de codificación de tamaño máximo que consiste en unidades de codificación de menor tamaño, en el que dichas unidades de codificación están dispuestas de manera jerárquica en una estructura de árbol y de acuerdo con la profundidad, en el que dicha profundidad es un número de veces que dichas unidades de codificación de tamaño máximo se dividen, hasta una unidad de codificación de tamaño mínimo;
por el cual un modo de predicción de una unidad de predicción es uno de un modo intra, un modo inter, y un modo de salto, en el que una unidad de predicción es una unidad base para la predicción y es una unidad de codificación que ya no está dividida o una división de la misma:
en el que la información dividida que indica para cada unidad de codificación de tamaño máximo si dicha unidad de codificación de tamaño máximo se divide en unidades de codificación de menor tamaño a una profundidad relacionada;
en el que la información del modo de omisión que indica si un modo de predicción de una unidad de predicción es un modo de omisión;
el procedimiento comprende:
• extraer, de dicha corriente de bits de vídeo, información dividida de una unidad de codificación de tamaño máximo;
• determinar si se codifica la información dividida de una unidad de codificación de tamaño máximo actual para indicar que dicha unidad de codificación de tamaño máximo no está dividida o dividida;
• cuando la información dividida de una unidad de codificación de tamaño máximo actual indica que dicha unidad de codificación de tamaño máximo actual no está dividida, el extractor de datos analiza la información del modo de omisión de la unidad de codificación de tamaño máximo actual;
o cuando la información del modo de omisión de la unidad de codificación de tamaño máximo actual indica que el modo de predicción de dicha unidad de codificación de tamaño máximo actuales el modo de omisión, el decodificador decodifica dicha unidad de codificación de tamaño máximo actual tomando prestada información de movimiento de una unidad de predicción adyacente a dicha unidad de codificación de tamaño máximo actual, o deduce información de movimiento de dicha unidad de codificación de tamaño máximo actual de la información de movimiento de la unidad de predicción adyacente, y
o cuando la información del modo de omisión de la unidad de codificación de tamaño máximo actual indica que el modo de predicción de dicha unidad de codificación de tamaño máximo actual no es el modo de omisión, el decodificador determina una o más unidades de predicción a partir de la unidad de codificación de tamaño máximo y decodifica dichas una o más unidades de predicción;
• cuando la información dividida de la unidad de codificación de tamaño máximo actual indica que dicha unidad de codificación de tamaño máximo actual está dividida:
o el decodificador determina las unidades de codificación de una profundidad actual al dividir la altura y el ancho de la unidad de codificación de tamaño máximo actual, y el extractor de datos extrae, de la secuencia de bits de vídeo, la información dividida de una unidad de codificación de la profundidad actual, entre las unidades de codificación de una profundidad actual, indicando la información dividida de una unidad de codificación de la profundidad actual si la unidad de codificación de la profundidad actual está dividida en unidades de codificación de menor profundidad, y o cuando la información dividida de una unidad de codificación de la profundidad actual indica que dicha unidad de codificación no está dividida, decodificar la unidad de codificación de la profundidad actual, el decodificador decodifica la unidad de codificación de la profundidad actual determinando al menos una unidad de predicción obtenida desde la unidad de codificación de la profundidad actual, realizando predicción sobre la unidad de codificación de la profundidad actual en base a la al menos una unidad de predicción, determinando al menos una unidad de transformación obtenida desde la unidad de codificación de la profundidad actual y realizando transformación inversa sobre la unidad de codificación de la profundidad actual basada en la al menos una unidad de transformación.
ES21183935T 2010-01-14 2011-01-13 Procedimiento para decodificar vídeo en consideración del orden de salto y división Active ES2936026T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100003555A KR101675118B1 (ko) 2010-01-14 2010-01-14 스킵 및 분할 순서를 고려한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치

Publications (1)

Publication Number Publication Date
ES2936026T3 true ES2936026T3 (es) 2023-03-13

Family

ID=44258482

Family Applications (4)

Application Number Title Priority Date Filing Date
ES21183935T Active ES2936026T3 (es) 2010-01-14 2011-01-13 Procedimiento para decodificar vídeo en consideración del orden de salto y división
ES20175076T Active ES2882694T3 (es) 2010-01-14 2011-01-13 Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división
ES19186348T Active ES2811038T3 (es) 2010-01-14 2011-01-13 Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división
ES15195916T Active ES2778655T3 (es) 2010-01-14 2011-01-13 Procedimiento para decodificar vídeo considerando un orden de omisión y de división

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES20175076T Active ES2882694T3 (es) 2010-01-14 2011-01-13 Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división
ES19186348T Active ES2811038T3 (es) 2010-01-14 2011-01-13 Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división
ES15195916T Active ES2778655T3 (es) 2010-01-14 2011-01-13 Procedimiento para decodificar vídeo considerando un orden de omisión y de división

Country Status (19)

Country Link
US (6) US8855201B2 (es)
EP (6) EP3910942B1 (es)
JP (5) JP5718941B2 (es)
KR (1) KR101675118B1 (es)
CN (7) CN104796695B (es)
AU (1) AU2011205940B2 (es)
BR (5) BR112012017407B1 (es)
CA (4) CA2786989C (es)
DK (3) DK3713231T3 (es)
ES (4) ES2936026T3 (es)
HU (4) HUE050344T2 (es)
MX (1) MX2012008238A (es)
MY (5) MY185473A (es)
PH (4) PH12016500678A1 (es)
PL (4) PL3573336T3 (es)
RU (3) RU2699582C2 (es)
SG (6) SG10201700228RA (es)
WO (1) WO2011087292A2 (es)
ZA (1) ZA201205736B (es)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101675118B1 (ko) 2010-01-14 2016-11-10 삼성전자 주식회사 스킵 및 분할 순서를 고려한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
CN106028048B (zh) 2010-01-15 2019-04-05 三星电子株式会社 对视频进行解码的设备
CN106231342B (zh) * 2010-04-13 2019-05-31 三星电子株式会社 执行去块滤波的对视频进行解码的方法
MX2013001889A (es) * 2010-08-17 2013-05-06 Samsung Electronics Co Ltd Metodo y aparato de codificacion de video que utiliza unidad de transformacion de estructura arborescente variable y metodo y aparato de decodificacion de video
US8885704B2 (en) 2010-10-01 2014-11-11 Qualcomm Incorporated Coding prediction modes in video coding
WO2012177063A2 (ko) * 2011-06-24 2012-12-27 엘지전자 주식회사 스킵 모드 부호화 복호화 방법 및 장치
US10110891B2 (en) * 2011-09-29 2018-10-23 Sharp Kabushiki Kaisha Image decoding device, image decoding method, and image encoding device
CN107277515B (zh) * 2011-10-19 2020-03-06 株式会社Kt 解码视频信号的方法
TWI661711B (zh) * 2011-11-08 2019-06-01 三星電子股份有限公司 視訊解碼方法、視訊編碼方法、裝置及非暫態電腦可讀儲存媒體
KR101830352B1 (ko) * 2011-11-09 2018-02-21 에스케이 텔레콤주식회사 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
WO2013111977A1 (ko) * 2012-01-26 2013-08-01 한국전자통신연구원 화면 내 예측을 수행한 블록에 대한 디블록킹 방법 및 장치
KR102057195B1 (ko) * 2012-03-20 2019-12-18 삼성전자주식회사 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
US9538239B2 (en) * 2012-08-13 2017-01-03 Gurulogic Microsystems Oy Decoder and method for decoding encoded input data containing a plurality of blocks or packets
CN103067704B (zh) * 2012-12-12 2015-12-09 华中科技大学 一种基于编码单元层次提前跳过的视频编码方法和系统
CN104023241B (zh) * 2014-05-29 2017-08-04 华为技术有限公司 帧内预测编码的视频编码方法及视频编码装置
CN104602017B (zh) 2014-06-10 2017-12-26 腾讯科技(北京)有限公司 视频编码器、方法和装置及其帧间模式选择方法和装置
WO2017099371A1 (ko) * 2015-12-11 2017-06-15 삼성전자 주식회사 인트라 프레임 스킵 모드 정보의 부호화 방법 및 장치, 복호화 방법 및 장치
CN106878751B (zh) * 2015-12-11 2022-01-14 北京三星通信技术研究有限公司 视频帧内编码模式的标识方法、处理方法和装置
US10163771B2 (en) * 2016-08-08 2018-12-25 Qualcomm Incorporated Interposer device including at least one transistor and at least one through-substrate via
US10609423B2 (en) 2016-09-07 2020-03-31 Qualcomm Incorporated Tree-type coding for video coding
EP3467778A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing A method and apparatus for encoding/decoding the geometry of a point cloud representing a 3d object
EP4319158A3 (en) 2018-05-10 2024-04-03 Samsung Electronics Co., Ltd. Image segmentation method and apparatus for image encoding and decoding
WO2020011796A1 (en) * 2018-07-09 2020-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder and decoder, encoding method and decoding method for versatile spatial partitioning of coded pictures
KR20210094046A (ko) * 2018-11-27 2021-07-28 오피 솔루션즈, 엘엘씨 명시적 및 암시적 시그널링을 사용한 이용 불가능한 참조 프레임들의 적응형 블록 업데이트
EP3909243A4 (en) * 2019-01-10 2022-11-09 HFI Innovation Inc. METHODS AND APPARATUS FOR PROCESSING VIDEO DATA FROM OUT-OF-BOUND NODES
CN114424530A (zh) * 2019-09-13 2022-04-29 北京字节跳动网络技术有限公司 跳过模式信令通知
WO2021047632A1 (en) 2019-09-13 2021-03-18 Beijing Bytedance Network Technology Co., Ltd. Weighted sample bi-prediction in video coding
AU2020203330B2 (en) * 2020-05-21 2022-12-01 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a block of video samples
CN113315967B (zh) * 2021-07-28 2021-11-09 腾讯科技(深圳)有限公司 视频编码方法、装置、介质及电子设备

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1097956C (zh) * 1995-09-06 2003-01-01 皇家菲利浦电子有限公司 分段图象序列编码的方法和系统以及解码的方法和系统
US5832234A (en) * 1995-09-29 1998-11-03 Intel Corporation Encoding images using block-based macroblock-level statistics
DE69609702T2 (de) * 1995-10-25 2001-04-12 Koninkl Philips Electronics Nv Verfahren und system zur kodierung segmentierter bilder sowie entsprechendes dekodierungsverfahren und -system
US5748789A (en) * 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems
JP2004532540A (ja) * 2001-03-05 2004-10-21 インタービデオインコーポレイテッド 誤り耐性のある符号化のためのシステム及び方法
JP2003169333A (ja) * 2001-09-21 2003-06-13 Ricoh Co Ltd 符号列作成装置、画像伸長システム、画像伸長装置、画像提供システム、符号列作成方法、プログラム及び記録媒体
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
EP1322121A3 (en) * 2001-12-19 2003-07-16 Matsushita Electric Industrial Co., Ltd. Video encoder and decoder with improved motion detection precision
US6795584B2 (en) 2002-10-03 2004-09-21 Nokia Corporation Context-based adaptive variable length coding for adaptive block transforms
JP3504256B1 (ja) * 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、及び動画像復号装置
EP1582063B1 (en) * 2003-01-07 2018-03-07 Thomson Licensing DTV Mixed inter/intra video coding of macroblock partitions
KR100828353B1 (ko) * 2003-02-05 2008-05-08 삼성전자주식회사 영상 블록 분할 방법 및 그 장치
HUP0301368A3 (en) * 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
KR20050045746A (ko) 2003-11-12 2005-05-17 삼성전자주식회사 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치
DE102004041664A1 (de) * 2004-08-27 2006-03-09 Siemens Ag Verfahren zum Codieren und Decodieren, sowie Codier- und Decodiervorrichtung zur Videocodierung
US7720154B2 (en) * 2004-11-12 2010-05-18 Industrial Technology Research Institute System and method for fast variable-size motion estimation
US7430238B2 (en) * 2004-12-10 2008-09-30 Micronas Usa, Inc. Shared pipeline architecture for motion vector prediction and residual decoding
TWI259727B (en) * 2005-03-09 2006-08-01 Sunplus Technology Co Ltd Method for rapidly determining macroblock mode
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
EP1727372A1 (en) * 2005-05-27 2006-11-29 Thomson Licensing Method and apparatus for encoding and decoding video data,
US8447121B2 (en) * 2005-09-14 2013-05-21 Microsoft Corporation Efficient integrated digital video transcoding
KR101441269B1 (ko) * 2005-09-26 2014-09-18 미쓰비시덴키 가부시키가이샤 동화상 복호 장치 및 동화상 복호 방법
JPWO2007066710A1 (ja) * 2005-12-07 2009-05-21 ソニー株式会社 符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
US7388781B2 (en) * 2006-03-06 2008-06-17 Sandisk Il Ltd. Multi-bit-per-cell flash memory device with non-bijective mapping
CN101455082B (zh) * 2006-03-30 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法和装置
US20080002770A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Methods, apparatus, and a computer program product for providing a fast inter mode decision for video encoding in resource constrained devices
BRPI0714859A2 (pt) * 2006-08-02 2013-05-21 Thomson Licensing mÉtodo e aparelho para particionamento geomÉtrico adaptativo para codificaÇço de vÍdeo e estrutura de sinal de vÍdeo para codificaÇço de vÍdeo
BRPI0715770B1 (pt) * 2006-08-25 2020-03-10 Interdigital Vc Holdings, Inc. Método, aparelho e mídia de armazenamento para particionamento com menor resolução
US7756348B2 (en) * 2006-10-30 2010-07-13 Hewlett-Packard Development Company, L.P. Method for decomposing a video sequence frame
US7573407B2 (en) * 2006-11-14 2009-08-11 Qualcomm Incorporated Memory efficient adaptive block coding
US8351513B2 (en) * 2006-12-19 2013-01-08 Allot Communications Ltd. Intelligent video signal encoding utilizing regions of interest information
CN101222641B (zh) * 2007-01-11 2011-08-24 华为技术有限公司 帧内预测编解码方法及其装置
US20080170624A1 (en) 2007-01-12 2008-07-17 Mitsubishi Electric Corporation Image encoding device and image encoding method
JP2008193627A (ja) 2007-01-12 2008-08-21 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
KR100842558B1 (ko) * 2007-01-26 2008-07-01 삼성전자주식회사 동영상 부호화를 위한 블록 모드 결정 방법 및 그 장치
KR101366241B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상 부호화, 복호화 방법 및 장치
KR101366093B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
JP2010135864A (ja) * 2007-03-29 2010-06-17 Toshiba Corp 画像符号化方法及び装置並びに画像復号化方法及び装置
US20080239335A1 (en) * 2007-04-02 2008-10-02 Samsung Electronics Co., Ltd. Encoding and decoding method for enhancing depth resolution of an image, and print system using the same
BRPI0809512A2 (pt) * 2007-04-12 2016-03-15 Thomson Licensing método e aparelho para mesclagem dependente de contexto para modos salto-direto para codificação e decodificação de vídeo
KR100898176B1 (ko) * 2007-06-12 2009-05-19 한국전자통신연구원 비디오 인코딩을 위한 인터 모드 결정 방법
US20100208827A1 (en) * 2007-10-16 2010-08-19 Thomson Licensing Methods and apparatus for video encoding and decoding geometerically partitioned super macroblocks
CN100594732C (zh) * 2007-11-16 2010-03-17 中国科学院计算技术研究所 一种帧间模式选择方法
US8265171B2 (en) * 2008-02-26 2012-09-11 Richwave Technology Corp. Error resilient video transmission using instantaneous receiver feedback and channel quality adaptive packet retransmission
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
JP4990927B2 (ja) * 2008-03-28 2012-08-01 三星電子株式会社 動きベクトル情報の符号化/復号化方法及び装置
WO2009130561A1 (en) * 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
US8179974B2 (en) * 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
KR20090129926A (ko) 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
EP2144432A1 (en) * 2008-07-08 2010-01-13 Panasonic Corporation Adaptive color format conversion and deconversion
US20100086031A1 (en) * 2008-10-03 2010-04-08 Qualcomm Incorporated Video coding with large macroblocks
US8634456B2 (en) * 2008-10-03 2014-01-21 Qualcomm Incorporated Video coding with large macroblocks
US8503527B2 (en) * 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
US8619856B2 (en) * 2008-10-03 2013-12-31 Qualcomm Incorporated Video coding with large macroblocks
RU2375838C1 (ru) 2008-11-19 2009-12-10 Федеральное государственное унитарное предприятие "Научно-исследовательский институт телевидения" Способ кодирования и декодирования видеоинформации на основе трехмерного дискретного косинусного преобразования
US20110002554A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by residual decimation
KR101483750B1 (ko) * 2009-07-24 2015-01-19 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR20110017719A (ko) 2009-08-14 2011-02-22 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101456498B1 (ko) * 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101457418B1 (ko) 2009-10-23 2014-11-04 삼성전자주식회사 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101452713B1 (ko) 2009-10-30 2014-10-21 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치
KR101484280B1 (ko) * 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
CN106412600B (zh) * 2010-01-12 2019-07-16 Lg电子株式会社 视频信号的处理方法和设备
KR101703327B1 (ko) * 2010-01-14 2017-02-06 삼성전자 주식회사 계층적 데이터 단위의 패턴 정보를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101675118B1 (ko) * 2010-01-14 2016-11-10 삼성전자 주식회사 스킵 및 분할 순서를 고려한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101939699B1 (ko) * 2010-05-19 2019-01-18 에스케이 텔레콤주식회사 영상 부호화/복호화 장치 및 방법
US9055305B2 (en) * 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
US9210442B2 (en) * 2011-01-12 2015-12-08 Google Technology Holdings LLC Efficient transform unit representation

Also Published As

Publication number Publication date
EP3910942B1 (en) 2022-12-07
JP2016167863A (ja) 2016-09-15
ES2811038T3 (es) 2021-03-10
US20150003516A1 (en) 2015-01-01
KR20110083366A (ko) 2011-07-20
SG192515A1 (en) 2013-08-30
RU2014113051A (ru) 2015-10-10
JP2013517664A (ja) 2013-05-16
EP3713231B1 (en) 2021-07-07
CN104796695A (zh) 2015-07-22
US20190037212A1 (en) 2019-01-31
AU2011205940B2 (en) 2015-04-09
AU2011205940A1 (en) 2012-08-16
US20200162727A1 (en) 2020-05-21
MY185473A (en) 2021-05-19
PH12016500678A1 (en) 2016-07-04
CN104811697A (zh) 2015-07-29
PL3032829T3 (pl) 2020-07-13
JP2015092762A (ja) 2015-05-14
PH12016500680A1 (en) 2016-07-04
JP6665225B2 (ja) 2020-03-13
EP3573336B1 (en) 2020-07-15
CN104796695B (zh) 2019-05-10
US8855201B2 (en) 2014-10-07
US11128856B2 (en) 2021-09-21
BR122021004158B1 (pt) 2022-03-22
CN105245876B (zh) 2018-09-18
RU2017142783A (ru) 2019-02-14
US10110894B2 (en) 2018-10-23
MX2012008238A (es) 2012-08-17
PL3713231T3 (pl) 2021-10-25
SG10201700228RA (en) 2017-02-27
HUE060744T2 (hu) 2023-04-28
PL3573336T3 (pl) 2020-10-05
MY185534A (en) 2021-05-19
PL3910942T3 (pl) 2023-02-27
RU2017142783A3 (es) 2019-02-14
EP3032829A3 (en) 2016-07-13
PH12016500679A1 (en) 2016-06-27
MY182916A (en) 2021-02-05
RU2639691C2 (ru) 2017-12-21
ES2778655T3 (es) 2020-08-11
BR122021004152B1 (pt) 2022-01-11
RU2012134633A (ru) 2014-02-27
SG10201700221WA (en) 2017-03-30
DK3032829T3 (da) 2020-03-16
EP4142291A1 (en) 2023-03-01
RU2699582C2 (ru) 2019-09-06
EP3032829B1 (en) 2020-03-04
BR122020012992B1 (pt) 2022-02-22
MY185486A (en) 2021-05-19
EP3910942A1 (en) 2021-11-17
EP3713231A1 (en) 2020-09-23
DK3713231T3 (da) 2021-07-12
CA3003797A1 (en) 2011-07-21
CA2786989C (en) 2016-04-19
US20160080738A1 (en) 2016-03-17
CA3079335A1 (en) 2011-07-21
US20180139440A1 (en) 2018-05-17
JP2018142994A (ja) 2018-09-13
CA3003797C (en) 2020-10-27
CN105245876A (zh) 2016-01-13
WO2011087292A2 (en) 2011-07-21
JP6342549B2 (ja) 2018-06-13
HUE050344T2 (hu) 2020-11-30
EP2510693A4 (en) 2015-05-20
JP2017169230A (ja) 2017-09-21
SG10201700231TA (en) 2017-03-30
JP5718941B2 (ja) 2015-05-13
CN104796696A (zh) 2015-07-22
CN104796697A (zh) 2015-07-22
CA3079335C (en) 2021-10-26
CA2920090A1 (en) 2011-07-21
JP6151821B2 (ja) 2017-06-21
BR122021004147B1 (pt) 2022-02-22
PH12016500681A1 (en) 2016-06-27
ZA201205736B (en) 2018-11-28
CN104811698B (zh) 2019-05-10
US9225987B2 (en) 2015-12-29
CA2786989A1 (en) 2011-07-21
US10582194B2 (en) 2020-03-03
ES2882694T3 (es) 2021-12-02
MY165529A (en) 2018-04-02
HUE050110T2 (hu) 2020-11-30
JP5933049B2 (ja) 2016-06-08
CN104811698A (zh) 2015-07-29
BR112012017407B1 (pt) 2021-12-07
CN102804777A (zh) 2012-11-28
US20110170593A1 (en) 2011-07-14
CA2920090C (en) 2018-06-26
WO2011087292A3 (en) 2011-12-01
SG182497A1 (en) 2012-08-30
DK3910942T3 (da) 2022-12-19
EP3032829A2 (en) 2016-06-15
CN104796697B (zh) 2018-04-27
US9894356B2 (en) 2018-02-13
EP2510693A2 (en) 2012-10-17
CN104811697B (zh) 2018-05-01
EP3573336A1 (en) 2019-11-27
BR112012017407A2 (pt) 2016-04-19
HUE055561T2 (hu) 2021-12-28
KR101675118B1 (ko) 2016-11-10
RU2517433C2 (ru) 2014-05-27
SG10201700227TA (en) 2017-02-27

Similar Documents

Publication Publication Date Title
ES2936026T3 (es) Procedimiento para decodificar vídeo en consideración del orden de salto y división
ES2577116T3 (es) Procedimiento y aparato de codificación de vídeo, y procedimiento y aparato de decodificación de vídeo
ES2793600T3 (es) Codificación de vídeo teniendo en cuenta la orden de exploración de unidades de codificación que tienen estructura jerárquica
ES2598106T3 (es) Procedimiento y aparato para codificar vídeo mediante predicción de movimiento usando partición arbitraria, y procedimiento y aparato para decodificar vídeo mediante predicción de movimiento usando partición arbitraria
ES2706573T3 (es) Procedimiento de decodificación de vídeo
ES2613647T3 (es) Procedimiento y aparato de codificación de vídeo y procedimiento y aparato de decodificación de vídeo, basándose en estructura jerárquica de unidad de codificación
ES2663805T3 (es) Procedimiento de decodificación de vídeo en base a la información de patrón de bloque codificado jerárquico
ES2791705T3 (es) Procedimiento de decodificación de una imagen
ES2699098T3 (es) Aparato de decodificación de vídeo usando unidad de transformación de estructura de árbol variable
ES2816059T3 (es) Procedimiento y aparato para la codificación de vídeo, correspondiente procedimiento para la decodificación de vídeo, vídeo acompañado de decodificación aritmética y señalización de coeficiente significativo en dos dimensiones
ES2834444T3 (es) Aparato para codificación y decodificación de vídeo basadas en unidad de datos jerárquica que comprende predicción de parámetro de cuantificación