MX2014000162A - Metodo y aparato para codificacion de entropia usando unidad de datos jerargicos, y metodo y aparato para decodificacion. - Google Patents

Metodo y aparato para codificacion de entropia usando unidad de datos jerargicos, y metodo y aparato para decodificacion.

Info

Publication number
MX2014000162A
MX2014000162A MX2014000162A MX2014000162A MX2014000162A MX 2014000162 A MX2014000162 A MX 2014000162A MX 2014000162 A MX2014000162 A MX 2014000162A MX 2014000162 A MX2014000162 A MX 2014000162A MX 2014000162 A MX2014000162 A MX 2014000162A
Authority
MX
Mexico
Prior art keywords
unit
coding
syntax element
data unit
units
Prior art date
Application number
MX2014000162A
Other languages
English (en)
Inventor
Tammy Lee
Jianle Chen
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2014000162A publication Critical patent/MX2014000162A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Se describen métodos y aparatos para codificar y decodificar video. El método de codificación de video, de acuerdo con la presente invención, comprende: codificar un video en la base de una unidad de datos jerárquica; determinar un modelo de contexto que se va a usar en la entropía - codificar un elemento de sintaxis de la unidad de datos en la base de al menos un punto adicional de información de la unidad de datos; y codificar por entropía el elemento de sintaxis usando el modelo de contexto determinado.

Description

METODO Y APARATO PARA CODIFICACION DE ENTROPIA USANDO UNIDAD DE DATOS JERARQUICOS, Y METODO Y APARATO PARA DECODIFICACION Campo de la Invención La presente invención se refiere a la codificación y decodificación de un video, y más en particular, a los elementos de sintaxis de codificación de entropía y de decodificación de entropía que forman datos de video.
Antecedentes de la Invención En métodos de compresión de imagen, como codificación de video avanzado (AVC, por sus siglas en inglés) MPEG-1, MPEG-2, y MPEG-4 H .264/MPEG-4 , una imagen se divide en una pluralidad de bloques que tienen tamaños predeterminados, y luego los datos residuales en una pluralidad de bloques que tienen tamaños predeterminados, y luego los datos residuales de los bloques se obtienen mediante la interpredicción o intrapredicción . Los datos residuales se comprimen mediante transformación, cuantificación, escaneo, codificación de longitud de ejecución, y codificación de entropía. Durante la codificación de entropía, un flujo de bits se saca mediante los elementos de sintaxis de codificación de entropía, como coeficientes de transformación de coseno discontinuo (DCT, por sus siglas en inglés) o vectores de movimiento. En términos de un decodificador, los elementos Ref. 245929 de sintaxis se extraen de un flujo de bits, y se realiza la decodificación con base en los elementos de sintaxis extraídos .
Sumario de la Invención Problema técnico La presente invención proporciona un método y aparato para combinar información adicional que incluye elementos de sintaxis para seleccionar un modelo de contexto que se va a usar para la codificación de entropía de elementos de sintaxis, codificando con entropía de manera eficiente y decodificando los elementos de sintaxis.
Solución técnica De acuerdo con una o más modalidades de la presente invención, un modelo de contexto para la codificación de entropía de un elemento de sintaxis de una unidad de datos de corriente basada en un elemento de sintaxis disponible de la unidad de datos de corriente.
Efectos ventajosos De acuerdo con una o más modalidades de la presente invención, un tamaño requerido de una memoria para almacenar información periférica prerrestaurada puede ser reducido al seleccionar un modelo de contexto basado en la información acerca de una unidad de datos que incluye un elemento de sintaxis de corriente, en lugar de usar la información periférica restaurada previamente.
Breve Descripción de las Figuras La figura 1 es un diagrama de bloques de un aparato de codificación de video de acuerdo con una modalidad de la presente invención.
La figura 2 es un diagrama de bloques de un aparato de decodificación de video de acuerdo con una modalidad de la presente invención.
La figura 3 es un diagrama para describir un concepto de unidades de decodificación de acuerdo con una modalidad de la presente invención.
La figura 4 es un diagrama de bloques detallado de un decodificador de imagen basado en unidades de codificación que tiene una estructura jerárquica de acuerdo con una modalidad de la presente invención.
La figura 5 es un diagrama de bloques detallado de un decodificador de imagen basado en unidades de coifiación que tienen una estructura jerárquico de acuerdo con una modalidad de la presente invención.
La figura 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con las profundidades, y particiones de acuerdo con una modalidad de la presente invención .
La figura 7 es un diagrama para describir una relación entre una unidad de codificación y unidades de transformación, de acuerdo con una modalidad de la presente invención.
La figura 8 es un diagrama para describir la información de codificación de unidades de codificación que corresponden a una profundidad codificada, de acuerdo con una modalidad de la presente invención.
La figura 9 es un diagrama de unidades de codificación más profundas de acuerdo con profundidades, de acuerdo con una modalidad de la presente invención.
Las figuras 10 a 12 son diagramas para describir una relación entre las unidades de codificación, unidades de predicción, y unidades de transformación, de acuerdo con una modalidad de la presente invención.
La figura 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación, de acuerdo con una información de modo de codificación de la Tabla 1.
La figura 14 es un diagrama de bloques de un aparato de codificación de entropía de acuerdo con una modalidad de la presente invención.
La figura 15 es un diagrama de bloques de un modelador de contexto de la figura 14.
La figura 16 es un diagrama para describir una unidad de datos que tiene una estructura jerárquica e información de separación de unidad de datos que tiene una estructura Jerárquica, de acuerdo con una modalidad de la presente invención.
Las figuras 17A y 17B son diagramas de referencia de símbolos que indican una estructura jerárquica de unidades de datos, de acuerdo con modalidades de la presente invención .
Las figuras 18A y 18B son diagramas de índices de contexto para determinar un modelo de contexto de acuerdo con una combinación de información adicional, de acuerdo con modalidades de la presente invención.
La figura 19 es un diagrama de referencia de un modelo de contexto de acuerdo con una modalidad de la presente invención.
La figura 20 es una gráfica de un valor de probabilidad de un símbolo más probable (MPS, por sus siglas en inglés) de acuerdo con una modalidad de la presente invención .
La figura 21 es un diagrama para describir una operación de codificación aritmética binaria realizada por un motor de codificación regular de la figura 14.
La figura 22 es un diagrama de flujo que ilustra un método de codificación de entropía de acuerdo con una modalidad de la presente invención.
La figura 23 es un diagrama de bloques de un aparato de codificación de entropía de acuerdo con una modalidad de la presente invención.
La figura 24 es un diagrama de flujo que ilustra un método de codificación de entropía de acuerdo con una modalidad de la presente invención.
Descripción Detallada de la Invención De acuerdo con un aspecto de la presente invención, se proporciona un método de codificación de video que incluye: codificación de video con base en unidades de datos que tienen una estructura jerárquica; determinar un modelo de contexto usado para codificación de entropía de un primer elemento de sintaxis de una unidad de datos de corriente que se la codificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos de corriente, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos de corriente; y codificar por entropía del primer elemento de sintaxis de la unidad de datos de corriente al usar el modelo de contexto determinado.
De acuerdo con otro aspecto de la presente invención, se proporciona un aparato de codificación de video que incluye: un codificador jerárquico para codificar un video con base en unidades de datos que tienen una estructura jerárquica; y un codificador de entropía para determinar un modelo de contexto usado para codificar por entropía un primer elemento de sintaxis de una unidad de datos de corriente que se va a codificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos de corriente, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos de corriente al usar el modelo de contexto determinado.
De acuerdo con otro aspecto de la presente invención, se proporciona un método de decodificación de video que incluye: extraer elementos de sintaxis de una imagen codificada con base en unidades de datos que tienen una estructura jerárquica al analizar un flujo de bits codificado; determinar un modelo de contexto usado para decodificar por entropía un primer elemento de sintaxis de una unidad de datos de corriente que se va a decodificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos de corriente, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidas de datos de corriente; y decodificar por entropía el primer elemento de sintaxis al usar el modelo de contexto determinado.
De acuerdo con otro aspecto de la presente invención, se proporciona un aparato de decodificación de video que incluye: un extractor de elemento de sintaxis para extraer elementos de sintaxis de una imagen codificada con base en las unidades de datos que tienen una estructura jerárquica al analizar un flujo de bits codificado; y un decodificador de entropía para determinar un modelo de contexto usado para decodificar por entropía un primer elemento de sintaxis de una unidad de datos de corriente que se va a decodificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos de corriente, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos de corriente, y decodificar por entropía el primer elemento de sintaxis al usar el modelo de contexto determinado.
Modo de la invención En lo siguiente, una "imagen" usada en varias modalidades de la presente invención puede no solo denotar una imagen inmóvil, sino también denotar una imagen en movimiento, como un video.
Cuando varias operaciones se realizan en datos relacionados con una imagen, los datos relacionados con una imagen pueden ser divididos en grupos de datos, y la misma operación puede ser realizada en los datos incluidos en el mismo grupo de datos. En los siguiente, un grupo de datos formados de acuerdo con un estándar predeterminado se refiere a una "unidad de datos" . Asimismo, una operación realizada de acuerdo con "unidades de datos" se realiza al usar datos incluidos en una unidad de datos correspondientes.
En lo siguiente, los métodos y aparatos de codificación y decodificación de videos para codificar y decodificara elementos de sintaxis que tienen una estructura de árbol con base en unidades de codificación de acuerdo con una estructura de árbol jerárquica, de acuerdo con modalidades de la presente invención se describirá con referencia a las figuras 1 a 13. Asimismo, la codificación de entropía y los procesos de decodificación usados en los método de codificación y decodificación de video de las figuras 1 a 14 se describirán en detalle con referencia a las figuras 14 a 24.
La figura 1 es un diagrama de bloques de un aparato de codificación de video 100 de acuerdo con una modalidad de la presente invención.
El aparato de codificación de video 100 incluye un codificador 110 y un codificador de entropía 120.
El codificador jerárquico 110 separa una imagen actual que se va a codificar en unidades de datos que tienen tamaños predeterminados, y codifica las unidades de datos. En detalle, el codificador jerárquico 110 puede separar una imagen actual con base en una unidad de codificación máxima. La unidad de codificación máxima de acuerdo con una modalidad de la presente invención puede ser una unidad de datos que tiene un tamaño de 32 x 32, 64 x 64, 128 x 128, 256 x 256, etc., en donde una forma de unidad de datos es un cuadrado que tiene una profundidad y una longitud que son cada una un múltiplo de 2 y mayor a 8.
Una unidad de codificación de acuerdo con una modalidad de la presente invención puede caracterizarse por un tamaño y profundidad máximos . La profundidad denota un número de veces que la unidad de codificación se separa espacialmente de la unidad de codificación máxima, y conforme la profundidad se hace más profunda, las unidades de codificación de más profundidad de acuerdo con las profundidades pueden separarse de la unidad de codificación máxima a una unidad de codificación mínima. Una profundidad de la unidad de codificación máxima es una profundidad más superior y una profundidad de la unidad de codificación mínima es una profundidad más baja. Ya que un tamaño de una unidad de codificación correspondiente a cada profundidad disminuye conforme la profundidad de la unidad de codificación máxima se hace más profunda, una unidad de codificación correspondiente a una profundidad superior puede incluir una pluralidad de unidades de codificación correspondientes a profundidades menores.
Como se describe arriba, los datos de imagen de la imagen actual se separan en las unidades de codificación máximas de acuerdo con un tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máximas puede incluir unidades de codificación más profundas que se separan de acuerdo con las profundidades . Debido a que una unidad de codificación máxima de acuerdo con una modalidad de presente invención se separa de acuerdo con las profundidades, los datos de imagen de un dominio espacial incluidos en la unidad de codificación máxima pueden clasificarse jerárquicamente de acuerdo con las profundidades .
Se pueden predeterminar una profundidad máxima y un tamaño máximo de una unidad de codificación, que limita el número total de veces y una profundidad de la unidad de codificación máxima se separa jerárquicamente.
El codificador jerárquico 110 codifica al menos una región de separación obtenida mediante separación de una región de la unidad de codificación máxima de acuerdo con las profundidades, y determina una profundidad para sacar datos de imagen codificados finalmente de acuerdo con al menos una región de separación. En otras palabras, el codificador jerárquico 110 determina una profundidad codificada al codificar los datos de imagen en las unidades de codificación más profundas de acuerdo con las profundidades, de acuerdo con la unidad de codificación máxima de la imagen actual, y seleccionar una profundidad que tiene al menos un error de codificación. Por consiguiente, los datos de imagen codificados de la unidad de codificación correspondientes a la profundidad codificada determinada se saca finalmente.
Asimismo, las unidades de codificación correspondientes a la profundidad codificada pueden ser vistas como unidades de codificación codificadas. La profundidad codificada determinada y los datos de imagen codificada de acuerdo con la profundidad codificada determinada se sacan al codificador de entropía 120.
Los datos de imagen en la unidad de codificación máxima se codifica con base en las unidades de codificación más profundas correspondientes al menos a una profundidad igual a o menor a la profundidad máxima, y los resultados de codificar los datos de imagen se comparan con base en cada una de la unidades codificación más profundas. Una profundidad que tiene al menos un error de codificación puede seleccionarse después de comparar errores de codificación de las unidades de codificación más profundas. Al menos una profundidad codificada puede ser seleccionada para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima se separa como una unidad de codificación y se separa jerárquicamente de acuerdo con las profundidades, y conforme el número de unidades incrementa. Asimismo, incluso si las unidades de codificación corresponden a la misma profundidad en una unidad de codificación máxima, se determina si separa cada una de las unidades de codificación correspondientes a la misma profundidad a una profundidad menor al medir un error de codificación de los datos de imagen de cada unidad de codificación, de manera separada. Por consiguiente, incluso si los datos de imagen se incluyen en una unidad de codificación máxima, los datos de imagen se separan en regiones de acuerdo con las profundidades y los errores de codificación pueden diferir de acuerdo con las regiones en una unidad de codificación máxima, y por consiguiente las profundidades codificadas pueden diferir de acuerdo con las regiones en los datos de imagen. Por lo tanto, una o más de las profundidades codificadas pueden ser determinadas en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima pueden ser divididos de acuerdo con unidades de codificación de al menos una profundidad codificada .
Por lo tanto, el codificador jerárquico 110 puede determinar las unidades de codificación que tiene una estructura de árbol incluida en la unidad de codificación máxima. Las unidades de codificación que tienen una estructura de árbol de acuerdo con una modalidad de la presente invención incluyen unidades de codificación correspondientes a una profundidad determinada para ser la profundidad codificada, de entre todas las unidades de codificación más profundas en la unidad de codificación máxima. Una unidad de codificación de una profundidad codificada puede ser jerárquicamente determinada de acuerdo con las profundidades en la misma región de la unidad de codificación máxima, y puede ser determinada independientemente en diferentes regiones. De manera similar, una profundidad codificada en una región actual puede determinarse de manera independiente de una profundidad codificada en otra región.
Una profundidad máxima de acuerdo con una modalidad de la presente invención es un índice relacionado con el nñumero de veces de separación de una unidad de codificación máxima a una unidad de codificación mínima. Una primera profundidad máxima de acuerdo con una modalidad de la presente invención puede denotar el número total de veces de separación de la unidad de codificación máxima a la unidad de codificación mínima. Una segunda profundidad máxima de acuerdo con una modalidad de la presente invención pude denotar el número total de niveles de profundidad de la unidad de codificación máxima a la unidad de codificación mínima. Por ejemplo, cuando una profundidad de la unidad de codificación máxima es 0, una profundidad de una unidad de codificación, en la que la unidad de codificación máxima se separa una vez, puede configurarse a l, y una profundidad de una unidad de codificación, en la que la unidad de codificación máxima se separa dos veces, puede configurarse a 2. Aquí, si la unidad de codificación mínima es una unidad de codificación en la que la unidad de codificación máxima se separa cuatro veces, 5 niveles de profundidad de profundidades 0, 1, 2, 3 y 4 existen, y por consiguiente la primera profundidad máxima puede configurarse a 4, y la segunda profundidad máxima puede configurarse a 5.
La codificación de predicción y la transformación pueden realizarse de acuerdo con la unidad de codificación máxima. La codificación de predicción y la transformación se realizan también con base en las unidades de codificación más profundas de acuerdo con una profundidad igual a o profundidades menores a la profundidad máxima, de acuerdo con la unidad de codificación máxima. La transformación puede realizarse de acuerdo con el método de transformación ortogonal o transformación de enteros.
Debido a que el número de unidades de codificación más profundas incrementa donde quiera que la unidad de codificación máxima se separe de acuerdo con las profundidades, la codificación que incluye la codificación de predicción y la transformación se realiza en todas las unidades de codificación más profundas generadas conforme la profundidad se hace más profunda. Para conveniencia de descripción, la codificación de predicción y la transformación se describirán ahora con base en la unidad de codificación de una profundidad actual, en una unidad de codificación máxima.
El aparato de codificación de video 100 puede seleccionar de manera variada un tamaño o forma de una unidad de datos para codificar los datos de imagen. Con el fin de codificar los datos de imagen, las operaciones, como la codificación de predicción, transformación, y codificación de entropía, se realizan, y al mismo tiempo, los mismos datos pueden usarse para todas las operaciones o unidades de datos diferentes pueden ser usadas para cada operación.
Por ejemplo, el aparato de codificación de video 100 puede seleccionar no solamente una unidad de codificación para codificar los datos de imagen, sino también una unidad de datos diferente de la unidad de codificación para realizar la codificación de predicción en los datos de imagen en la unidad de codificación.
Con el fin de realizar la codificación de predicción en la unidad de codificación máxima, la codificación de predicción puede realizarse con base en una unidad de codificación correspondiente a una profundidad codificada, es decir, con base en una unidad codificada que no se separa más en unidades de codificación correspondientes a una profundidad menor. En lo siguiente, la unidad de codificación que no se separa más y se vuelve una unidad base para la codificación de predicción ahora será referida como "unidad de predicción". Una partición obtenida al separar la unidad de predicción puede incluir una unidad de predicción o una unidad de datos obtenida al separar al menos una de una altura y una anchura de la unidad de predicción.
Por ejemplo, cuando la unidad de codificación 2Nx2N (en donde la N es un entero positivo) no se separa más y se vuelve una unidad de predicción de 2Nx2N, y un tamaño de una partición puede ser 2Nx2N, 2NxN, Nx2N, o NxN. Los ejemplos de un tipo de partición incluyen particiones simétricas que se obtienen al separar simétricamente una altura o anchura de la unidad de predicción, las particiones obtenidas al separar asimétricamente la altura o anchura de la unidad de predicción, como l:n o n:l, las particiones que se obtienen al separar geométricamente la unidad de predicción, y las particiones que tienen formas arbitrarias.
Un modo de predicción de la unidad de predicción puede ser al menos uno de un intramodo, un intermodo, y un modo de salto. Por ejemplo el intramodo o el intermodo puede ser realizado en la partición de 2Nx2N, 2NxN, Nx2N, o NxN. Asimismo, el modo de salto puede ser realizado solamente en la partición de 2Nx2N. La codificación se realiza de forma independiente en una unidad de predicción en una unidad de codificación, seleccionando así un modo de predicción que tiene al menos un error de codificación.
El aparato de codificación de video 100 puede también realizar la transformación en los datos de imagen en una unidad de codificación basada no sólo en la unidad de codificación para codificar los datos de imagen, sino también basada en una unidad de datos que es diferente de la unidad de codificación.
Con el fin de realizar la transformación en la unidad de codificación, la transformación puede ser realizada con base en una unidad de datos que tiene un tamaño menor o igual a la unidad de codificación. Por ejemplo, la unidad de datos para la transformación puede incluir una unidad de datos para un intramodo y una unidad de datos para un intermodo .
Una unidad de datos usada como una base de la transformación será ahora referida como "unidad de transformación" . Una profundidad de transformación que indica el número de veces de separación para llegar a la unidad de transformación al separar la altura y la profundidad de la unidad de codificación también puede configurarse en la unidad de transformación. Por ejemplo, en una unidad de codificación actual de 2Nx2N una profundidad de transformación puede ser 0 cuando el tamaño de una unidad de codificación de transformación es también 2Nx2N, puede ser 1 cuando cada una de la altura y profundidad de la unidad de codificación actual se separa en dos partes iguales, se separa totalmente en 4A1 unidades de transformación, y el tamaño de la unidad de transformación es por ende NxN, y puede ser 2 cuando cada una de la altura y profundidad de la unidad de codificación actual se separa en cuatro partes iguales, se separa totalmente en 4A2 unidades de transformación y el tamaño de la unidad de transformación es por ende N/2xN/2.Por ejemplo, la unidad de transformación puede configurarse de acuerdo con una estructura de árbol jerárquica, en la que una unidad de transformación de una profundidad de transformación superior se separa en cuatro unidades de transformación de una profundidad de transformación menor de acuerdo con las características jerárquicas de una profundidad de transformación.
De manera similar a la unidad de codificación, la unidad de transformación en la unidad de codificación puede separarse de manera recursiva en regiones disminuidas en tamaño, para que la unidad de transformación pueda ser determinada de manera independiente en unidades de regiones . Por consiguiente, los datos residuales en la unidad de codificación pueden dividirse de acuerdo a la transformación que tiene la estructura de árbol de acuerdo a las profundidades de transformación.
La información de codificación de acuerdo con las unidades de codificación correspondientes a una profundidad codificada requieren no sólo de información acerca de la profundidad codificada, sino también acerca de la información relacionada con la codificación de predicción y la transformación. Por consiguiente, el codificador jerárquico 110 no sólo determina una profundidad codificada que tiene al menos un error de codificación, sino también determina un tipo de partición en una unidad de predicción, un modo de predicción de acuerdo a unidades de predicción, y un tamaño de una unidad de transformación para transformación.
Las unidades de codificación de acuerdo a una estructura de árbol en una unidad de codificación máxima y un método para determinar una partición, de acuerdo a las modalidades de la presente invención, serán descritos en detalle a continuación con referencia a las figuras 3 a 12.
El codificador jerárquico 110 puede medir un error de codificación de unidades de codificación más profundas de acuerdo con las profundidades al usar Optimización de Distorsión de Velocidad con base en multiplicadores Lagrangianos .
El codificador de entropía 120 saca los datos de imagen de la unidad de codificación máxima que se codifica con base en al menos una profundidad codificada determinada por el determinador de unidad de codificación 120, y la información acerca del modo de codificación de acuerdo con la profundidad codificada en flujos de bits. Los datos de imagen codificados pueden ser obtenidos al codificar datos residuales de una imagen. La información acerca del modo de codificación de acuerdo con la profundidad codificada puede incluir información acerca de la profundidad codificada, del tipo de partición en la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformación. En detalle, como se describe a continuación el codificador de entropía 120 selecciona un modo de contexto basado en información adicional de una unidad de datos actual, tal como información acerca de la estructura jerárquica de las unidades de datos y acerca de un componente de color usado en un método de codificación de video, y realiza codificación de entropía, mientras codifica los datos de imagen de la unidad de codificación máxima y los elementos de sintaxis acerca del modo de codificación de acuerdo con las profundidades. Aquí, el codificador de entropía 120 puede determinar el modelo de contexto para codificar por entropía los elementos de sintaxis de la unidad de codificación actual al considerar información adicional de la unidad de codificación actual así como información adicional de una unidad de codificación adyacente. Un proceso de determinación del modelo de contexto para codificar por entropía los elementos de sintaxis será descrito en detalle más adelante.
La información acerca de la profundidad codificada puede ser definida al usar información de separación de acuerdo con las profundidades, que indica si la codificación se realiza en unidades de codificación de una profundidad menor en lugar de una profundidad actual . Si la profundidad actual en la unidad de codificación actual es la profundidad codificada, los datos de imagen en la unidad de codificación actual se codifican y se sacan, y por consiguiente la información de separación puede ser definida no para separar la unidad de codificación actual a una profundidad menor. De manera alterna, si la profundidad actual de la unidad de codificación actual no es la profundidad codificada, la codificación se realiza en la unidad de codificación de la profundidad menor, y por lo tanto la información de separación puede ser definida para separar la unidad de codificación actual para obtener las unidades de codificación de la profundidad menor.
Si la profundidad actual no es la profundidad codificada, la codificación se realiza en la unidad que se separa en la unidad de codificación de la profundidad menor. Debido a que al menos una unidad de codificación de la profundidad menor existe en una unidad de codificación de la profundidad actual, la codificación se realiza de manera repetitiva en cada unidad de codificación de la profundidad menor, y por lo tanto se puede realizar la codificación de manera recursiva para las unidades de codificación que tienen la misma profundidad.
Debido a que las unidades de codificación que tienen una estructura de árbol se determinan para una unidad de codificación máxima, y la información acerca de al menos un modo de codificación se determina para una unidad de codificación de una profundidad codificada, la información acerca de al menos un modo codificado puede determinarse para una unidad de codificación máxima. Asimismo, una profundidad codificada de los datos de imagen de la unidad de codificación máxima puede ser diferente de acuerdo a las ubicaciones ya que los datos de imagen se separan jerárquicamente de acuerdo a las profundidades, y por lo tanto la información acerca de la profundidad codificada y el modo codificado puede configurarse para los datos de imagen.
Por consiguiente, el codificador de entropía 120 puede asignar información de codificación acerca de una profundidad codificada correspondiente y un modo de codificación al menos a una unidad de codificación, unidad de predicción, y una unidad mínima incluida en la unidad de codificación máxima.
La unidad mínima de acuerdo con una modalidad de la presente invención puede ser una unidad de datos rectangular obtenida al separar la unidad de codificación mínima que constituye la profundidad más baja por 4, y puede ser una unidad de datos rectangular máxima que puede ser incluida en todas las unidades de codificación, unidades de predicción, unidades de partición, y unidades de transformación incluidas en la unidad de codificación máxima.
Por ejemplo, la salida de información de codificación a través del codificador de entropía 120 puede clasificarse en información de codificación de acuerdo con unidades de codificación, y la información de codificación de acuerdo con unidades de predicción. La información de codificación de acuerdo con las unidades de codificación puede incluir la información acerca del modo de predicción y acerca del tamaño de las particiones. La información de codificación de acuerdo con las unidades de predicción puede incluir información acerca de una dirección estimada de un intermodo, de un índice de imagen de referencia del intermodo, un vector de movimiento, un cromacomponente de un intramodo, y un método de interpolación del intramodo. Así mismo, la información acerca de un tamaño máximo de la unidad de codificación definida de acuerdo a las imágenes, tiras, o GOP, e información acerca de una profundidad máxima se puede insertar en una cabecera de un flujo de bits.
En el aparato de codificación de video 100, la unidad de codificación más profunda puede ser una unidad de codificación obtenida al dividir una altura o una anchura de una unidad de codificación de una profundidad superior, que es una capa por encima, por 2. En otras palabras, cuando el tamaño de la unidad de codificación de la profundidad actual es 2Nx2N, el tamaño de la unidad de codificación de la profundidad menor es NxN. Asimismo, la unidad de codificación de la profundidad actual que tiene el tamaño de 2Nx2N puede incluir máximo 4 de la unidad de codificación de la profundidad menor.
Por consiguiente el aparato de codificación de video 100 puede formar las unidades de codificación que tienen la estructura de árbol al determinar las unidades de codificación que tienen una forma óptima y un tamaño óptimo para cada unidad de codificación máxima, con base en el tamaño de la unidad de codificación máxima y la profundidad máxima determinada al considerar las características de la imagen actual. Asimismo, debido a que la codificación puede ser realizada en cada unidad de codificación máxima al usar cualquiera de los modos de predicción y las transformaciones, un modo de codificación óptimo puede ser determinado al considerar las características de la unidad de codificación de varios tamaños de imagen.
Por lo tanto, si una imagen que tiene alta resolución o grandes cantidades de datos se codifica en un macrobloque convencional, una cantidad de macrobloques por imagen incrementa excesivamente. Por consiguiente, un número de piezas de información comprimida generada para cada macrobloque incrementa, y por lo tanto es difícil transmitir la información comprimida y disminuye la eficiencia de la compresión de datos. Sin embargo, al usar el aparato de codificación de video 100 la eficiencia de compresión de imagen puede incrementarse debido a que la unidad de codificación se ajusta al mismo tiempo que se consideran las características de una imagen mientras se incrementa un 6 tamaño máximo de una unidad de codificación y mientras se considera un tamaño de la imagen.
La figura 2 es un diagrama de bloques de un aparato de decodificador de video 200 de acuerdo con una modalidad de la presente invención.
El aparato de decodificación de video 200 incluye un extractor de elemento de sintaxis 210, un decodificador de entropía 220, y un decodificador jerárquico 230. Las definiciones de varios términos, como una unidad de codificación, una profundidad, una unidad de predicción, una unidad de transformación, e información acerca de varios modo de codificación, para varias operaciones del aparato de codificación de video 200 son idénticas a aquellas escritas co referencia a la figura 1 y el aparato de codificación de video 100.
El extractor de elemento de sintaxis 210 recibe y analiza un flujo de bits de un video codificado. El decodificador de entropía 220 extrae los datos de imagen codificados para cada unidad de codificación del flujo de datos analizado, en donde las unidades de codificación tienen una estructura de árbol de acuerdo con cada unidad de codificación máxima, y saca los datos de imagen extraídos al decodificador jerárquico 230.
Asimismo, el decodificador de entropía 220 extrae información adicional acerca de una profundidad codificada, un modo de codificación, un componente de color, y un modo de predicción para las unidades de codificación que tienen una estructura de árbol de acuerdo con cada unidad de codificación máxima, del flujo de bits analizado. La información adicional extraída se saca al decodificador jerárquico 230. En otras palabras, los datos de imagen en un flujo de bits se separan en la unidad de codificación máxima y luego se codifican para que el decodificador jerárquico 230 decodifique los datos de imagen para cada unidad de codificación máxima.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con la unidad de codificación máxima puede configurarse para información acerca de al menos una unidad de codificación que corresponde a la profundidad codificada, y la información acerca de un modo de codificación puede incluir información acerca de un tipo de partición de una unidad de codificación que corresponde a la profundidad codificada, un modo de predicción, y un tamaño de una unidad de transformación. También separa la información de acuerdo a las profundidades que pueden ser extraídas como la información acerca de la profundidad codificada.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con cada unidad de codificación máxima extraída por el decodificador de entropía 220 es información acerca de una profundidad codificada y un modo de codificación determinado para generar un error de codificación mínimo cuando un codificador, como el aparato de codificación de video 100 realiza de manera repetida la codificación para la unidad de codificación más profunda de acuerdo con las profundidades basadas en cada unidad de codificación máxima. Por consiguiente, el aparato de codificación de video 200 puede restaurar una imagen al decodificar los datos de imagen de acuerdo con una profundidad codificada y un modo de codificación que genera el error de codificación mínimo.
Debido a que la información de codificación acerca de la profundidad codificada y el modo de codificación puede ser asignada a una unidad de datos predeterminada de entre una unidad de codificación correspondiente, una unidad de predicción, y una unidad mínima, el decodificador de entropía 220 puede extraer la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de datos predeterminadas. Las unidades de datos predeterminadas a las cuales la misma información acerca de la profundidad codificada y el modo de codificación se asignan pueden ser inferidas para ser unidades de datos incluidas en la misma unidad de codificación máxima.
En detalle, como se describe a continuación, el decodificador de entropía 220 selecciona un modo de contexto y realiza decodificación de entropía con base en varios tipos de información, como información acerca de una estructura jerárquica de unidades de datos antes descritas y acerca de componentes de color al mismo tiempo decodifica elementos de sintaxis.
El decodificador jerárquico 230 restaura la imagen actual al decodificar los datos de imagen en cada unidad de codificación máxima con base en la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máximas. En otras palabras, el decodificador de datos de imagen 230 puede decodificar los datos de imagen codificados con base en la información extraída acerca del tipo de partición, el modo de predicción, y la unidad de transformación para cada unidad de codificación de entre las unidades de codificación que tienen la estructura de árbol incluida en cada unidad de codificación máxima. Un proceso de decodificación puede incluir una predicción que incluye intraprediccion y movimiento de compensación, y una transformación inversa. La transformación inversa puede realizarse de acuerdo al método de trasformación octagonal inversa o transformación de enteros inversa.
El decodificador jerárquico 230 puede realizar intraprediccion o compensación de movimiento de acuerdo a una partición y un modo de predicción de cada unidad de codificación, con base en la información acerca del tipo de partición y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con las profundidades codificadas .
Asimismo, el decodificador jerárquico 230 puede realizar transformación inversa de acuerdo con cada unidad de transformación en la unidad de codificación, con base en la información acerca del tamaño de la unidad de transformación de la unidad de codificación de acuerdo con las profundidades codificadas, para realizar la transformación inversa de acuerdo con las unidades de codificación máximas.
El decodificador jerárquico 230 puede determinar al menos una profundidad codificada de una unidad de codificación máxima actual al usar información de separación de acuerdo con las profundidades. Si la información de separación indica que los datos de imagen ya no están separados en la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el decodificador jerárquico 230 puede decodificar los datos codificados de al menos una unidad de codificación que corresponde a cada profundidad codificada en la unidad de codificación máxima actual al usar la información acerca del tipo de partición de la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformación para cada unidad de codificación que corresponde a la profundidad codificada, y saca los datos de imagen de la unidad de codificación máxima actual.
En otras palabras, las unidades de datos que contienen la información de codificación incluyendo la misma información de separación pueden ser reunidas al observar el grupo de información de codificación asignado a la unidad de datos predeterminada de entre la unidad de codificación, la unidad de predicción, y la unidad mínima, y las unidades de datos reunidas pueden ser consideradas como una unidad de datos que va a ser decodificada por el decodificador jerárquico 230 en el mismo modo de codificación.
El aparto de decodificación de video 200 puede obtener información acerca de al menos una unidad de codificación que genera el error de codificación mínimo cuando la codificación se realiza de manera recursiva para cada unidad de codificación máxima, y puede usar la información para decodificar la imagen actual. En otras palabras, las unidades de codificación que tienen la estructura de árbol determinada para ser las unidades de codificación óptimas en cada unidad de codificación máxima pueden ser decodificadas . Asimismo, el tamaño máximo de la unidad de codificación es determinado al considerar la resolución y una cantidad de datos de imágenes.
Por consiguiente, incluso si los datos de imagen tienen alta resolución y una gran cantidad de datos, los datos de imagen puede ser decodificados de manera eficiente y restaurados al usar un tamaño de una unidad de codificación y un modo de codificación, que son determinados de manera adaptativa de acuerdo con las características de los datos de imagen, al usar información acerca de un modo de codificación óptimo recibido de un codificador.
Un método para determinar unidades de codificación que tiene una estructura de árbol, una unidad de predicción, y una unidad de transformación, de acuerdo a una modalidad de la presente invención, serán ahora descritas con referencia a las figuras 3 a 13.
La figura 3 es un diagrama para describir un concepto de unidades de codificación de acuerdo con una modalidad de la presente invención.
Un tamaño de unidad de codificación puede ser expresado en anchura x altura, y puede ser 64x64, 32x32, 16x16, y 8x8. Una unidad de codificación de 64x64 puede separarse en particiones de 64x64, 64x32, 32x64, o 32x32, y una unidad de codificación de 32x32 puede separarse en particiones de 32x32, 32x16, 16x32, o 16x16, una unidad de codificación de 16x16 puede separarse en particiones de 16x16, 16x8, 8x16, u 8x8, y una unidad de codificación de 8x8 puede separarse en particiones de 8x8, 8x4, 4x8, o 4x4.
En datos de video 310 una resolución es de 1920x1080, un tamaño máximo de una unidad de codificación es de 64, y una profundidad máxima es de 2. En datos de video 320, una resolución es de 1920x1080, un tamaño máximo de una unidad de codificación es de 64, y una profundidad máxima es de 3. En datos de video 330, una resolución es de 352x288, un tamaño máximo de una unidad de codificación es de 16, y una profundidad máxima es de 1. La profundidad máxima mostrada en la figura 3 denota un número total de separaciones de una unidad de codificación máxima a una unidad de codificación mínima .
Si una resolución es alta o una cantidad de datos es grande, un tamaño máximo de una unidad de codificación puede ser grande para incrementar la eficiencia de codificación y para reflejar de manera apropiada las características de una imagen. Por consiguiente, el tamaño máximo de la unidad de codificación de los datos de video 310 y 320 que tiene la resolución más alta que los datos de video 330 puede ser de 64.
Debido a que la profundidad máxima de los datos de video 310 es de 2, las unidades de codificación 315 de los datos de video 310 puede incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64 , y las unidades de codificación que tienen tamaños de eje largos de 32 y 16 debido a que las profundidades se hacen más profundas a dos capas al separar la unidad de codificación máxima al doble. En tanto, debido a que la profundidad máxima de los datos de video 330 es de 1, las unidades de codificación 335 de los datos de video 330 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 16, y las unidades de codificación que tienen un tamaño de eje largo de 8 debido a que las profundidades se hacen más profundas a una capa al separar la unidad de codificación máxima una vez.
Ya que la profundidad máxima de los datos de video 320 es de 3, las unidades de codificación 325 de los datos de video 320 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y las unidades de codificación que tienen tamaños de eje largo de 32, 16, y 8 debido a que las profundidades se hacen más profundas a 3 capas al separar la unidad de codificación máxima tres veces. Conforme se hace más profunda la profundidad, la información detallada puede expresarse de manera precisa.
La figura 4 es un diagrama de bloques detallado de un codificador de imagen 400 con base en las unidades de codificación que tiene una estructura jerárquica de acuerdo con una modalidad de la presente invención Un intrapredictor 410 realiza intrapredicción en unidades de codificación en un intramodo, de entre un marco actual 405, y un estimador de movimiento 420 y un compensador de movimiento 425 realiza interestimación y compensación de movimiento en unidades de codificación en un intermodo de entre el marco actual 405 al usar el marco actual 405, y un marco de referencia 495.
La salida de datos del intrapredictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 se sacan como un coeficiente de transformación cuantificado a través de un transformador 430 y un cuantificador 440. El coeficiente de transformación cuantificado se restaura como datos en un dominio espacial a través de un cuantificador inverso 460 y un transformador inverso 470, y los datos restaurados en el dominio espacial se sacan como el marco de referencia 495 después de postprocesarse a través de la unidad de desbloqueo 480 y una unidad de filtración de bucle 490. El coeficiente de transformación cuantificado puede ser sacado como un flujo de bits 455 a través de un codificador de entropía 450.
El codificador de entropía 450 selecciona un modelo de contexto y realiza la decodificación de entropía con base en varios tipos de información, como información acerca de una estructura jerárquica de unidades de datos y acerca de componentes de color, mientras codifica datos de imagen de una unidad de codificación máxima y elementos de sintaxis a cerca del modo de codificación de acuerdo con las profundidades .
Con el fin de que el codificador de imagen 400 se aplique en el aparato de codificación de video 100, todos los elementos del codificador de imagen 400, es decir, el intrapredictor 410, el estimador de movimiento 420, el compensador de movimiento 425, el transformador 430, el cuantificador 440, el codificador de entropía 450, el cuantificador inverso 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtración de bucle 490 realizan operaciones con base en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol mientras se considera la profundidad máxima de cada unidad de codificación máxima.
De manera específica, el intrapredictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 determinan las particiones y un modo de predicción de cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol mientras se considera el tamaño máximo y la profundidad máxima de una unidad de codificación máxima actual, y el transformador 430 determina el tamaño de la unidad de transformación en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol. Asimismo, el codificador de entropía 450 selecciona un modelo de contexto usado para codificar por entropía elementos y realiza la codificación de entropía, con base en varios tipos de información, como información acerca de una estructura jerárquica de unidades de datos y componentes de color, de acuerdo con los tipos de los elementos de sintaxis.
La figura 5 es un diagrama de bloques detallado de un decodificador de imagen 500 basado en unidades de codificación que tienen una estructura jerárquica de acuerdo con una modalidad de la presente invención.
Un analizador 510 analiza los datos de imagen codificados que van a ser decodificados y la información acerca de la codificación requerida para decodificar desde un flujo de bits 505. Los datos de imagen codificados se sacan como datos cuantificados inversos a través del decodificador de entropía 520 y un cuantificador inverso 530, y los datos cuantificados inversos se restauran a los datos de imagen en un dominio espacial a través de un transformador inverso 540.
Un intrapredictor 550 realiza intrapredicción en unidades de codificación en un intramodo con respecto a los datos de imagen en el dominio espacial, y un compensador de movimiento 560 realiza compensación de movimiento en unidades de codificación en un intramodo al usar un marco de referencia 585.
Los datos de imagen en el dominio espacial que se restauran mientras pasan a través del intrapredictor 550 y el compensador de movimiento 560 pueden postprocesarse a través de una unidad de desbloqueo 570 y una unidad de filtración de bucle 580 y pueden sacarse como un marco restaurado 595. Asimismo, los datos postprocesados a través de la unidad de desbloqueo 50 y la unidad de filtración de bucle 580 puede sacarse como el marco de referencia 585.
Con el fin de que el decodificador de imagen 500 se aplique en el aparato de decodificación 200, todos los elementos del decodificador de imagen 500, es decir, el analizador 510, el decodificador de entropía 520, el cuantificador inverso 530, el transformador inverso 540, el intrapredictor 550, el compensador de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtración de bucle 580 pueden realizar las operaciones de decodificación con base en las unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
De manera específica, la intrapredicción 550 y el compensador de movimiento 560 pueden determinar particiones y un modo de predicción para cada una de las unidades de codificación que tiene una estructura de árbol, y el transformador inverso 540 puede determinar un tamaño de una unidad de transformación para cada unidad de codificación. Asimismo, el decodificador de entropía 520 selecciona un modelo de contexto usado para decodificar por entropía datos de imagen que van a ser decodificados y elementos de sintaxis que indican información de codificación requerida para decodificar, y realiza la decodificación de entropía, con base en varios tipos de información, como información acerca de una estructura jerárquica de unidades de datos y componentes de color, de acuerdo con tipos de elementos de sintaxis .
La figura 6 es un diagrama que ilustra unidades de codificación más profundas de acuerdo con las profundidades, y particiones, de acuerdo con una modalidad de la presente invención.
El aparato de codificación de video 100 y el aparato de decodificación de video 200 usan unidades de codificación jerárquica para considerar las características de una imagen. Una altura máxima, una anchura máxima, y una profundidad máxima de unidades de codificación pueden determinarse de manera adaptativa de acuerdo con las características de imagen, o pueden configurarse de manera diferente mediante un usuario. Los tamaños de las unidades de codificación más profundas de acuerdo con profundidades pueden ser determinados de acuerdo con el tamaño máximo predeterminado de la unidad de codificación.
En una estructura jerárquica 600 de unidades de codificación, de acuerdo con una modalidad de la presente invención, la altura máxima y la anchura máxima de las unidades de codificación son cada una de 64, y la profundidad máxima es de 4. Debido a que una profundidad se hace más profunda a lo largo de un eje vertical de la estructura jerárquica 600, una altura y una anchura de la unidad de codificación más profunda se separan entre sí. Asimismo, una unidad de predicción y las particiones, que son bases de predicción que codifican cada unidad de codificación más profunda, se muestran a lo largo de un eje horizontal de la estructura jerárquica 600.
En otras palabras, una unidad de codificación 610 es una unidad de codificación máxima en la estructura jerárquica 600, en donde una profundidad es de 0 y un tamaño, es decir, una altura por anchura, es de 64x64. La profundidad de hace más profunda a lo largo del eje vertical, y una unidad de codificación 620 que tiene un tamaño de 32x32 y una profundidad de 1, una unidad de codificación 630 que tiene un tamaño de 16x16 y una profundidad de 2, una unidad de codificación 640 que tiene un tamaño de 8x8 y una profundidad de 3 , y una unidad de codificación 650 que tiene un tamaño de 4x4 y una profundidad de 4 existen. La unidad de codificación 650 que tiene el tamaño de 4x4 y la profundidad de 4 es una unidad de codificación mínima.
La unidad de predicción y las particiones de una unidad de codificación se colocan a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad de codificación 610 que tiene el tamaño de 64x64 y la profundidad de 0 es una unidad de predicción, la unidad de predicción puede separarse en particiones que se incluyen en la unidad de codificación 610, es decir, una partición 610 que tiene un tamaño de 64x64, particiones 612 que tienen el tamaño de 64x32, particiones 614 que tienen el tamaño de 32x64, o particiones 616 que tienen el tamaño de 32x32.
De manera similar, una unidad de predicción 620 que tiene el tamaño de 32x32 y la profundidad de 1 puede separarse en particiones incluidas en la unidad de codificación 620, es decir, una partición que tiene un tamaño de 32x32, particiones 622 que tienen un tamaño de 32x16, particiones 624 que tienen un tamaño de 16x32, y particiones 626 que tienen un tamaño de 16x16.
De manera similar, una unidad de predicción 630 que tiene el tamaño de 16x16 y la profundidad de 2 puede separarse en particiones incluidas en la unidad de codificación 630, es decir, una partición que tiene un tamaño de 16x16 incluida en la unidad de codificación 630, particiones 632 que tienen un tamaño de 16x8, particiones 634 que tienen un tamaño de 8x16, y particiones 636 que tienen un tamaño de 8x8.
De manera similar, una unidad de predicción 640 que tiene el tamaño de 8x8 y la profundidad de 3 puede separarse en particiones incluidas en la unidad de codificación 640, es decir, una partición que tiene un tamaño de 8x8 incluida en la unidad de codificación 640, particiones 642 que tienen un tamaño de 8x4, particiones 644 que tienen un tamaño de 4x8, y particiones 646 que tienen un tamaño de 4x4.
La unidad de codificación 650 que tiene el tamaño de 4x4 y la profundidad de 4 es la unidad de codificación mínima y una unidad de codificación de la profundidad más baja. Una unidad de predicción de la unidad de codificación 650 es solamente asignada a una partición que tiene un tamaño de 4x4.
Con el fin de determinar al menos una profundidad codificada de las unidades de codificación que constituyen la unidad de codificación máxima 610, el determinador de unidad de codificación 120 del aparato de codificación de video 100 realiza la codificación para codificar unidades que corresponden a cada profundidad incluida en la unidad de codificación máxima 610.
Un número de unidades de codificación más profundas de acuerdo con las profundidad que incluyen datos en el mismo intervalo y el mismo tamaño incrementa conforme la profundidad se hace más profunda. Por ejemplo, cuando unidades de codificación que corresponden a una profundidad de 2 se requieren para cubrir datos que se incluyen en una unidad de codificación que corresponde a una profundidad de 1. Por lo tanto, con el fin de comparar los resultados de codificación de los mismos datos de acuerdo con las profundidades, la unidad de codificación correspondiente a la profundidad de 1 y cuatro unidades de codificación correspondientes a la profundidad de 2 se codifican cada una.
Con el fin de realizar la codificación para una profundidad actual de entre las profundidades, al menos un error de codificación puede ser seleccionado para la profundidad actual al realizar la codificación para cada unidad de predicción en las unidades de codificación correspondientes a la profundidad actual, a lo largo del eje horizontal de la estructura jerárquica 600. De manera alternativa, el error de codificación mínimo puede ser buscado al comparar al menos errores de codificación de acuerdo con las profundidades, al realizar la codificación para cada profundidad conforme la profundidad se hace más profunda a lo largo del eje vertical de la estructura jerárquica 600. Una profundidad y una partición que tienen el error de codificación mínimo en la unidad de codificación 610 pueden seleccionarse como la profundidad codificada y un tipo de partición de la unidad de codificación 610.
La figura 7 es un diagrama para describir una relación entre una unidad de codificación 710 y unidades de transformación 720, de acuerdo con una modalidad de la presente invención.
El aparato de codificación de video 100 o 200 codifica o decodifica una imagen de acuerdo con unidades que tienen tamaños más pequeños o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de las unidades de transformación para la transformación durante la codificación pueden ser seleccionados con base en las unidades de datos que no son más largas que una unidad de codificación correspondiente.
Por ejemplo, en el aparato de codificación de video 100 o 200, si un tamaño de la unidad de codificación 710 es 64x64, la transformación puede ser realizada al usar las unidades de transformación 720 que tienen un tamaño 32x32.
Asimismo, los datos de la unidad de codificación 710 que tienen el tamaño de 64x64 pueden ser codificados al realizar la transformación en cada una de las unidades de transformación que tienen el tamaño de 32x32, 16x16, 8x8, y 4x4, que son más pequeñas que 64x64, y luego una unidad de transformación que tiene al menos un error de codificación puede ser seleccionada.
La figura 8 es un diagrama para describir la información de codificación de las unidades de codificación correspondientes a una profundidad codificada, de acuerdo con una modalidad de la presente invención.
La unidad de salida 130 del aparato de codificación de video 100 puede codificar y transmitir información 800 acerca de un tipo de partición, la información 810 acerca de un modo de predicción y la información 820 acerca de un tamaño de una unidad de transformación para cada unidad de codificación correspondiente a una profundidad codificada, como información acerca de un modo de codificación.
La información 800 indica información acerca de una forma de una partición obtenida al separar una unidad de predicción de una unidad de codificación actual, en donde la partición es una unidad de datos para la codificación de predicción de la unidad de codificación actual. Por ejemplo, una unidad de codificación actual CU_0 que tiene un tamaño de 2Nx2N puede separarse en cualquiera de una partición 802 que tiene un tamaño de 2Nx2N, una partición 804 que tiene un tamaño de 2Nx2N, una partición 806 que tiene un tamaño de Nx2N, y una partición 808 que tiene un tamaño de NxN. Aquí, la información 800 acerca de un tipo de partición se configura para indicar una de la partición 804 que tiene un tamaño de 2NxN, la partición 806 que tiene un tamaño de Nx2N, y la partición 808 que tiene un tamaño de NxN.
La información 810 indica un modo de predicción de cada partición. Por ejemplo, la información 810 puede indicar un modo de codificación de predicción realizado en una partición indicada por la información 800, es decir, un intramodo 812, un intermodo 814, o un modo de salto 816.
La información 820 indica una unidad de transformación que se va a basar en el momento en que se realiza la transformación en una unidad de codificación actual. Por ejemplo, la unidad de transformación puede ser una primera unidad de intratransformación 822, una segunda unidad de intratransformación 824, una primera unidad de intertransformación 826, o una segunda unidad de intratransformación 828.
Los datos de imagen y el extractor de información de codificación 220 del aparato de decodificación de video 200 puede extraer y usar la información 800, 810, y 820 para decodificar, de acuerdo con cada unidad de codificación más profunda .
La figura 9 es un diagrama de unidades de codificación más profundas de acuerdo con las profundidades, de acuerdo con una modalidad de la presente invención.
La información de separación puede usarse para indicar un cambio de profundidad. La información de separación indica si una unidad de codificación de una profundidad actual se separa en unidades de codificación una profundidad menor.
Una unidad de predicción 910 para codificar por predicción una unidad de codificación 900 que tiene una profundidad de 0 y un tamaño de 2N_0x2N_0 puede incluir particiones de un tipo de partición 912 que tiene un tamaño de 2N_0x2N_0, un tipo de partición 914 que tiene un tamaño de 2N_0xN_0, un tipo de partición 916 que tiene un tamaño de N_0x2N_O , y un tipo de partición 918 que tiene un tamaño de M_0xN_0. La figura 9 solamente ilustra los tipos de partición 912 a 918 que se obtienen al separar simétricamente la unidad de predicción 910, pero un tipo de partición no limita a ello, y las particiones de la unidad de predicción 910 pueden incluir particiones asimétricas, particiones que tienen una forma predeterminada, y particiones que tienen una forma geométrica .
La codificación de predicción se realiza de forma repetida en una partición que tiene un tamaño de 2N_0x2N_0 , dos particiones que tienen un tamaño de 2N_0xN_0 , dos particiones que tienen un tamaño de N_0x2N_0, u cuatro particiones que tienen un tamaño de N_0x _0, de acuerdo con cada tipo de partición. La codificación de predicción en intramodo y un intermodo pueden ser realizados en las particiones que tienen los tamaños de 2N_0x2N_0, N_0x2N_0, 2N_0xN_0, y N_0xN_0. La codificación de predicción en un modo de salto se realiza solamente en la partición que tiene el tamaño de 2N_0x2N_0.
Los errores de codificación que incluyen la codificación de predicción en los tipos de partición 912 a 918 se comparan, y al menos el error de codificación se determina de entre los tipos de particiones. Si un error de codificación es menor en uno de los tipos de partición 912 a 916, la unidad de predicción 910 puede no ser deparada en una profundidad menor.
Si el error de codificación es más chico en el tipo de partición 918, una profundidad es cambiada de 0 a 1 para separar el tipo de partición 918 en operación 920, y se realiza la codificación de manera repetida en unidades de codificación 930 que tienen una profundidad de 2 un tamaño de N_0xN_0 para buscar un error de codificación mínimo.
Una unidad de predicción 940 para codificar por predicción la unidad de codificación 930 que tiene una profundidad de 1 y un tamaño de 2N_lx2N_l (=N_0xN_0) puede incluir particiones de un tipo de partición 942 que tiene un tamaño de 2N_lx2N_l, un tipo de partición 944 que tiene un tamaño de 2N_lxN_l, un tipo de partición 946 que tiene un tamaño de N_lx2N_l, y un tipo de partición 948 que tiene un tamaño de N_lxN_l .
Si el error de codificación es menor en el tipo de partición 948, una profundidad se cambia de 1 a 2 para separar el tipo de partición 948 en operación 950, y la codificación se realiza de manera repetida en unidades de codificación 960, que tienen una profundidad de 2 y un tamaño de N_2x _2 para buscar un error de codificación mínimo.
Cuando una profundidad máxima es d, la operación de separación de acuerdo con cada profundidad puede realizarse hasta cuando una profundidad se vuelve d-1, y la información separación puede codificarse hasta cuando una profundidad es uno de 0 a d-2. En otras palabras, cuando la codificación se realiza hasta cuando la profundidad es d-1 después de una unidad de codificación correspondiente a una profundidad de d-2 se separa en operación 970, una unidad de predicción 990 para codificación de predicción de una unidad de codificación 980 que tiene una profundidad de d-1 y un tamaño de 2N_(d-1) x2N_ (d-1) puede incluir particiones de un tipo de partición 992 que tiene un tamaño de 2N_(d-l) x2N_(d-l) , un tipo de partición 994 que tiene un tamaño de 2N_(d-l) N_(d-l) , un tipo de partición 996 que tiene un tamaño de N_ (d-1) x2N_ (d-1), y un tipo de partición 998 que tiene un tamaño de N_(d-l)xN_(d-l) .
La codificación de predicción puede realizarse de manera repetida en una partición que tiene un tamaño de 2N_(d-l)x2N_(d-l) , dos particiones que tienen un tamaño de 2N_(d-l) xN_(d-l) , 2 particiones que tienen un tamaño de N_(d-l)x2N__(d-l), 4 particiones que tienen un tamaño de N_(d-l)xN_(d-l)de entre los tipos de partición 992 a 998 para buscar un tipo de partición que tiene un error de codificación mínimo.
Incluso cuando el tipo de partición 998 tiene el error de codificación mínimo, debido a que una profundidad máxima es de, una unidad de codificación CU_(d-l) que tiene una profundidad de d_l no se separa más a una profundidad menor, y una profundidad codificada para las unidades de codificación que constituyen una unidad de codificación máxima actual 900 es determinada para ser d-1 y un tipo de partición de la unidad de codificación máxima actual 900 puede ser determinada para ser N_(d-l)xN_(d-l) . Asimismo, debido a que la profundidad máxima es d y una unidad de codificación mínima 980 que tiene una profundidad más baja de d-1 no se separa más a una profundidad menor, no se configura la información de separación para la unidad de codificación mínima 980.
Una unidad de datos 999 puede ser "una unidad mínima" para la unidad de codificación máxima actual. Una unidad mínima de acuerdo con una modalidad de la presente invención puede ser una unidad de datos rectangular obtenida al separar una unidad de codificación mínima 980x4. al realizar la codificación de manera repetida, el aparato de codificación de video 100 puede seleccionar una profundidad que tiene al menos un error de codificación al comparar los errores de codificación de acuerdo con las profundidades de la unidad de codificación 900 para determinar una profundidad codificada, y configurar un tipo de partición correspondiente y un modo de predicción como un modo de codificación de la profundidad codificada.
Como tal, los errores de codificación mínimos de acuerdo con las profundidades se comparan en todas las profundidades de 1 a d, y una profundidad que tiene al menos un error de codificación puede ser determinada como una profundidad codificada. La profundidad codificada, el tipo de partición de la unidad de predicción, y el modo de predicción pueden ser codificados y transmitidos como información acerca de un modo de codificación. Asimismo, debido a que la unidad de codificación se separa de una profundidad de 0 a una profundidad codificada, solamente la información de separación de la profundidad codificada se configura a 0, y la información de separación de las profundidades que excluyen la profundidad codificada se configura a 1.
Los datos de imagen y el extractor de información de codificación 220 del aparato de decodificación de video 200 puede extraer y usar la información acerca de la profundidad codificada y la unidad de predicción de la unidad de codificación 900 para decodificar la partición 912. El aparato de decodificación de video 200 puede determinar una profundidad en la cual la información de separación es 0 como una profundidad codificada al usar información de separación de acuerdo con las profundidades, e información acerca de un modo de codificación de la profundidad correspondiente para decodificar .
Las figuras 10 a 12 son diagramas para describir una relación entre las unidades de codificación 1010, unidades de predicción 1060 y unidades de transformación 1070, de acuerdo con una modalidad de la presente invención.
Las unidades de codificación 1010 son unidades de codificación que tienen una estructura de árbol, que corresponde a las profundidades codificadas determinadas por el aparato de codificación de video 100, en una unidad de codificación máxima. Las unidades de predicción 1060 son particiones de unidades de predicción de cada una de las unidades de codificación 1010, y las unidades de transformación 1070 son unidades de transformación de cada una de las unidades de codificación 1010.
Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades de codificación 1010, las profundidades de las unidades de codificación 1012 y 1054 son 1, las profundidades de las unidades de codificación 1014, 1016, 1018, 1028, 1050, y 1052 son 2, las profundidades de unidades de codificación 1020, 1022, 1024, 1026, 1030, 1032, y 1048 son 3, y las profundidades de unidades de codificación 1040, 1042, 1044, y 1046 son 4.
En las unidades de predicción 1060 algunas de las unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, 1052, 1054 se obtienen al separar las unidades de codificación en las unidades de codificación 1010. En otras palabras, los tipos de partición en las unidades de codificación 1014, 1022, 1050, y 1054 tienen un tamaño de 2NxN, tipos de partición en las unidades de codificación 1016, 1048, y 1052 tienen un tamaño de Nx2N, y un tipo de partición de la unidad de codificación 1032 tiene un tamaño de NxN. Las unidades de predicción y las particiones de las unidades de codificación 1010 son menores o iguales a cada unidad de codificación.
La transformación o transformación inversa se realiza en datos de imagen de la unidad de codificación 1052 en las unidades de transformación 1070 en una unidad de datos que es menor a la unidad de codificación 1052. Asimismo las unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, y 1052 en las unidades de transformación 1070 son diferentes de aquellas en las unidades de predicción 1060 en términos de tamaños y formas. En otras palabras, los aparatos de codificación y decodificación 100 y 200 pueden realizar intrapredicción, estimación de movimiento, transformación, y transformación inversa de manera individual en una unidad de datos en la misma unidad de codificación.
Por consiguiente, la codificación se realiza de manera recursiva en cada una de las unidades de codificación que tiene una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y por consiguiente unidades de codificación que tienen una estructura de árbol pueden ser obtenidas. La información de codificación puede incluir información de separación acerca de una unidad de codificación, información acerca de un tipo de partición, información acerca de un modo de predicción, e información acerca de un tamaño de una unidad de transformación. La tabla 1 muestra la información de codificación que puede ser configurada por la codificación de video y los aparatos de codificación y de decodificación 100 y 200.
Tabla 1 codificador de entropía 120 del aparato codificación de video 100 puede sacar la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol y el decodif icador de entropía 210 del aparato de decodif icación 200 puede analizar un flujo de bits recibido y extraer la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol del flujo de bits recibido.
La información de separación indica si una unidad de codificación actual se separa o no en unidades de codificación de una profundidad menor. Si la información de separación de una profundidad actual d es 0, una profundidad, en la que una unidad de codificación actual no se separa más en una profundidad menor, es una profundidad codificada, y por lo tanto información acerca de un tipo de partición, modo de predicción, y un tamaño de una unidad de transformación pueden ser definidos por la profundidad codificada. Si la unidad de codificación actual se separa además de acuerdo con la información de separación, la codificación se realiza de manera independiente en cuatro unidades de codificación de separación de una profundidad menor.
Un modo de predicción puede ser uno de un intramodo, un intermodo, y un modo de salto. El intramodo y el intermodo pueden ser definidos en todos los tipos de partición y el modo de salto es definido solamente en un tipo de partición que tiene un tamaño de 2Nx2N.
La información acerca del tipo de partición puede indicar tipos de partición simétrica que tienen tamaños de 2Nx2N, 2NxN, Nx2N, y NxN, que se obtienen al separar simétricamente una altura o una anchura de una unidad de predicción, y tipos de partición asimétricos que tienen tamaños de 2NxnU, 2NxnD, nLx2N, y nRx2N, que se obtienen al separar asimétricamente la altura o anchura de la unidad de 6 predicción. Los tipos de partición asimétrica que tienen los tamaños de 2NxnU y 2NxnD pueden obtenerse respectivamente al separar la altura de la unidad de predicción en l:n y n:l, y los tipos de partición asimétrica que tienen los tamaños de nLx2N y nRx2N pueden ser obtenidos respectivamente al separar la anchura de la unidad de predicción en l:n y n:l. Aqui, n es un entero mayor a 1.
El tamaño de la unidad de transformación puede configurarse para ser 2 tipos en el intramodo y 2 tipos en el intermodo. En otras palabras si la información de separación de la unidad de transformación es 0, el tamaño de la unidad de transformación puede ser 2Nx2N, que es el tamaño de la unidad de codificación actual. Si la información de separación de la unidad de transformación es 1, las unidades de trasnformación pueden ser obtenidas al separar la unidad de codificación actual. Asimismo, si un tipo de partición de la unidad de codificación actual que tiene el tamaño de 2Nx2N es un tipo de partición simétrica, un tamaño de una unidad de transformación puede ser Nx , si el tipo de partición de la unidad de la codificación actual es un tipo de partición asimétrica, el tamaño de la unidad de transformación puede ser N/2xN/2.
La información de codificación acerca de las unidades de codificación que tiene una estructura de árbol puede incluir al menos una de una unidad de codificación que corresponde a una profundidad codificada, una unidad de predicción y una unidad mínima. La unidad de codificación que corresponde a la profundidad codificada puede incluir al menos una de una unidad de predicción y una unidad mínima que contiene la misma información de codificación.
Por consiguiente, se determina si las unidades de datos adyacentes se incluyen o no en la misma unidad de codificación que corresponde a la profundidad codificada al comparar información de codificación de las unidades de datos adyacentes. Asimismo, una unidad de codificación correspondiente a una profundidad codificada se determina al usar información de codificación de una unidad de datos, y por lo tanto una distribución de profundidades codificadas en una unidad de codificación máxima puede ser determinada.
Por lo tanto, si una unidad de codificación actual se predice con base en la información de codificación de las unidades de datos adyacentes, la información de codificación de las unidades de datos en unidades de codificación más profundas adyacentes a la unidad de codificación actual pueden ser directamente diferidas y usadas.
De manera alternativa, si una unidad de codificación de corriente se predice con base en la información de codificación de las unidades de datos adyacentes, las unidades de datos adyacentes a la unidad de codificación actual se buscan usando información codificada de las unidades de datos, y las unidades de codificación adyacentes puede ser referidas para predecir la unidad de codificación actual.
La figura 13 es un diagrama para describir una relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación, de acuerdo con una información de modo de codificación de la tabla 1.
Una unidad de codificación máxima 1300 incluye unidades de codificación 1302, 1304, 1306, 1312, 1314, 1316, y 1318, de profundidades codificadas. Aqui , debido a que la unidad de codificación 1318 es una unidad de codificación de una profundidad codificada, la información de separación puede configurarse a 0. La información a cerca de un tipo de partición de la unidad de codificación 1318 que tiene un tamaño de 2Nx2N puede configurarse para ser una de un tipo de partición 1322 que tiene un tamaño de 2Nx2N, un tipo de partición 1324 que tiene un tamaño de 2NxN, un tipo de partición 1326 que tiene un tamaño de Nx2N, un tipo de partición 1328 que tiene un tamaño de NxN, un tipo de partición 1332 que tiene un tamaño de 2NxnU, un tipo de partición 1334 que tiene un tamaño de 2NxnD, un tipo de partición 1336 que tiene un tamaño de nLx2N, y un tipo de partición 1338 que tiene un tamaño de nRx2N.
Cuando el tipo de partición se configura para ser simétrico, es decir el tipo de partición 1322, 1324, 1326, o 1328, una unidad de transformación 1342, que tiene un tamaño de 2Nx2N se configura si la información de separación (indicador de tamaño de TU) de una unidad de transformación es 0, y una unidad de tranformación 1344 que tiene un tamaño de NxN se configura si un indicador de tamaño de TU es 1.
Cuando el tipo de partición se configura para ser asimétrico, es decir, el tipo de partición 1332, 1334, 1336, o 1338, una unidad de transformación 1352 que tiene un tamaño de 2Nx2N se configura si un indicador de tamaño de TU es 0, y una unidad de transformación 1354 que tiene un tamaño de N/2xN/2 se configura si un indicador de tamaño de TU es 1.
El indicador de tamaño de TU de información de separación de unidad de transformación puede ser un tipo de un índice transformación, y un tamaño de una unidad de transformación que corresponde a un índice de transformación puede variar de acuerdo un tipo de unidad de predicción o un tipo de partición de una unidad de codificación.
Por ejemplo, cuando el tipo de partición se configura para ser simétrico, es decir, el tipo de partición 1322, 1324, 1326, o 1328, una unidad de transformación 1342 que tiene un tamaño de 2Nx2N, se configura si un indicador de tamaño de TU de una unidad de transformación es 0, y una unidad de transformación 1344 que tiene un tamaño de NxN se configura si un indicador de tamaño de TU es 1.
Cuando el tipo de partición se configura para ser asimétrico, es decir, el tipo de partición 1332, 1334, 1336, 0 1338, una unidad de transformación 1352 que tiene un tamaño de 2Nx2N se configura si un indicador de tamaño de TU es 0, y una unidad de transformación 1354 que tiene un tamaño de N/2xN/2 se configura si un indicador de tamaño de TU es 1.
Con referencia a la figura 9, el indicador de tamaño de TU es un indicador que tiene un valor o 0 o 1, pero el indicador de tamaño de TU no se limita a 1 bit, y una unidad de transofrmación puede separarse erárquicamente con una estructura de árbol mientras el indicador de tamaño de TU incrementa desde 0. El indicador de tamaño de TU puede usarse como un ejemplo de un índice de transformación.
En este caso, el tamaño de una unidad de transformación que ha sido usada actualmente puede expresarse al usar un indicador de tamaño de TU de una unidad de transofmración, junto con un tamaño máximo y un tamaño mínimo de la unidad de transformación. El aparato de codificación de video 100 es capas de codificar la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima, y un indicador de tamaño de TU máxima. El resultado de codificar la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima, y el indicador de tamaño de TU pueden insertarse en una SPS. El aparato de decodificación de video 200 puede decodificar video al usar la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima, y el indicador de tamaño de TU máxima.
Por ejemplo, si el tamaño de una unidad de codificación actual es 64x64 y un tamaño de unidad de transformación es 32x32, entonces el tamaño de una unidad de transformación puede ser 32x32 cuando un indicador de tamaño de TU es 0, puede ser 16x16 cuando el indicador de tamaño de TU es 1, y puede ser 8x8 cuando el indicador de tamaño de TU es 2.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 32x32 y un tamaño de unidad de transformación mínima es 32x32, entonces el tamaño de la unidad de transformación puede ser de 32x32 cuando el indicador de tamaño de TU es 0. Aquí, el indicador de tamaño de TU no puede configurarse a un valor diferente de 0, debido a que el tamaño de la unidad de transformación no puede ser menor de 32x32.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 64x64 y un indicador de tamaño de TU es 1, entonces el indicador de tamaño de TU puede ser de 0 o 1. Aquí, el indicador de tamaño de TU no puede configurarse a un valor diferente a 0 o 1.
Por lo tanto, si se define que el indicador de tamaño de TU máxima es "MaxTransformSizelndex" , un tamaño de unidad de transformación mínimo es "MinTransformSize" , y un tamaño de unidad de transformación es "RootTuSize" cuando el indicador de tamaño de TU es 0, entonces un tamaño de unidad de transformación mínimo actual "CurrMinTuSize" que puede ser determinado en una unidad de codificación de corriente, puede ser definido por la Ecuación (1) : CurrMinTuSize = max (MinTransformSize, RootTuSize/ (2AMaxTransformSizelndex) ) ...(1) En comparación con el tamaño de unidad de transformación mínimo "CurrMinTuSize" que puede ser determinado en la unidad de codificación actual, un tamaño de unidad de transformación "RootTuSize" cuando el indicador de tamaño de TU es 0 puede denotar un tamaño de unidad de transformación máximo que puede ser seleccionado en el sistema. En la Ecuación (1) , "RootTuSize/ (2AMaxTransformSizelndex) " denota un tamaño de unidad de transformación cuando el tamaño de unidad de transformación "RootTuSize", cuando el indicador de tamaño de TU es 0, se separa un número de veces correspondiente a el indicador de tamaño de TU, y "MinTransformSize" denota un tamaño de transformación mínimo. Por lo tanto, un valor menor de entre "RootTuSize/ (2AMaxTransformSizelndex) " y "MinTransformSize" puede ser el tamaño de unidad de transformación mínima actual "CurrMinTuSize" que puede ser determinado en la unidad de codificación actual.
El tamaño de unidad de transformación máximo RootTuSize puede variar de acuerdo con el tipo de modo de predicción.
Por ejemplo, si un modo de predicción actual es un intermdo, entonces "RootTuSize" puede ser determinado usando la Ecuación (2) de abajo. En la Ecuación (2), " axTransformSize" denota un tamaño de transformación mínimo, y "PUSize" denota un tamaño de unidad de predicción actual.
RootTuSize = min (MaxTransformSize, PUSize) (2) En otras palabras, si el modo de predicción actual es el intermodo, el tamaño de unidad de transformación "RootTuSize" cuando el indicador de tamaño de TU es 0, puede ser un valor menor de entre el tamaño de transformación máximo y el tamaño de unidad de predicción actual.
Si un modo de predicción de una unidad de partición actual es un intramodo, "RootTuSize" puede ser determinado al usar la Ecuación (3) de abajo. En la Ecuación (3), "PartitionSize" denota el tamaño de la unidad de partición actual.
RootTuSize = min (MaxTransformSize , PartitionSize) (3) En otras palabras, si el modo de predicción actual es el intramodo, el tamaño de unidad de transformación "RootTuSize" cuando el indicador de tamaño de TU es 0 puede se un valor menor de entre el tamaño de unidad de transformación máximo y el tamaño de la unidad de partición actual .
Sin embargo, el tamaño de transformación máximo actual "RootTuSize" que varía de acuerdo con el tipo de un modo de predicción en una unidad de partición es sólo un ejemplo y la presente invención no se limita a ello.
En lo siguiente, un proceso de codificación de entropía de un elemento de sintaxis, que se realiza mediante el codificador de entropía 120 del aparato de codificación de video 100 de la figura 1, y un proceso de codificación de entropía de un elemento de sintaxis, que se realiza mediante el decodificador 220 del aparato de decodificación de video 200 de la figura 2 se describirá en detalle.
Como se describe arriba, el aparato de decodificación de video 100 y el aparato de decodificación de video 200 de acuerdo con las modalidades de la presente invención realiza codificación y decodificación al separar una unidad de codificación máxima al usar una unidad de codificación igual o menor a la unidad de codificación máxima. Una unidad de predicción y una unidad de transformación usada durante la predicción y los procesos de transformación puede ser determinada con base en un costo independiente de otra unidad de datos. Como tal, las unidades de datos que tienen una estructura de árbol pueden ser configuradas al determinar una unidad de codificación óptima como la codificación se realiza de manera recursiva de acuerdo con las unidades de codificación que tienen una estructura jerárquica incluida en una unidad de codificación máxima. En otras palabras, las unidades de codificación que tienen una estructura de árbol, y las unidades de predicción y transformación que tienen una estructra de árbol pueden ser determinadas de acuerdo con una unidad de codificación máxima. Para decodificar, la información jerárquica que indica una estructura jerárquica de las unidades de datos, y la información diferente a la información jerárquica para decodificar pueden ser transmitidas.
La información jerárquica se requiere para determinar las unidades de codificación, las unidades de predicción, y las unidades de transformación que tienen las estructuras de árbol descritas arriba con referencia a las figuras 10 a 12, e incluye un tamaño de una unidad de codificación máximo, una profundidad codificada, información de partición de una unidad de predicción, un indicador de separación que indica si una unidad de codificación se separa, información de tamaño de una unidad de transformación, y un indicador de tamaño de TU si una unidad de transformación se separa. La información diferente a la información jerárquica incluye predicción de información de modo de intra/interpredicción aplicada a cada unidad de predicción, información de vector de movimiento, información de dirección de predicción, información de componente de color aplicada a una unidad de datos correspondiente cuando una pluralidad de componentes de color se usa, e información de textura, como un coeficiente de transformación. En lo siguiente, la información jerárquica y la información diferente a la información jerárquica transmitida para decodificar puede ser referida como elementos de sintaxis que se van a codificar por entropía.
La figura 14 es un diagrama de bloques de un aparato de codificación de entropía 1400 de acuerdo con una modalidad de la presente invención. El aparato de codificación de entropía 1400 corresponde al codificador de entropía 120 del aparato de codificación de video 100 de la figura 1.
Con referencia a la figura 14, el aparato de codificación de entropía 1400 incluye un binarizador 1410, un modelador de contexto 1420, y un codificador aritmético binario 1430. Asimismo, el codificador arimético binario 1430 incluye un motor de codificación regular 1432 y un motor de codificación de derivación 1434.
Los elementos de sintaxis introducidos al aparato de codificación de entropía 1400 pueden no ser un valor binario. Cuando los elementos de sintaxis no son un valor binario, el binarizador 1410 binariza los elementos de sintaxis y saca una secuencia de bins de valores binarios de O y 1. Un bin indica cada bit de una secuencia formada de 0 o 1, cada bin se codifica mediante codificación aritmética binaria adaptativa de contexto (CABAC, por sus siglas en inglés) . Cuando un elemento de sintaxis son datos en los cuales las frecuencias de 0 y 1 son las mismas, el elemento de sintaxis se saca al motor de codificación de derivación 1434 que no usa un valor de probabilidad, y se codifica.
El modelador de contexto 1420 proporciona un modelo de probabilidad de un símbolo de codificación actual al motor de codificación regular 1432. En detalle, el modelador de contexto 1420 saca una probabilidad binaria para codificar un valor binario del símbolo de codificación actual al codificador aritmético binario 1430. El símbolo de codificación actual denota un valor binario cuando un elemento de sintaxis actual que se va a codificar es binarizado .
Con el fin de determinar un modelo de contexto para un primer elemento de sintaxis de una unidad de codificación actual que se va a codificar, el modelador de contexto 1420 puede determinar un modelo de contexto que se va a aplicar al primer elemento de sintaxis basado en la información acerca de un segundo elemento de sintaxis que se puede usar en la misma unidad de codificación actual y diferente del primer elemento de sintaxis. En general H.264 estándares, con el fin de determinar un modelo de contexto para un cierto elemento de sintaxis de un bloque actual, la información acerca de un elemento de sintaxis que es igual al elemento de sintaxis obtenido de un bloque cercano, y un contexto que se va a aplicar al elemento de sintaxis es determinado. Sin embargo, para determinar un modelo de contexto para la codificación de entropía general como tal, un mismo tipo de elemento de sintaxis es obtenido de un bloque cercano, y por consiguiente tal elemento de sintaxis del bloque cercano necesita almacenarse en una memoria predeterminada en un sistema y la memoria predeterminada necesita ser accesada para determinar un modelo de contexto para la codificación de entropía de un elemento de sintaxis de un bloque actual. Sin embargo, de acuerdo con una modalidad de la presente invención, el modelador de contexto 1420 no usa información acerca de una unidad de codificación cercana pero selecciona un modelo de contexto para codificar por entropía un primer elemento de sintaxis al usar un segundo elemento de sintaxis en una unidad de codificación actual, y por lo tanto un número de acceso a una memoria puede ser reducido y un tamaño de la memoria para almacenar elementos de sintaxis puede ser reducido .
Asimismo, como se describe abajo, el modelador de contexto 1420 puede obtener un primer elemento de sintaxis que tiene el mismo tipo que el primer elemento de sintaxis de la unidad de codificación actual de una unidad de codificación cercana, y determina un modelo de contexto para codificar por entropía el primer elemento de sintaxis de la unidad de codificación actual al combinar el segundo elemento de sintaxis obtenido de la unidad de codificación actual y el primer elemento de sintaxis obtenido de la unidad de codificación actual y el primer elemento de sintaxis obtenido de la unidad de codificación cercana.
Un modelo de contexto es un modelo de probabilidad de unbin, e incluye información acerca de uno de 0 y 1 que corresponde a un MPS y un LPS, y una probabilidad de MPs o LPS .
El motor de codificación regular 1432 realiza codificación aritmética binaria en un símbolo de codificación actual con base en información acerca de MPS y LPS, e información acerca de la probabilidad de MPS o LPS proporcionada del modelador de contexto 1420.
Un proceso para determinar un modelo de contexto para codificar por entropía elementos de sintaxis, que se realiza mediante el modelador de contexto 1420 de la figura 14 será ahora descrito en detalle.
La figura 15 es un diagrama de bloques del modelador de contexto 1420 de la figura 14.
Con referencia a la figura 15, el modelador de contexto 1420 incluye un obtenedor de información adicional 1421 y un determinador de modelo de probabilidad 1422.
El obtenedor de información adicional 1421 obtiene información acerca de los segundo elementos de sintaxis de una unidad de codificación actual que se puede usar mientras se codifica por entropía un primer elemento de sintaxis de unidad de datos actual. Por ejemplo, el segundo elemento de sintaxis incluye información acerca de un tamaño de la unidad de datos actual, la información de tamaño relativa que indica un tamaño relativo de la unidad de datos actual incluye el primer elemento de sintaxis en relación con una unidad de datos en una capa superior y tiene un tamaño más grande que la unidad de datos actual, la información de tipo de color de la imagen de color a la cual la unidad de datos pertenece, y la información de modo de predicción. El segundo elemento de sintaxis es información adicional de la unidad de codificación actual útil en el punto de tiempo en que el primer elemento de sintaxis se codificó por entropía.
El determinador de modelo de probabilidad 1422 determina un modelo de contexto usado para codificar por entropía un primer modelo de sintaxis en información adicional obtenida acerca de los segundos elementos de sintaxis. En detalle, cuando un segundo elemento de sintaxis que se puede usar en la codificación de entropía de un primer elemento de sintaxis que se codifica actualmente tiene "a" valores de estado, en donde "a" es un entero positivo, el determinador de modelo de probabilidad 1422 detemrina un índice de contexto que indica uno de 11a" modelos de contexto de acuerdo con los valores de estado del segundo elemento de sintaxis para detemrinar un modelo de contexto usado para codificar por entropía un primer elemento de sintaxis de una unidad de codificación actual. Por ejemplo, cuando un tamaño de una unidad de datos actual a la cual un primer elemento de sintaxis que se codifica actualmente tiene 5 valores de estado de 2x2, 4x4, 8x8, 16x16, 32x32, y 64x64, y el tamaño de la unidad de datos actual se usa como un segundo elemento de sintaxis, el determinador de modelo de probabilidad 1422 puede configurar 5 o menos modelos de contexto de acuerdo con el tamaño de la unidad de datos actual que es el segundo elemento de sintaxis, y puede determinar y sacar un índice de contexto que indica un modelo de contexto usado durante la codificación por entropía que codifica el primer elemento de sintaxis de la unidad de datos actual con base en el tamaño de datos actual, es decir, el segundo elemento de sintaxis.
De manera alternativa el determinador de modelo de probabilidad 1422 puede determinar un modelo de contexto para codificar por entropía un primer elemento de sintaxis de una unidad de codificación actual al usar una pluralidad de segundos elementos de sintaxis. En detalle, cuando n denota un número de segundos elementos de sintaxis usado para determinar un modelo de contexto, en donde n denota un entero, y ai denota un número de valores de estado de cada uno de n de elementos de sintaxis, en donde i es un entero de 1 a n, un modelo de contexto usado para codificar por entropía el primer elemento de sintaxis puede determinarse de entre una pluralidad de modelos de contexto con base en ai*a2* ... *an que es un número de combinaciones de los valores de estado de los segundos elementos de sintaxis.
Por ejemplo, cuando se asume que un indicador CBF "coded_block_flag" que es un indicador que indica si un coeficiente de transformación no cero existe o no en una unidad de transformación tiene 12 modelos de contexto, un modelo de contexto para codificar por entropía un indicador CBF de una unidad de transformación actual puede determinarse con base en una información de componente de color de una imagen a la cual pertenece la unidad de transformación actual, e información de tamaño de la unidad de transformación actual. Se asume que la información de componente de color es una de Y, Cb, y Cr, y un índice de "color_type_index" que indica un componente de color que se confirgura a 0, 1, y 2 respectivamente con respecto a Y, Cb, y Cr. Asimismo, se asume que un índice "TU_Block_size_index" que indica un tamaño de una unidad de transformación se configura a 0, 1, 2, y 3 respectivamente con respecto a 4x4, 8x8, 16x16, y 32x32. En este caso, el determinador de modelo de probabilidad 1422 puede obtener un índice de contexto Ctxldx que indica un modelo de contexto para codificación de entropía de el indicador CBF de la unidad de transformación actual al usar el índice "color_type_index" y el índice "TU_Block_size_index" , que son otros elementos de sintaxis, de acuerdo con una ecuación: Ctxldx = color_type_index*4 + TU_Block_size_index . Como se describe arriba, al seleccionar un modelo de contexto usando información acerca de los elementos de sintaxis en la misma unidad de codificación actual, un número de acceso a la una memoria y un tamaño de la memoria pueden ser reducidos.
En el ejemplo de arriba, un indicador CBF usa información de tamaño de una unidad de transformación e información de componente de color, pero un primer elemento de sintaxis para ser codificado por entropía y un segundo elemento de sintaxis usado para seleccionar un modelo de contexto puede ser configurado de manera variada al usar información adicional útil actual de una unidad de datos.
El obtenedor de información adicional 1421 obtiene un primer elemento de sintaxis que es del mismo tipo que el primer elemento de sintaxis que se va a codificar por entropía, de una unidad de datos cercanos de la unidad de datos actual, así como la información adicional de la unidad de datos actual. El determinador de modelo de probabilidad 1422 puede determinar un modelo de probabilidad para codificar por entropía el primer elemento de sintaxis de la unidad de datos actual al usar el segundo elemento de sintaxis de la unidad de codificación actual, que es diferente del primer elemento de sintaxis obtenido de la unidad de codificación cercana. Por ejemplo, se asume que el primer elemento de sintaxis de la unidad de datos actual que se va a codificar se un indicador de separación que indica si la unidad de datos actual se separa. En este caso, el determinador de modelo de probabilidad 1422 puede obtener un indicador de separación de una unidad cercana superior o izquierda, y seleccionar un modelo de contexto para codificar por entropía un indicador de separación de la unidad de datos actual a través de una ecuación: ctxldx = split_flag_left + (longitud>>l) , al usar otros elementos de sintaxis excluyendo un indicador de separación "split_flag_neighbor" de una unidad de datos cercana y el indicador de separación de la unidad de datos actual, por ejemplo, al usar una profundidad de la unidad de datos actual, como el segundo elemento de sintaxis. Mientras tanto, el obtenedor de información adicional 1421 puede obtener información acerca del primer elemento de sintaxis que tiene el mismo tipo de primer elemento de sintaxis de la unidad de datos actual de la unidad de datos cercana izquierda de la unidad de datos actual con el fin de codificar por entropía el primer elemento de sintaxis de la unidad de datos actual. Debido a que la información acerca de la unidad de datos se almacena por lo general en y se lee desde una memoria de almacenamiento en una unidad de línea, un tamaño de la memoria de almacenamiento puede reducirse al obtener información acerca de los primeros elementos de sintaxis de una unidad de datos actual y la unidad de datos cercanos izquierda de la unidad de datos actual en lugar de usar información acerca de los primeros elementos de sintaxis de una unidad de datos actual y una unidad de datos cercana de la unidad de datos actual. Asimismo, si se considera un orden de procesamiento del escáner de mapa de bits, etc., el tamaño de la memoria de almacenamiento puede ser reducido al usar información acerca de la unidad de datos cercanos de la unidad de datos actual, que está en la misma línea que la unidad de datos actual y procesada después de la unidad de datos actual, en lugar de usar información acerca de la unidad de datos cercana, mientras codifica por entropía el primer elemento de sintaxis de la unidad de datos actual.
Un proceso de codificación por entropía de información de unidades de codificación que tienen una estructura jerárquica descrita arriba con referencia a las figuras 1 a 13, como un primer elemento de sintaxis se describirá ahora en detalle.
La figura 16 es un diagrama para describir una unidad de datos 1600 que tienen una estructura jerárquica y una información de separación de unidad de datos 33 que tiene una estructura jerárquica, de acuerdo con una modalidad de la presente invención. Aquí, una unidad de datos puede ser cualquiera de una unidad de codificación, y una unidad de transformación descrita arriba.
Como se describe arriba, de acuerdo con una modalidad de la presente invención, la codificación se realiza al usar unidades de codificación, unidades de predicción, y unidades de transformación que tienen estructuras jerárquicas. En la figura 16, la unidad de datos 1600 que tiene un tamaño de NxN y en nivel 0 que es un nivel más superior en las unidades de datos 31a a 31d en nivel 1 que es un nivel inferior que el nivel más superior, y las unidades de datos 31a y 31d se separan respectivamente en unidades de datos 32a a 32d y 32e a 32h en el nivel 2 que es un nivel inferior al nivel 1. Un indicador de separación que indica si cada unidad de datos se separa en unidades de datos en un nivel inferior puede usarse como símbolo para indicar una estructura jerárquica de unidades de datos. Por ejemplo, cuando un indicador de separación es 0, la unidad de datos de actual puede no ser separada.
Como las unidades de datos 30, 31a a 31d a 32h forman una estructura jerárquica, la información de separación de las unidades de transformación 30, 31a a 31d, y 32a a 32h pueden también formar una estructura jerárquica. En otras palabras, la información de separación más superior 33 incluye información de separación de unidad de datos 34 en nivel O que es un nivel más superior, la información de separación de unidad 35a a 35d en nivel 1, y la información de separación de unidad de datos 36a a 36h en nivel 2.
La información de separación de unidad de datos 34 en nivel 0 en la información de separación de unidad de datos 33 que tiene la estructura jerárquica denota que la unidad de datos 30 en nivel 0 se separa. De manera similar la información de separación de unidad de datos 35a y 35d en nivel 1 respectivamente denota que las unidades de datos 31a y 31d en nivel 1 se separan en las unidades de datos 32a a 32d y 32e a 32h en nivel 2.
Las unidades de datos 31b y 31c en nivel 1 no se separan más, y corresponden a nodos de hoja que no incluyen un nodo bebé en una estructura de árbol. De manera similar, las unidades de datos 32a a 32h en nivel 2 corresponden a nodos de hoja que no son más separados en niveles inferiores.
Como tal, un indicador de separación que indica si una unidad de datos en un nivel superior se separa en unidades de datos en niveles inferiores puede ser usada como un símbolo que indica una estructura jerárquica de las unidades de datos .
Mientras que la codificación de entropía de un indicador de separación indica una estructura jerárquica de unidades de datos, el codificador de entropía 120 puede codificar por entropía indicadors de separación de unidades de datos de todos los nodos que no tienen un nodo bebé.
Las figuras 17A y 17B son diagramas de referencia de símbolos que indican una estructura jerárquica de unidades de datos, de acuerdo con las modalidades de la presente invención.
En las figuras 17a y 17B se asume que un indicador es un indicador de separación de una unidad de datos que indica si una unidad de datos de cada nodo se separa en unidades de datos en un nivel inferior, en la información de separación de unidad de datos 3 de la figura 16. Con referencia a la figura 17A, el codificador de entropía 120 puede codificar por entropía las indicadors de separación flagO, flagla a flagld, y flag2a a flag2h de las unidades de datos 30, 31a a 31d, y 32a a 32h en todos los niveles. De manera alterna, como se muestra en la figura 17B, el codificador de entropía 120 puede codificar solamente las indicadors flaglb, flaglc, y flag2a a flag2h de las unidades de datos 31b, 31c, y 32a a 32h que corresponden a los nodos de hoja que no tienen un nodo bebé, porque se determina si una unidad de datos en un nivel superior se separa con base en si un indicador de separación existe en una unidad de datos en un nivel inferior. Por ejemplo, en la figura 17B, cuando las indicadors de separación flag2a a flag2d de las unidades de datos 32a a 32d en nivel 2 existen, las unidad de datos 31a en nivel 1 que es el nivel superior del nivel 2 se separa obviamente en las unidades de datos 32a a 32b, y por o tanto el indicador de separación flagla de la unidad de datos 31a puede no ser codificada.
El aparato de decodificación de video 200 determina una estructura jerárquica de unidades de datos al extraer y leer las indicadors de separación flagla a flagld, y flag2a a flag2h de las unidades de datos 30, 31a a 31d, y 32a a 32h en todos los niveles, de acuerdo con un modo de decodificación jerárquica de símbolo. De manera alternativa, cuando solamente las indicadors de separación flaglb, flaglc y flag2a a flag2c de las unidades de datos 31b, 31c y 32a a 32h que corresponden a los nodos de hoja se codifican, el aparato de decodificación de video 200 puede determinar una estructura jerárquica de unidades de datos al determinar las indicadors de separación flagO y flagla a flagld de las unidades de datos 30 y 31a a 31d que no están codificadas, con base en las indicadors de separación extraídas flaglb, flaglc y flag2a a flag2h.
El modelador de contexto 1420 puede determinar una de una pluralidad de modelos de contexto para codificar por entropía las indicadors de separación que indican una estructura jerárquica de unidades de datos, con base en valores de estado de acuerdo con una combinación de información adicional.
Las figuras 18A y 18B son diagramas de índices de contextos para determinar un modelo de contexto de acuerdo con una combinación de información adicional, de acuerdo con modalidades de la presente invención.
Con referencia a la figura 18A, el modelador de contexto 1420 puede determinar un modelo de contexto para ser usado para codificar por entropía un indicador de separación de una unidad de datos actual, con base en otra información adicional que excluye un indicador de separación de una unidad de datos. Cuando se asume que n piezas de información adicional, cada una tiene ai valores de estado, en donde ai es un entero e i es un entero de 1 a n, el modelador 1420 puede determinar un modelo de contexto que va a ser usado para codificar por entropía un indicador de separación de entre una pluralidad de modelos de contexto con base en un índice de contexto Ctxldx determinado de acuerdo con una combinación de aixa2x...xan valores de estado. Como se muestra en las figuras 18A, cuando se asume que los valores de a1xa2x...xan respectivamente tienen valores de combinación de Si, S2, y Sm, un índice de contexto se determina con base en tales valores de estado m de (Si, S2, · · ·, y Sm) .
De manera alternativa, como se muestra en la figura 18B, el modelador de contexto 1420 puede determinar un índice de contexto de acuerdo con un valor de combinación de la información adicional al agrupar los valores de estado m de (Si, S2, ... , y SJ - La figura 19 es un diagrama de referencia de un modelo de contexto de acuerdo con una modalidad de la presente invención.
El determinador de modelo de probabilidad 1422 determina y saca información acerca de señales binarias a un MPS y LPS de entre señales binarias de 0 y 1, y acerca de un valor de probabilidad de MPS o LPS al usar el índice de contexto Ctxldx determinado de acuerdo con la combinación de la información adicional. Con referencia a la figura 19, el determinador de modelo de probabilidad 1422 almacena probabilidades de señales binarias en una tabla de búsqueda 1900, y saca información acerca de un valor de probabilidad que corresponde al índice de contexto Ctxldx determinado de acuerdo con la combinación de información adicional al motor de codificación regular 1432. En detalle, cuando un índice de contexto Ctxldx que indica un modelo de contexto que se va a aplicar a un símbolo actual se determina con base en la combinación de información adicional de una unidad de datos actual, el determinador de modelo de probabilidad 1422 puede determinar un índice pStateldx de una tabla de probabilidad que corresponde al índice de contexto Ctxldx y una señal binaria que corresponde a un MPS. Asimismo, el modelador de contexto 1420 puede determinar de manera similar un modelos de contexto para codificar por entropía un elemento de sintaxis de una unidad de datos actual de entre una pluralidad de modos de contexto, de acuerdo con una combinación de información adicional de la unidad de datos actual e información adicional de una unidad de datos cercanos adyacentes a la unidad de datos actual .
La figura 20 es una gráfica de un valor de probabilidad de un MPS de acuerdo con una modalidad de la presente invención.
Una tabla de probabilidad que muestra los valores de probabilidad de un MPS, y cuando un índice pStateldx de la tabla de la probabilidad es asignado, un valor de probabilidad de un MPS correspondiente es determinado. Por ejemplo, cuando el modelador de contexto 1420 determina y saca un índice de contexto Ctxldx de un modelo de contexto que se va a usar para codificar un símbolo actual a l, el determinador de modelo de probabilidad 1422 determina el índice pStateldx para que sea 7 y el MPS para que sea 0 que corresponde al índice de contexto Ctxldx 1 de entre los modelos de contexto mostrados en la figura 19. Asimismo, el determinador de modelo de probabilidad 1422 determina un valor de probabilidad del MPS que corresponde al índice pStatelndx 7 de entre los valores de probabilidad del MPS preconfigurado como se muestra en la figura 20. Debido a que en la suma de los valores de probabilidad de MPS y LPS es 1, una vez que el valor de probabilidad MPS o LPS es determinado, el valor de probabilidad restante puede ser determinado .
Mientras tanto, el determinador de modelo de probabilidad 1422 puede actualizar el índice pStateldx con base en cuál de MPS y LPS se codifica donde quiera que un bin sea codificado por el motor de codificación regular 1432, actualizando asi los valores de probabilidad de MPS y LPS mientras se considera una estadística de generación de una señal binaria. Por ejemplo, el determinador de modelo de probabilidad 1422 puede configurar transldxMPS que es un valor del índice pStateldx después de una actualización mientras se codifica el LPS en una forma de una tabla de búsqueda y se consideran los resultados de codificación del motor de codificación regular 1432, y luego actualizan el índice pStateldx para codificar la operación de cambio del valor de probabilidad del MPS.
El motor de codificación regular 1432 codifica por entropía y saca una señal binaria de un símbolo acerca de un elemento de sintaxis actual con base en la información acerca de una señal binaria y el valor de probabilidad que corresponde a MPS o LPS.
La figura 21 es un diagrama para describir una operación de codificación aritmética binaria realizada por el motor de codificación regular 1430 de la figura 14. En la figura 21 se asume que un indicador de separación que indica una estructura jerárquica de unidades de datos tiene un valor binario de 010, una probabilidad de 1 es 0.2, y una probabilidad de 0 es 0.8. Aquí, las probabilidades de 1 y 0 se actualizan siempre que un valor binario sea modificado, pero por conveniencia de la descripción se asume que las probabilidades están fijas.
Con referencia a la figura 21 cuando un valor bin inicial "0" se codifica de entre un valor binario "010 [0.0 a 0.8] se configura como una nueva sección. En un número binario 0.11 que corresponde a un número real 0.75 entre la sección final [0.64-0.768], "11" abajo de un punto decimal se saca en un flujo de bits que corresponde al valor binario" 010" del indicador de separación.
La figura 22 es un diagrama de flujo que ilustra un método de codificación de entropía de acuerdo con una modalidad de la presente invención.
Con referencia a la figura 22, el codificador jerárquico 110 codifica un video basado en unidades de datos que tienen una estructura jerárquica, en operación 2210. En operación 2220, el modelador de contexto 1420 determina un modelo de contexto que se va a usar para codificar por entropía un primer elemento de sintaxis de una unidad de datos actual que se va a codificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos actual, en donde el segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos actual . Como se describe arriba cuando un número de los segundos elementos de sintaxis es n, en donde n es un entero, y un número de valores de estado de cada uno de los n segundos elementos de sintaxis es ai, en donde i es un entero de 1 a n, el modelador de contexto 1420 puede determinar un modelo de contexto indicado mediante un índice de contexto Ctxldx determinado con base en ai*a2*...an que es un número de combinaciones de los valores de estado de los segundos elementos de sintaxis.
En operación 2230, el motor de codificación regular 1432 codifica por entropía el primer elemento de sintaxis de la unidad de datos actual al usar el modelo de contexto determinado .
La figura 23 es un diagrama de bloques de un aparato de decodificación de entropía 2300 de acuerdo con una modalidad de la presente invención.
Con referencia a la figura 23, el aparato de decodificación de entropía 2300 incluye un modelador de contexto 2310, un decodificador regular 2320, un decodificador de derivación 2330, y un desbinarizador 2340. El aparato de decodificación de entropía 2300 realiza procesos inversos del proceso de codificación de entropía realizado por el aparato de codificación de entropía 1400 descrito arriba.
Un símbolo codificado de acuerdo con una codificación de derivación se saca a y se decodifica por el decodificador de derivación 2330, y un símbolo codificado de acuerdo con una codificación regular se decodifica por el decodificador regular 2320. El decodificador regular 2320 realiza decodificación aritmética en un valor binario de un símbolo de codificación actual con base en un modelo de contexto proporcionado por el modelador de contexto 2310.
Como el modelador de contexto 1420 de la figura 14, el modelador de contexto 2310 determina un modelo de contexto usado para decodificar por entropía un primer elemento de sintaxis de una unidad de datos actual con base en al menos un segundo elemento de sintaxis de la unidad de datos actual, que se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos actual. Como se describe arriba, el modelador de contexto 2310 puede obtener información acerca de un primer elemento de sintaxis que tiene el mismo tipo que el primer elemento de sintaxis de la unidad de datos actual de una unidad de datos cercana adyacente a la unidad de datos actual, y determina el modelo de contexto para la decodificación por entropía del primer elemento de sintaxis de la unidad de datos actual al usar el primer elemento de sintaxis obtenido de la unidad de datos cercana y el segundo elemento de sintaxis obtenido de la unidad de datos actual .
Una operación del modelador de contexto 2310 de la figura 23 es el mismo que el modelador de contexto 1420 de la figura 14, excepto que la operación del modelador de contexto 2310 se realiza en términos de decodificación, y por lo tanto se omiten detalles en la presente.
El desbinarizador 2340 restaura las secuencias de bins mediante el decodificador regular 2320 o el decodificador de derivación 2330 a un elemento de sintaxis.
La figura 24 es un diagrama de flujo que ilustra un método de decodificación de entropía de acuerdo con una modalidad de la presente invención.
Con referencia a la figura 24, el extractor de elemento de sintaxis 210 extrae elementos de sintaxis de una imagen codificada con base en las unidades de datos que tienen una estructura jerárquica al analizar un flujo de bits codificado, en operación 2410. En operación 2420, el modelador de contexto 2310 del aparato de decodificación de entropía 2300 determina un modelo de contexto para decodificar por entropía un primer elemento de sintaxis de una unidad de datos actual para ser decodificada por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos actual, que se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos actual. Como se describe arriba el modelador de contexto 2310 puede obtener un primer elemento de sintaxis que tiene el mismo tipo que el primer elemento de sintaxis de la unidad de datos actual de una unidad de datos cercana de izquierda o superior de la unidad de datos actual, así como el segundo elemento de sintaxis de la unidad de datos actual, y selecciona el modelo de contexto para decodificar por entropía el primer elemento de sintaxis de la unidad de datos actual al combinar el primer elemento de sintaxis obtenido de la unidad de datos cercana de izquierda o superior y el segundo elemento de sintaxis obtenido de la unidad de datos actual. En operación 2430, el decodificador regular 2320 decodifica por entropía el primer elemento de sintaxis de la unidad de datos actual al usar el modelo de contexto determinado.
La invención también puede ser descrita como códigos legibles por computadora en un medio de grabación legible por computadora. El medio de grabación legible por computadora es cualquier dispositivo de almacenamiento de daos que pueda almacenar datos que puedan ser leídos por un sistema de computadora. Los ejemplos del medio de grabación legible por computadora incluyen memoria de sólo lectura (ROM, por sus siglas en inglés) , memoria de acceso aleatorio (RAM, por sus siglas en inglés), CD-ROMs, cintas magnéticas, discos flexibles, dispositivos de almacenamiento de datos ópticos, etc. El medio de grabación legible por computadora puede también ser distribuido por la red acoplada a los sistemas de computadora para que el código legible sea almacenado y ejecutado de manera distribuida.
Aunque esta invención a sido mostrada de manera particular y descrita con referencia a las modalidades preferidas de la misma, será entendido por aquellos con habilidad ordinaria en la técnica que varios cambios en la forma y los detalles pueden hacerse en la misma sin apartarse del espíritu y alcance de la invención como se define mediante las reivindicaciones anexas. Por lo tanto, el alcance de la invención es definido no por la descripción detallada de la invención sino por las reivindicaciones anexas, y todas las diferencias dentro del alcance serán construidas como se incluyen en la presente invención.
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones:
1. Un método de decodificación de video, caracterizado porque comprende: extraer elementos de sintaxis de una imagen codificada con base en unidades de datos que tienen una estructura jerárquica al analizar un flujo de bits codificado ; determinar un modelo de contexto usado para decodificar por entropía un primer elemento de sintaxis de una unidad de datos de corriente que se va a decodificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos de corriente, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidas de datos de corriente; y decodificar por entropía el primer elemento de sintaxis al usar el modelo de contexto determinado.
2. El método de decodificación de video de conformidad con la reivindicación 1, caracterizado porque determinar el modelo de contexto comprende: extraer, del flujo de bits codificado, información que Índica un tamaño de una unidad de codificación máxima al separar la imagen, una profundidad que indica un número de separaciones de la unidad de codificación, una partición usada para codificación de predicción de unidades de codificación que se estructuran jerárquicamente de acuerdo con la profundidad, y una estructura de unidades de transformación que tienen estructura jerárquica; y determinar unidades de codificación de acuerdo con una estructura de árbol que incluye unidades de codificación de una profundidad codificada, una partición para codificación de predicción para cada una de las unidades de codificación de la profundidad codificada y unidades de transformación de acuerdo con una estructura de árbol al realizar la transformación basada en las unidades de transformación que tiene una estructura jerárquica, de entre unidades de codificación más profundas estructuradas jerárquicamente de acuerdo con las profundidades que indican el número de separaciones espaciales de la unidad de codificación máxima, de acuerdo con al menos una unidad de codificación máxima, con base en la información extraída.
3. El método de decodificación de video de conformidad con la reivindicación 1, caracterizado porque al menos un segundo elemento de sintaxis comprende información acerca de un tamaño de la unidad de datos actual, información de tamaño relativa que indica un tamaño relativo de la unidad de datos actual que incluye el primer elemento de sintaxis en relación con una unidad de datos de un nivel mayor que tienen un tamaño más grande que la unidad de datos actual , información de tipo de color de una imagen de color a la cual la unidad de datos actual pertenece, e información de modo de predicción de la unidad de datos actual .
4. El método de decodificación de video de conformidad con la reivindicación 3, caracterizado porque la información de tamaño relativa comprende información que indica un número de separación de la unidad de datos máxima a la unidad de datos actual que incluye el primer elemento de sintaxis .
5. El método de decodificación de video de conformidad con la reivindicación 1, caracterizado porque la determinación del modelo de contexto comprende, cuando n indica un número de los segundos elementos de sintaxis usados para determinar el modelo de contexto, en donde n es un entero, y a indica un número de valores de estado de cada uno de n de los segundos elementos de sintaxis, en donde i es un entero de 1 a n, determinar un modelo de contexto usado para decodificar por entropía el primer elemento de sintaxis de entre una pluralidad de modelos de contexto con base en a1*a2...*an que es un número de combinaciones de los valores de estado de los segundos elementos de sintaxis.
6. El método de decodificación de video de conformidad con la reivindicación 5, caracterizado porque determinar el modelo de contexto comprende preconfigurar la pluralidad de modelos de contexto al agrupar el número de combinaciones de los valores de estado de los segundos elementos de sintaxis y determinar un modelo de contexto de acuerdo con la combinación de los valores de estado de los segundos elementos de sintaxis de entre la pluralidad de modelos de contexto.
7. El método de decodificación de video de conformidad con la reivindicación 1, caracterizado porque determinar el modelo de contexto comprende: obtener información acerca de un primer elemento de sintaxis que tiene un mismo tipo de primer elemento de sintaxis de la unidad de datos actual, de una unidad de datos cercanos adyacente a la unidad de datos actual; y determinar el modelo de contexto usado para decodificar por entropía el primer elementos de sintaxis de la unidad de datos actual al usar información acerca del primer elemento de sintaxis obtenido de la unidad de datos cercanos y el segundo elemento de sintaxis obtenido de la unidad de datos actual.
8. El método de decodificación de video de conformidad con la reivindicación 1, caracterizado porque el primer elemento de sintaxis comprende un indicador de separación que indica si las unidades de codificación se separan para representar la estructura jerárquica de la unidad de decodificación, un indicador de separación de unidad de transformación que indica si las unidades de transformación se separan o no para representar una estructura jerárquica de las unidades de transformación, un indicador de modo de salto de las unidades de codificación que tiene la estructura jerárquica, un indicador que indica una ubicación de un coeficiente de transformación no cero en las unidades de transformación que tienen una estructura de árbol transformada con base en las unidades de transformación que tienen la estructura jerárquica, un indicador que indica una ubicación de un último coeficiente de transformación no cero, y un indicador que indica si un coeficiente de transformación no cero existe en las unidades de transformación.
9. El método de decodificación de video de conformidad con la reivindicación 1, caracterizado porque el modelo de contexto comprende información acerca de las señales binarias que corresponden a un símbolo más probable (MPS) y al menos a un símbolo probable (LPS) de entre 0 y 1 que son señales binarias que corresponden al primer elemento de sintaxis, y un valor de probabilidad de al menos uno de MPS y LPS.
10. Un aparato de decodificación de video caracterizado porque comprende: un extractor de elemento de sintaxis para extraer elementos de sintaxis de una imagen codificada con base en las unidades de datos que tienen una estructura jerárquica al analizar un flujo de bits codificado; y un decodificador de entropía para determinar un modelo de contexto usado para decodificar por entropía un primer elemento de sintaxis de una unidad de datos de corriente que se va a decodificar por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos de corriente, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos de corriente, y decodificar por entropía el primer elemento de sintaxis al usar el modelo de contexto determinado.
11. Un método de codificación caracterizado porque comprende : codificar un video con base en unidades de datos que tienen una estructura jerárquica; determinar un modelo de contexto usado para codificar por entropía un primer elemento de sintaxis de una unidad de datos actual para ser codificada por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos actual, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos actual; y codificar por entropía el primer elemento de sintaxis de la unidad de datos actual al usar el modelo de contexto determinado.
12. El método de codificación de video de conformidad con la reivindicación 11, caracterizado porque al menos un segundo elemento de sintaxis comprende información acerca de un tamaño de la unidad de datos actual, la información de tamaño indica un tamaño relativo de la unidad de datos actual que incluye el primer elemento de sintaxis en relación con una unidad de datos de un nivel mayor que tiene un tamaño más grande que la unidad de datos actual, la información de tipo de color de una imagen de color a la que la unidad de datos actual pertenece, y la información de modo de predicción de la unidad de datos actual.
13. El método de codificación de video de conformidad con la reivindicación 11, caracterizado porque determinar el modelo de contexto comprende, cunado n indica un número de segundos elementos de sintaxis usado para determinar el modelo de contexto, en donde n es un entero, y a indica un número de valores de cada uno de n de los elementos de sintaxis, en donde i es un entero de 1 a n, determinar un modelo de contexto usado para decodificar por entropía el primer elemento de sintaxis de entre una pluralidad de modelos de contexto con base en que es un número de combinaciones de los valores de estado de los segundos elementos de sintaxis.
14. El método de codificación de video de conformidad con la reivindicación 11, caracterizado porque determinar el modelo de contexto comprende: obtener información acerca de un primer elemento de sintaxis que tiene un mismo tipo de primer elemento de sintaxis de la unidad de datos actual, de una unidad de datos cercanos adyacente a la unidad de datos actual; y determinar el modelo de contexto usado para decodificar por entropía el primer elementos de sintaxis de la unidad de datos actual al usar información acerca del primer elemento de sintaxis obtenido de la unidad de datos cercanos y el segundo elemento de sintaxis obtenido de la unidad de datos actual .
15. Un aparato de codificación de video caracterizado porque comprende: un codificador jerárquico para codificar un video basado en unidades de datos que tienen una estructura jerárquica, y un codificador de entropía para determinar un modelo de contexto usado para codificar por entropía el primer elemento de sintaxis de una unidad de datos actual para ser codificada por entropía con base en al menos un segundo elemento de sintaxis de la unidad de datos actual, en donde al menos un segundo elemento de sintaxis se puede usar y es diferente del primer elemento de sintaxis de la unidad de datos actual, y decodificar por entropía el primer elemento de sintaxis de la unidad de datos actual al usar el modelo de contexto determinado.
MX2014000162A 2011-07-01 2012-07-02 Metodo y aparato para codificacion de entropia usando unidad de datos jerargicos, y metodo y aparato para decodificacion. MX2014000162A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161503685P 2011-07-01 2011-07-01
US201161548423P 2011-10-18 2011-10-18
PCT/KR2012/005255 WO2013005968A2 (ko) 2011-07-01 2012-07-02 계층적 구조의 데이터 단위를 이용한 엔트로피 부호화 방법 및 장치, 복호화 방법 및 장치

Publications (1)

Publication Number Publication Date
MX2014000162A true MX2014000162A (es) 2014-02-19

Family

ID=47437547

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014000162A MX2014000162A (es) 2011-07-01 2012-07-02 Metodo y aparato para codificacion de entropia usando unidad de datos jerargicos, y metodo y aparato para decodificacion.

Country Status (14)

Country Link
US (6) US9571842B2 (es)
EP (2) EP3389271A1 (es)
JP (5) JP5989772B2 (es)
KR (7) KR101464978B1 (es)
CN (6) CN104883569B (es)
AU (3) AU2012278484B2 (es)
BR (5) BR122019014179B1 (es)
CA (3) CA2989032C (es)
MX (1) MX2014000162A (es)
MY (5) MY193612A (es)
RU (3) RU2635893C1 (es)
SG (4) SG10201701379XA (es)
WO (1) WO2013005968A2 (es)
ZA (2) ZA201400767B (es)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
EP4228264A1 (en) 2011-06-23 2023-08-16 Sun Patent Trust Image decoding device, image encoding device
WO2012176464A1 (ja) 2011-06-24 2012-12-27 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
KR102062283B1 (ko) 2011-06-24 2020-01-03 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
WO2013001764A1 (ja) 2011-06-27 2013-01-03 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
CA2837535C (en) 2011-06-28 2018-09-04 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
WO2013001767A1 (ja) 2011-06-29 2013-01-03 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
AU2012277219A1 (en) 2011-06-30 2013-09-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
CA2837537C (en) 2011-06-30 2019-04-02 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
CN104883569B (zh) 2011-07-01 2018-05-18 三星电子株式会社 用于使用分层数据单元进行编码和解码的方法和设备
JPWO2013008438A1 (ja) 2011-07-11 2015-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 復号方法及び復号装置
HUE039986T2 (hu) * 2012-07-02 2019-02-28 Samsung Electronics Co Ltd Eljárás video entrópia dekódolására
WO2014120369A1 (en) * 2013-01-30 2014-08-07 Intel Corporation Content adaptive partitioning for prediction and coding for next generation video
US10057578B2 (en) * 2014-10-07 2018-08-21 Qualcomm Incorporated QP derivation and offset for adaptive color transform in video coding
US9936201B2 (en) 2015-01-27 2018-04-03 Qualcomm Incorporated Contexts for large coding tree units
CN106254888B (zh) 2015-06-09 2020-06-02 同济大学 一种图像编码及解码方法、图像处理设备
WO2017041271A1 (en) * 2015-09-10 2017-03-16 Mediatek Singapore Pte. Ltd. Efficient context modeling for coding a block of data
KR102646890B1 (ko) 2015-10-13 2024-03-12 삼성전자주식회사 영상을 부호화 또는 복호화하는 방법 및 장치
WO2017088170A1 (en) * 2015-11-27 2017-06-01 Mediatek Inc. Entropy coding the binary tree block partitioning structure
WO2017088810A1 (en) * 2015-11-27 2017-06-01 Mediatek Inc. Method and apparatus of entropy coding and context modelling for video and image coding
CN116506600A (zh) 2016-03-11 2023-07-28 数字洞察力有限公司 视频编码方法以及装置
US10827186B2 (en) * 2016-08-25 2020-11-03 Intel Corporation Method and system of video coding with context decoding and reconstruction bypass
EP3518548B1 (en) * 2016-09-20 2021-12-15 KT Corporation Method and apparatus for processing video signal
WO2018088805A1 (ko) 2016-11-08 2018-05-17 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN117119179A (zh) * 2016-11-18 2023-11-24 株式会社Kt 视频解码方法、视频编码方法和压缩视频数据发送设备
CN114449269B (zh) * 2017-07-07 2023-03-28 三星电子株式会社 视频编码方法及装置、视频解码方法及装置
US10506258B2 (en) * 2017-07-13 2019-12-10 Google Llc Coding video syntax elements using a context tree
EP3701719B1 (en) 2017-10-27 2024-02-21 Huawei Technologies Co., Ltd. Methods and apparatuses for signaling partioning information for picture encoding and decoding
WO2019194439A1 (ko) * 2018-04-02 2019-10-10 엘지전자 주식회사 컨텍스트 기반 인트라 예측 모드 정보 코딩을 이용한 영상 코딩 방법 및 그 장치
EP3562156A1 (en) 2018-04-27 2019-10-30 InterDigital VC Holdings, Inc. Method and apparatus for adaptive context modeling in video encoding and decoding
US10887594B2 (en) * 2018-07-05 2021-01-05 Mediatek Inc. Entropy coding of coding units in image and video data
CN117651149A (zh) * 2018-09-10 2024-03-05 华为技术有限公司 视频解码方法及视频解码器
CN116886915A (zh) * 2018-10-05 2023-10-13 Lg电子株式会社 图像编码/解码方法、存储介质及数据传输方法
DE102018008114A1 (de) 2018-10-09 2020-04-09 Hydac Process Technology Gmbh Filtervorrichtung für Fluide
CN111435993B (zh) 2019-01-14 2022-08-26 华为技术有限公司 视频编码器、视频解码器及相应方法
CN113647112A (zh) 2019-03-11 2021-11-12 交互数字Vc控股公司 用于视频编码和解码的熵编解码
US20220277491A1 (en) * 2019-05-31 2022-09-01 Electronics And Telecommunications Research Institute Method and device for machine learning-based image compression using global context
US11190777B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding
US11317090B2 (en) * 2019-08-12 2022-04-26 Tencent America LLC Method and apparatus for video coding
CN112449188B (zh) * 2019-08-28 2021-08-20 腾讯科技(深圳)有限公司 视频解码方法、编码方法、装置、介质及电子设备
JP2021048532A (ja) * 2019-09-19 2021-03-25 キヤノン株式会社 画像符号化装置、画像復号装置及びそれらの制御方法及びプログラム
CN114257810B (zh) * 2020-09-23 2023-01-06 腾讯科技(深圳)有限公司 上下文模型的选择方法、装置、设备及存储介质
WO2022197138A1 (ko) * 2021-03-19 2022-09-22 현대자동차주식회사 영상 특성 기반 콘텍스트 모델을 이용하는 비디오 코딩방법 및 장치

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2237283C2 (ru) 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
JP2003319391A (ja) 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
US8014450B2 (en) 2003-09-07 2011-09-06 Microsoft Corporation Flexible range reduction
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7912291B2 (en) * 2003-11-10 2011-03-22 Ricoh Co., Ltd Features for retrieval and similarity matching of documents from the JPEG 2000-compressed domain
KR20050045746A (ko) 2003-11-12 2005-05-17 삼성전자주식회사 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치
JP2005184232A (ja) * 2003-12-17 2005-07-07 Sony Corp 符号化装置、プログラム、およびデータ処理方法
US7522774B2 (en) * 2004-03-10 2009-04-21 Sindhara Supermedia, Inc. Methods and apparatuses for compressing digital image data
US7463781B2 (en) * 2004-04-14 2008-12-09 Lsi Corporation Low overhead context intializations for arithmetic video codecs
KR100679022B1 (ko) 2004-10-18 2007-02-05 삼성전자주식회사 계층간 필터링을 이용한 비디오 코딩 및 디코딩방법과,비디오 인코더 및 디코더
CA2590705A1 (en) * 2005-01-14 2006-07-20 Sungkyunkwan University Methods of and apparatuses for adaptive entropy encoding and adaptive entropy decoding for scalable video encoding
WO2006085725A1 (en) 2005-02-14 2006-08-17 Samsung Electronics Co., Ltd. Video coding and decoding methods with hierarchical temporal filtering structure, and apparatus for the same
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
KR100694098B1 (ko) 2005-04-04 2007-03-12 한국과학기술원 산술 복호 방법 및 그 장치
KR100664936B1 (ko) 2005-04-13 2007-01-04 삼성전자주식회사 코딩 효율이 향상된 컨텍스트 기반 적응적 산술 코딩 및디코딩 방법과 이를 위한 장치, 이를 포함하는 비디오 코딩및 디코딩 방법과 이를 위한 장치
RU2371881C1 (ru) * 2005-07-08 2009-10-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ моделирования информации кодирования видеосигнала для компрессии/декомпрессии информации
KR20070006445A (ko) 2005-07-08 2007-01-11 삼성전자주식회사 하이브리드 엔트로피 부호화, 복호화 방법 및 장치
RU2368095C1 (ru) * 2005-07-22 2009-09-20 Мицубиси Электрик Корпорейшн Кодер изображения и декодер изображения, способ кодирования изображения и способ декодирования изображения, программа кодирования изображения и программа декодирования изображения и компьютерно-считываемый носитель записи, на котором записана программа кодирования изображения, и компьютерно-считываемый носитель записи, на котором записана программа декодирования изображения
WO2007023805A1 (ja) 2005-08-22 2007-03-01 Sumitomo Metal Industries, Ltd. ラインパイプ用継目無鋼管とその製造方法
KR100736086B1 (ko) * 2005-09-06 2007-07-06 삼성전자주식회사 엔트로피 코딩의 성능 향상 방법 및 장치, 상기 방법을이용한 비디오 코딩 방법 및 장치
CN100403801C (zh) * 2005-09-23 2008-07-16 联合信源数字音视频技术(北京)有限公司 一种基于上下文的自适应熵编/解码方法
KR100873636B1 (ko) 2005-11-14 2008-12-12 삼성전자주식회사 단일 부호화 모드를 이용하는 영상 부호화/복호화 방법 및장치
US7245241B2 (en) * 2005-11-25 2007-07-17 Microsoft Corporation Image coding with scalable context quantization
JP4695706B2 (ja) * 2006-04-21 2011-06-08 株式会社東芝 エントロピー符号化及び復号のための方法及び装置
ES2348686T3 (es) 2006-07-13 2010-12-10 Qualcomm Incorporated Codificaciã“n de video con escalabilidad granular fina mediante fragmentos alineados con ciclos.
DE602007008730D1 (de) 2006-07-13 2010-10-07 Qualcomm Inc Videokodierung mit feinkörniger skalierbarkeit anhand von zyklisch ausgerichteten fragmenten
JP4878262B2 (ja) * 2006-10-31 2012-02-15 キヤノン株式会社 エントロピー符号化装置
CN101578877B (zh) * 2007-01-11 2016-05-04 汤姆森许可贸易公司 对mpeg-4avc高层编码中cavlc4:4:4帧内、高4:4:4帧内和高4:4:4预测简档使用针对coded_block_flag语法元素和coded_block_pattern语法元素的语法的方法和装置
KR101356733B1 (ko) * 2007-03-07 2014-02-05 삼성전자주식회사 컨텍스트 기반 적응적 이진 산술 부호화, 복호화 방법 및장치
US7518536B2 (en) * 2007-03-30 2009-04-14 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Method and apparatus for debinarization of digital video data during decoding
CN100571391C (zh) * 2007-05-09 2009-12-16 安凯(广州)软件技术有限公司 用于视频编解码系统中解块滤波的并行处理方法
CN100531386C (zh) * 2007-06-15 2009-08-19 上海富瀚微电子有限公司 一种上下文自适应二进制算术编码器及其方法
US8571104B2 (en) * 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US7777654B2 (en) 2007-10-16 2010-08-17 Industrial Technology Research Institute System and method for context-based adaptive binary arithematic encoding and decoding
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
JP5151919B2 (ja) * 2008-11-11 2013-02-27 ソニー株式会社 画像復号化装置と画像復号化方法およびコンピュータ・プログラム
US8290338B2 (en) 2009-05-27 2012-10-16 Panasonic Corporation Recording medium, playback device, encoding device, integrated circuit, and playback output device
US9100648B2 (en) * 2009-06-07 2015-08-04 Lg Electronics Inc. Method and apparatus for decoding a video signal
US9635368B2 (en) 2009-06-07 2017-04-25 Lg Electronics Inc. Method and apparatus for decoding a video signal
KR101483750B1 (ko) * 2009-07-24 2015-01-19 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
JP5359657B2 (ja) 2009-07-31 2013-12-04 ソニー株式会社 画像符号化装置および方法、記録媒体、並びにプログラム
KR101474756B1 (ko) 2009-08-13 2014-12-19 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
KR20110017719A (ko) 2009-08-14 2011-02-22 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101624649B1 (ko) 2009-08-14 2016-05-26 삼성전자주식회사 계층적인 부호화 블록 패턴 정보를 이용한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US20110249754A1 (en) * 2010-04-12 2011-10-13 Qualcomm Incorporated Variable length coding of coded block pattern (cbp) in video compression
US9717814B2 (en) 2010-10-01 2017-08-01 S. C. Johnson & Son, Inc. Dispensing device
US9172963B2 (en) * 2010-11-01 2015-10-27 Qualcomm Incorporated Joint coding of syntax elements for video coding
AU2012205077B2 (en) * 2011-01-06 2016-04-07 Samsung Electronics Co., Ltd. Encoding method and device of video using data unit of hierarchical structure, and decoding method and device thereof
US8995523B2 (en) * 2011-06-03 2015-03-31 Qualcomm Incorporated Memory efficient context modeling
EP4228264A1 (en) 2011-06-23 2023-08-16 Sun Patent Trust Image decoding device, image encoding device
CN104883569B (zh) 2011-07-01 2018-05-18 三星电子株式会社 用于使用分层数据单元进行编码和解码的方法和设备

Also Published As

Publication number Publication date
KR101842261B1 (ko) 2018-03-26
SG10201706004TA (en) 2017-08-30
BR122019014181B1 (pt) 2021-03-09
CN104994384B (zh) 2018-07-20
RU2017136059A3 (es) 2019-04-11
US10257517B2 (en) 2019-04-09
BR122019014179B1 (pt) 2021-03-09
US20150139333A1 (en) 2015-05-21
KR101613977B1 (ko) 2016-04-20
AU2012278484A1 (en) 2014-02-06
SG10201701379XA (en) 2017-03-30
WO2013005968A3 (ko) 2013-03-14
CA2989032A1 (en) 2013-01-10
BR112013033899B1 (pt) 2019-08-20
CA2840887A1 (en) 2013-01-10
KR101579114B1 (ko) 2015-12-24
CN104883569B (zh) 2018-05-18
JP5989772B2 (ja) 2016-09-07
WO2013005968A2 (ko) 2013-01-10
CA2937885A1 (en) 2013-01-10
RU2017136059A (ru) 2019-04-11
RU2597494C2 (ru) 2016-09-10
ZA201400767B (en) 2016-02-24
KR20150000853A (ko) 2015-01-05
AU2017254879B2 (en) 2018-10-04
JP2015159600A (ja) 2015-09-03
CN104994384A (zh) 2015-10-21
CA2989032C (en) 2020-02-18
EP3389271A1 (en) 2018-10-17
CA2840887C (en) 2018-06-19
SG10201709427VA (en) 2017-12-28
JP2014521244A (ja) 2014-08-25
US20150195586A1 (en) 2015-07-09
CN104853200A (zh) 2015-08-19
KR20130004182A (ko) 2013-01-09
CN104980746B (zh) 2018-07-31
CN103765887B (zh) 2017-04-12
RU2696211C2 (ru) 2019-07-31
CN104980746A (zh) 2015-10-14
US20170188031A1 (en) 2017-06-29
AU2012278484B2 (en) 2016-05-05
MY193610A (en) 2022-10-20
US9596473B2 (en) 2017-03-14
MY164252A (en) 2017-11-30
KR101552909B1 (ko) 2015-09-15
JP2015167379A (ja) 2015-09-24
EP2728873A4 (en) 2016-02-17
JP5917744B2 (ja) 2016-05-18
AU2016206279A1 (en) 2016-08-11
US9596474B2 (en) 2017-03-14
US20150195585A1 (en) 2015-07-09
KR20150052818A (ko) 2015-05-14
MY193609A (en) 2022-10-20
KR20150052816A (ko) 2015-05-14
SG10201605379RA (en) 2016-08-30
KR101613978B1 (ko) 2016-04-20
KR20150052817A (ko) 2015-05-14
MY193611A (en) 2022-10-20
KR101464978B1 (ko) 2014-11-26
ZA201502922B (en) 2016-06-29
JP5989849B2 (ja) 2016-09-07
BR122019014182B1 (pt) 2019-12-03
CN104853200B (zh) 2017-04-12
AU2017254879A1 (en) 2017-11-16
BR122018016535B1 (pt) 2019-08-20
MY193612A (en) 2022-10-20
RU2635893C1 (ru) 2017-11-16
CA2937885C (en) 2018-01-30
CN104994385A (zh) 2015-10-21
AU2016206279B2 (en) 2017-08-10
US20140219335A1 (en) 2014-08-07
US9596472B2 (en) 2017-03-14
CN104883569A (zh) 2015-09-02
KR101945447B1 (ko) 2019-02-07
BR112013033899A2 (pt) 2017-12-12
EP2728873A2 (en) 2014-05-07
KR20140085395A (ko) 2014-07-07
KR20180031665A (ko) 2018-03-28
CN103765887A (zh) 2014-04-30
JP2015159601A (ja) 2015-09-03
US9571842B2 (en) 2017-02-14
JP2015167380A (ja) 2015-09-24
JP5917745B2 (ja) 2016-05-18
RU2014103482A (ru) 2015-08-10
CN104994385B (zh) 2018-07-20
US9591310B2 (en) 2017-03-07
JP5917746B2 (ja) 2016-05-18
US20150195539A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
AU2017254879B2 (en) Method and apparatus for entropy encoding using hierarchical data unit, and method and apparatus for decoding
AU2018200355B2 (en) Method and apparatus for entropy coding video and method and apparatus for entropy decoding video
JP6595679B2 (ja) ビデオ復号化装置
AU2013250108A1 (en) Parameter update method for entropy coding and decoding of conversion coefficient level, and entropy coding device and entropy decoding device of conversion coefficient level using same
AU2015201781B2 (en) Method and apparatus for determining a context model for transform coefficient level entropy encoding and decoding

Legal Events

Date Code Title Description
FG Grant or registration