MX2012004679A - Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion. - Google Patents

Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.

Info

Publication number
MX2012004679A
MX2012004679A MX2012004679A MX2012004679A MX2012004679A MX 2012004679 A MX2012004679 A MX 2012004679A MX 2012004679 A MX2012004679 A MX 2012004679A MX 2012004679 A MX2012004679 A MX 2012004679A MX 2012004679 A MX2012004679 A MX 2012004679A
Authority
MX
Mexico
Prior art keywords
coding
coding unit
unit
depth
mode
Prior art date
Application number
MX2012004679A
Other languages
English (en)
Inventor
Woo-Jin Han
Jung-Hye Min
Il-Koo Kim
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2012004679A publication Critical patent/MX2012004679A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un método para la codificación de datos de video incluye: dividir una imagen actual al menos en una unidad de codificación máxima; determinar la profundidad codificada para dar salida a un resultado de codificación mediante la codificación al menos de una región dividida por lo menos de una unidad de codificación máxima de acuerdo con el modo de operación de la herramienta de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación; y dar salida a un flujo de bits que incluye datos codificados de video de la profundidad codificada, la información con respecto a la profundidad codificada al menos de una unidad de codificación máxima, la información con respecto al modo de codificación, y la información con respecto a la relación.

Description

METODO Y APARATO DE CODIFICACION DE VIDEO Y METODO Y APARATO DE DECODIFICACION DE VIDEO, BASADOS EN ESTRUCTURA JERARQUICA DE UNIDAD DE CODIFICACION Campo de la Invención Los aparatos y métodos consistentes con las modalidades de ejemplo se refieren a la codificación y decodificación de un video.
Antecedentes de la Invención Puesto que el hardware para la reproducción y almacenamiento de contenido de video de alta resolución o alta calidad está siendo desarrollado y suministrado, se está incrementando la necesidad de un códec de video para codificar o decodificar, de manera efectiva, el contenido de video de alta resolución o alta calidad. En un códec de video de la técnica relacionada, un video es codificado de acuerdo con un método limitado de codificación en función de un macrobloque que tiene un tamaño predeterminado.
Breve Descripción de la Invención Problema Técnico Una o más modalidades de ejemplo proporcionan un método y aparato para la codificación de un video y un método y un aparato para la decodificación de un video en un modo de operación de una herramienta de codificación que varía de acuerdo con el tamaño de una unidad de codificación de REF. 229791 estructura jerárquica.
Solución al Problema De acuerdo con un aspecto de una modalidad de ejemplo, se proporciona un método de codificación de datos de video, el método incluye: dividir una imagen actual de los datos de video al menos en una unidad de codificación máxima; determinar la profundidad codificada para dar salida al resultado final de la codificación mediante la codificación al menos de una región dividida por lo menos de una unidad de codificación máxima de acuerdo al menos con un modo de operación por lo menos de una herramienta de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, en donde al menos una región dividida es generada dividiendo, en forma jerárquica, al menos una unidad de codificación máxima de acuerdo con las profundidades; y dar salida a un flujo de bits que incluye datos codificados de video de la profundidad codificada, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación al menos en una unidad de codificación máxima, en donde la unidad de codificación podría ser caracterizada por el tamaño máximo y la profundidad, la profundidad denota el número de veces que una unidad de codificación es dividida en forma jerárquica, y a medida que se profundiza la profundidad, las unidades de codificación más profunda de acuerdo con las profundidades podrían ser divididas a partir de la unidad de codificación máxima para obtener las unidades de codificación mínima, en donde la profundidad es profundizada de la profundidad más alta hasta una profundidad más baja, en donde a medida que se profundiza la profundidad, se incrementa el número de veces que la unidad de codificación máxima es dividida, y el número total de veces posibles que la unidad de codificación máxima es dividida corresponde con la profundidad máxima, y en donde podría ser predeterminado el tamaño máximo y la profundidad máxima de la unidad de codificación. Un modo de operación de una herramienta de codificación para una unidad de codificación es determinado de acuerdo con la profundidad de la unidad de codificación.
Efectos Ventajosos de la Invención El aparato de codificación de video de acuerdo con las modalidades de ejemplo podría determinar la profundidad de una unidad de codificación y el modo de operación de una herramienta de codificación de acuerdo con las características de los datos de imagen para así incrementar la eficiencia de la codificación y codificar la información con respecto a la relación entre la profundidad de la unidad de codificación, la herramienta de codificación y el modo de operación. Además, un aparato de decodificación de video de acuerdo con las modalidades de ejemplo podría reconstruir la imagen original mediante la decodificación de un flujo recibido de bits, en función de la información con respecto a la relación entre la profundidad de la unidad de codificación, la herramienta de codificación y el modo de operación. En consecuencia, el aparato de codificación de video de acuerdo con las modalidades de ejemplo y el aparato de decodificación de video de acuerdo con las modalidades de ejemplo podrían codificar y decodificar, de manera efectiva, una gran cantidad de datos de imagen, tales como una imagen de alta resolución o alta calidad, de manera respectiva.
Breve Descripción de las Figuras Los anteriores y/u otros aspectos serán más aparentes mediante la descripción en detalle de las modalidades ejemplo con referencia a las figuras adjuntas, en las cuales: La Figura 1 es un diagrama de bloque de un aparato de codificación de video de acuerdo con una modalidad de ej emplo ,- La Figura 2 es un diagrama de bloque de un aparato de decodificación de video de acuerdo con una modalidad de ej emplo; La Figura 3 es un diagrama que describe un concepto de las unidades de codificación de acuerdo con una modalidad de ejemplo; La Figura 4 es un diagrama de bloque de un codificador de imagen en función de las unidades de codificación, de acuerdo con una modalidad de ejemplo; La Figura 5 es un diagrama de bloque de un decodificador de imagen en función de las unidades de codificación, de acuerdo con una modalidad de ejemplo; La Figura 6 es un diagrama que ilustra las unidades de codificación más profunda de acuerdo con las profundidades y las particiones de acuerdo con una modalidad de ejemplo; La Figura 7 es un diagrama que describe la relación entre una unidad de codificación y las unidades de transformación, de acuerdo con una modalidad de ejemplo; La Figura 8 es un diagrama que describe la información de codificación de las unidades de codificación que corresponde con una profundidad codificada, de acuerdo con una modalidad de ejemplo; La Figura 9 es un diagrama de unidades de codificación más profunda de acuerdo con las profundidades, de acuerdo con una modalidad de ejemplo; Las Figuras 10-12 son diagramas que describen la relación entre las unidades de codificación, las unidades de predicción, y las unidades de transformación, de acuerdo con una o más modalidades de ejemplo; La Figura 13 es un diagrama que describe la relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación, de acuerdo con la información de modo de codificación de la Tabla de ejemplo 1 más adelante, de acuerdo con una modalidad de ejemplo; La Figura 14 es un diagrama de flujo que ilustra un método de codificación de video de acuerdo con una modalidad de ejemplo; La Figura 15 es un diagrama de flujo que ilustra un método de decodificación de video de acuerdo con una modalidad de ejemplo; La Figura 16 es un diagrama de bloque de un aparato de codificación de video en función de una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo; La Figura 17 es un diagrama de bloque de un aparato de decodificación de video en función de una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo; La Figura 18 es un diagrama que describe la relación entre el tamaño de una unidad de codificación, una herramienta de codificación y un modo de operación, de acuerdo con una modalidad de ejemplo; La Figura 19 es un diagrama que describe la relación entre la profundidad de una unidad de codificación, una herramienta de codificación y un modo de operación, de acuerdo con una modalidad de ejemplo; La Figura 20 es un diagrama que describe la relación entre la profundidad de una unidad de codificación, una herramienta de codificación y un modo de operación, de acuerdo con una modalidad de ejemplo; La Figura 21 ilustra la sintaxis de un parámetro de secuencia establecido, en el cual es insertada la información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación, de acuerdo con una modalidad de ejemplo; La Figura 22 es un diagrama de flujo que ilustra un método de codificación de video en función de una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo; y La Figura 23 es un diagrama de flujo que ilustra un método de decodificación de video en función de una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ej emplo .
Descripción Detallada de la Invención De acuerdo con un aspecto de una modalidad de ejemplo, se proporciona un método de codificación de datos de video, el método incluye: dividir una imagen actual de los datos de video al menos en una unidad de codificación máxima; determinar la profundidad codificada para dar salida al resultado final de la codificación mediante la codificación al menos de una región dividida por lo menos de una unidad de codificación máxima de acuerdo al menos con un modo de operación por lo menos de una herramienta de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, en donde al menos una región dividida es generada dividiendo, en forma jerárquica, al menos una unidad de codificación máxima de acuerdo con las profundidades; y dar salida a un flujo de bits que incluye datos codificados de video de la profundidad codificada, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación al menos en una unidad de codificación máxima, en donde la unidad de codificación podría ser caracterizada por un tamaño máximo y una profundidad, la profundidad denota el número de veces que una unidad de codificación es jerárquicamente dividida, y a medida que se profundiza la profundidad, las unidades de codificación más profunda de acuerdo con las profundidades podrían ser divididas a partir de la unidad de codificación máxima para obtener las unidades de codificación mínima, en donde la profundidad es profundizaba de una profundidad más alta a una profundidad más baja, en donde a medida que se profundiza la profundidad, el número de veces que la unidad de codificación máxima es dividida se incrementa, y el número total de veces posibles quela unidad de codificación máxima es dividida corresponde con una profundidad máxima, y en donde el tamaño máximo y la profundidad máxima de la unidad de codificación podría ser predeterminada. Un modo de operación de una herramienta de codificación para una unidad de codificación es determinado de acuerdo con la profundidad de la unidad de codificación La información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación, podrían ser preestablecidos en unidades de rebanada, unidades de cuadro, o unidades de secuencia de cuadro de la imagen actual.
Al menos una herramienta de codificación para la codificación por lo menos de una unidad de codificación máxima podría incluir al menos una de la cuantificación, la transformación, la intra-predicción, la inter-predicción, la compensación de movimiento, la codificación de entropía y el filtrado de circuito.
Si la herramienta de codificación, el modo de operación de la cual es determinado de acuerdo con la profundidad de una unidad de codificación, es la intra-predicción, el modo de operación podría incluir al menos un modo de intra-predicción clasificado de acuerdo con un número de direcciones de la intra-predicción o podría incluir un modo de intra-predicción para suavizar las regiones en unidades de codificación que corresponden con las profundidades y un modo de intra-predicción para retener una línea de límite.
Si la herramienta de codificación, el modo de operación de la cual es determinado de acuerdo con la profundidad de una unidad de codificación, es la inter-predicción, el modo de operación podría incluir el modo de inter-predicción de acuerdo al menos con un método de determinación de un vector de movimiento.
Si la herramienta de codificación, el modo de operación de la cual es determinado de acuerdo con la profundidad de una unidad de codificación, es la transformación, el modo de operación podría incluir al menos un modo de transformación clasificado de acuerdo con un índice de una matriz de la transformación rotacional.
Si la herramienta de codificación, el modo de operación de la cual es determinado de acuerdo con la profundidad de una unidad de codificación, es la cuantificación, el modo de operación podría incluir al menos un modo de cuantificación clasificado de acuerdo con si será utilizado un parámetro de cuantificación delta.
De acuerdo con un aspecto de otra modalidad ejemplo, se proporciona un método de decodificación de datos de video, el método incluye: recibir y analizar un flujo de bits que incluye datos codificados de video; extraer, del flujo de bits, los datos codificados de video, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación; y decodificar los datos codificados de video al menos en una unidad de codificación máxima de acuerdo con el modo de operación de una herramienta de codificación que compara una unidad de codificación que corresponde por lo menos con una profundidad codificada, en función de la información con respecto a la profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto al modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y es determinado el modo de operación, en donde el modo de operación de la herramienta de codificación para una unidad de codificación de acuerdo con la profundidad codificada de la unidad de codificación .
La información con respecto a- la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación podría ser extraída en unidades de rebanada, unidades de cuadro, o unidades de secuencia de cuadro de la imagen actual .
La herramienta de codificación para la codificación por lo menos de una unidad de codificación máxima podría incluir al menos una de la cuantificación, la transformación, la intra-predicción, la inter-predicción, la compensación de movimiento, la codificación de entropía y el filtrado de circuito, en donde la decodificación de los datos codificados de video podría incluir la realización de una herramienta de decodificación que corresponde con la herramienta de codificación para la codificación por lo menos de una unidad de codificación máxima.
De acuerdo con un aspecto de otra modalidad ejemplo, se proporciona un aparato para la codificación de datos de video, el aparato incluye: un divisor de unidad de codificación máxima que divide una imagen actual de los datos de video al menos en una unidad de codificación máxima; un determinador de unidad de codificación que determina la profundidad codificada para dar salida al resultado final de la codificación mediante la codificación al menos dé una región dividida por lo menos de una unidad de codificación máxima de acuerdo al menos - con un modo de operación por lo menos de una de las herramientas de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, en donde al menos una región dividida es generada dividiendo, en forma jerárquica, al menos una unidad de codificación máxima de acuerdo con las profundidades; y una unidad de salida que da salida a un flujo de bits que incluye datos codificados de video que es el resultado final de la codificación, la información con respecto a una profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y es determinado el modo de operación al menos en una unidad de codificación máxima. Un modo de operación de una herramienta de codificación para una unidad de codificación de acuerdo con la profundidad de la unidad de codificación De acuerdo con un aspecto de otra modalidad ejemplo, se proporciona un aparato para la decodificación de datos de video, el aparato incluye: un receptor que recibe y analiza un flujo de bits que incluye datos codificados de video; un extractor que extrae, del flujo de bits, los datos codificados de video, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de- codificación, y un modo de operación; y un decodificador que decodifica los datos codificados de video al menos en una unidad de codificación máxima de acuerdo con el modo de operación de una herramienta de codificación que compara una unidad de codificación que corresponde por lo menos con una profundidad codificada, en función de la información con respecto a la profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto al modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación, en donde es determinado el modo de operación de la herramienta de codificación para una unidad de codificación de acuerdo con la profundidad codificada de la unidad de codificación.
De acuerdo con un aspecto de otra modalidad ejemplo, se proporciona un método de decodificación de datos de video, el método incluye: decodificar los datos codificados de video al menos en una unidad de codificación máxima de acuerdo con el modo de operación de una herramienta de codificación que compara una unidad de codificación que corresponde por lo menos con una profundidad codificada, en función de la información con respecto a la profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, en donde es determinado el modo de operación de la herramienta de codificación para una unidad de codificación de acuerdo con la profundidad codificada de la unidad de codificación.
De acuerdo con un aspecto de otra modalidad ejemplo, se proporciona un medio de grabación susceptible de ser leído en computadora que tiene grabado en .el mismo un programa para la ejecución del método de codificación de datos de video.
De acuerdo con un aspecto de otra modalidad ejemplo, se proporciona un medio de grabación susceptible de ser leído en computadora que tiene grabado en el mismo programa para la ejecución del método de decodificación de datos de video.
Modo para la Invención De aquí en adelante, las modalidades ejemplo serán descritas de manera más completa con referencia a las figuras que la acompañan. Además, las expresiones tales como "al menos una dé", cuando preceden una lista de elementos, modificar la lista total de elementos y no modifican los elementos individuales de la lista. En las modalidades ejemplo, el término "unidad" podría referirse o no a una unidad de tamaño, en función de su contexto. De manera específica, la codificación y decodificación de video, realizadas en función de las unidades de datos jerárquicas en forma espacial de acuerdo con una o más modalidades de ejemplo, serán descritas con referencia a las Figuras 1-15. Asimismo, la · codificación y decodificación realizadas en un modo de operación de una herramienta de codificación que varía de acuerdo con el tamaño de una unidad de codificación de acuerdo con una o más modalidades de ejemplo serán descritas con referencia a las Figuras 16-23.
En las siguientes modalidades de ejemplo, el término "unidad de codificación" se refiere ya sea a una unidad de codificación de datos en la cual son codificados los datos de imagen en el lado del codificador o una unidad de datos codificados en la cual los datos codificados de imagen son decodificados en el lado del decodificador . Asimismo, el término "profundidad codificada" se refiere a una profundidad en la cual es codificada una unidad de codificación. De aquí en adelante el término "imagen" podría denotar una imagen fija para un video o una imagen en movimiento, es decir, el video por sí mismo.
Un aparato y método para la codificación de un video y un aparato y método para la decodificación de un video de acuerdo con las modalidades de ejemplo serán descritos a continuación con referencia a las Figuras 1-15.
La Figura 1 es un diagrama de bloque de un aparato de codificación de video 100, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 1, el aparato de codificación de video 100 incluye un divisor de unidad de codificación máxima 110, un determinador de unidad de codificación 120 y una unidad de salida 130.
El divisor de unidad de codificación máxima 110 podría dividir la imagen actual de una imagen basada en una unidad de codificación máxima para la imagen actual. Si la imagen actual es más grande que la unidad de codificación máxima, los datos de imagen de la imagen actual podrían ser divididos al menos en una unidad de codificación máxima. La unidad de codificación máxima de acuerdo con una modalidad de ejemplo podría ser una unidad de datos que tiene un tamaño de 32x32, 64x64, 128x128, 256x256, etc., en donde la forma de la unidad de datos es un cuadrado que tiene un ancho y una altura en cuadros de 2. Los datos de imagen podrían ser salidos hacia el determinador de unidad de codificación 120 de acuerdo por lo menos con una unidad de codificación máxima .
Una unidad de codificación de acuerdo con una modalidad de ejemplo podría ser caracterizada por un tamaño máximo y la profundidad. La profundidad denota el número de veces que la unidad de codificación es espacialmente dividida a partir de la unidad de codificación máxima, y a medida que se profundiza la profundidad o se incrementa, las unidades de codificación más profunda de acuerdo con las prof ndidades podrían ser divididas a partir de la unidad de codificación máxima en una unidad de codificación mínima. La profundidad de la unidad de codificación máxima es la profundidad más alta y la profundidad de la unidad de codificación mínima es la profundidad más baja. Debido a que el tamaño de la unidad de codificación que corresponde con cada profundidad disminuye a medida que se profundiza la profundidad de la unidad de codificación máxima, la unidad de codificación que corresponde con la profundidad más alta podría incluir una pluralidad de las unidades de codificación que corresponde con las profundidades más bajas.
Como se describió con anterioridad, los datos de imagen de la imagen actual podrían ser divididos en las unidades de codificación máxima de acuerdo con el tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máxima podría incluir las unidades de codificación más profunda que son divididas de acuerdo con las profundidades. Debido a que la unidad de codificación máxima de acuerdo con una modalidad de ejemplo es dividida de acuerdo con las profundidades, los datos de imagen de un dominio espacial incluidos en la unidad de codificación máxima podrían ser jerárquicamente clasificados de acuerdo con las profundidades .
La profundidad máxima y el tamaño máximo de una unidad de codificación, que limitan el número total de veces que la altura y el ancho de la unidad de codificación máxima pueden ser jerárquicamente divididos, podrían ser predeterminados .
El determinador de unidad de codificación 120 codifica al menos una región dividida obtenida mediante la división de una región de la unidad de codificación máxima de acuerdo con las profundidades, y determina la profundidad para dar salida a los datos codificados de imagen de acuerdo al menos con una región dividida. Es decir, el determinador de unidad de codificación 120 determina la profundidad codificada mediante la codificación de los datos de imagen en las unidades de codificación más profunda de acuerdo con las profundidades, en función de la unidad de codificación máxima de la imagen actual, y seleccionando la profundidad que tiene un error final de codificación. De esta manera, los datos codificados de imagen de la unidad de codificación que corresponde con la profundidad codificada determinada son salidos hacia la unidad de salida 130. Asimismo, las unidades de codificación que corresponden con la profundidad codificada podrían ser consideradas como las unidades codificadas de codificación.
La profundidad codificada determinada y los datos codificados de imagen de acuerdo con la profundidad codificada determinada son salidos hacia la unidad de salida 130.
Los datos de imagen en la unidad de codificación máxima son codificados en función de las unidades de codificación más profunda que corresponden al menos con una profundidad igual o por debajo de la profundidad máxima, y los resultados de la codificación de los datos de imagen son comparados en función de cada una de las unidades de codificación más profunda. La profundidad que tiene el error último de codificación podría ser seleccionada después de comparar los errores de codificación de las unidades de codificación más profunda. Al menos una profundidad codificada podría ser seleccionada para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima es dividido a medida que una unidad de codificación es jerárquicamente dividida de acuerdo con las profundidades, y a medida que se incrementa el número de las unidades de codificación. Asimismo, incluso si las unidades de codificación corresponden con la misma profundidad en una unidad de codificación máxima, se determina si se divide cada una de las unidades de codificación que corresponde cón la misma profundidad en una profundidad más baja a través de la medición de un error de codificación de los datos de imagen de cada unidad de codificación, en forma separada. En consecuencia, aún cuando los datos de imagen son incluidos en una unidad de codificación máxima, los datos de imagen son divididos en regiones de acuerdo con las profundidades y los errores de codificación podrían diferir de acuerdo con las regiones en la unidad de codificación máxima, y de esta manera, las profundidades codificadas podrían diferir de acuerdo con las regiones en los datos de imagen. Por lo tanto, una o más de las prof ndidades codificadas podrían ser determinadas en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima podrían ser divididos de acuerdo con las unidades de codificación por lo menos de una profundidad codificada.
En consecuencia, el determinador de unidad de codificación 120 podría determinar las unidades de decodificación que tienen una estructura de árbol incluida en la unidad de codificación máxima. Las unidades de codificación que tienen una estructura de árbol de acuerdo con una modalidad de ejemplo incluyen unidades de codificación que corresponden con una profundidad determinada para que sea la profundidad codificada, de entre las unidades de codificación más profunda incluidas en la unidad de codificación máxima. Una unidad de codificación de una profundidad codificada podría ser jerárquicamente determinada de acuerdo con las profundidades en la misma región de la unidad de codificación máxima, y podría ser independientemente determinada en diferentes regiones. En forma similar, la profundidad codificada en la región actual podría ser independientemente determinada de la profundidad codificada en otra región.
La profundidad máxima de acuerdo con una modalidad de ejemplo es un índice relacionado con el número de veces de división de una unidad de codificación máxima en una unidad de codificación mínima. Una primera profundidad máxima de acuerdo con una modalidad de ejemplo podría denotar el número total de veces de división de la unidad de codificación máxima en la unidad de codificación mínima. Una segunda profundidad máxima de acuerdo con una modalidad de ejemplo podría denotar el número total de niveles de profundidad de la unidad de codificación máxima en la unidad de codificación mínima. Por ejemplo, cuando la profundidad de la unidad de codificación máxima es 0, la profundidad de una unidad de codificación en la cual la unidad de codificación máxima es dividida una vez podría ser establecida en 1, y la profundidad de la unidad de codificación en la cual la unidad de codificación máxima es dividida dos veces podría ser establecida en 2. Aquí, si la unidad de codificación mínima es una unidad de codificación en la cual la unidad de codificación máxima es dividida cuatro veces, existen 5 niveles de profundidad de las profundidades 0, 1, 2, 3 y 4. De esta manera, la primera profundidad máxima podría ser establecida en 4 y la segunda profundidad máxima podría ser establecida en 5.
La codificación de predicción y transformación podrían ser realizadas de acuerdo con la unidad de codificación máxima. La codificación de predicción y la transformación también son realizadas en función de las unidades de codificación más profunda de acuerdo con una profundidad igual o las profundidades menores que la profundidad máxima, en función de la unidad de codificación máxima. La transformación podría ser realizada de acuerdo con un método de transformación ortogonal o transformación de entero .
Debido a que se incrementa el número de unidades de codificación más profunda cada vez que es dividida la unidad de codificación máxima de acuerdo con las profundidades, la codificación, tal como la codificación de predicción y la transformación es realizada en todas las unidades de codificación más profunda generadas a medida que se profundiza la profundidad. Por conveniencia de la descripción,- la codificación de predicción y la transformación serán descritas de aquí en adelante en función de una unidad de codificación de la profundidad actual, en una unidad de codificación máxima.
El aparato de codificación de video 100 podría seleccionar, en forma variable, al menos uno de un tamaño y la forma de una unidad de datos para la codificación de los datos de imagen. Con el propósito de codificar los datos de imagen, las operaciones, tales como la codificación de predicción, la transformación y la codificación de entropía, podrían ser realizadas, y en este momento, podría ser utilizada la misma unidad de datos para todas las operaciones o podrían ser utilizadas diferentes unidades de datos para cada operación.
Por ejemplo, el aparato de codificación de video 100 podría seleccionar una unidad de codificación para la codificación de los datos de imagen y una unidad de datos diferente de la unidad de codificación para así realizar la codificación de predicción en los datos de imagen en la unidad de codificación.
Con el propósito de realizar la codificación de predicción en la unidad de codificación máxima, la codificación de predicción podría ser realizada en función de una unidad de codificación que corresponde con una profundidad codificada, es decir, en función de una unidad de codificación que ya no es más dividida en unidades de codificación que corresponden con una profundidad más baja. De aquí en adelante, la unidad de codificación que ya no es más dividida y se convierte en una unidad de base para la codificación de predicción que será referida como una unidad de predicción. Una partición obtenida mediante la división de la unidad de predicción podría incluir una unidad de predicción o una unidad de datos obtenida mediante la división al menos de uno de la altura y el ancho de la unidad de predicción.
Por ejemplo, cuando una unidad de codificación de 2Nx2N (en donde N es un entero positivo) ya no es más dividida y se convierte en una unidad de predicción de 2Nx2N, el tamaño de una partición podría ser 2Nx2N, 2NxN, Nx2N, o NxN. Los ejemplos de un tipo de partición incluye particiones simétricas que son obtenidas al dividir en forma simétrica al menos uno de la altura y el ancho de la unidad de predicción, las particiones obtenidas al dividir en forma asimétrica la altura o el ancho de la unidad de predicción (tal como l:n o n:l), las particiones que son obtenidas al dividir en forma geométrica la unidad de predicción, y las particiones que tienen formas arbitrarias.
El modo de predicción de la unidad de predicción podría ser al menos uno de un intra-modo, un inter-modo y un modo de salto. Por ejemplo, el intra-modo o el inter-modo podrían ser realizados en la partición de 2Nx2N, 2NxN, Nx2N, o NxN. En este caso, el modo de salto sólo podría ser realizado en la partición de 2Nx2N. la codificación es realizada, de manera independiente, en una unidad de predicción de una unidad de codificación, con lo cual, se selecciona un modo de predicción que tiene un error final de codificación.
El aparato de codificación de video 100 también podría realizar la transformación en los datos de imagen en una unidad de codificación en función no de la unidad de codificación para la codificación de los datos de imagen y en una unidad de datos que es diferente de la unidad de codificación .
Con el propósito de realizar la transformación en la unidad de codificación, la transformación podría ser realizada en función de una unidad de datos que tiene el tamaño más pequeño o igual a la unidad de codificación. Por ejemplo, la unidad de datos para la transformación podría incluir una unidad de datos para un intra-modo y una unidad de datos para un inter-modo.
La unidad de datos utilizada como la base de la transformación será referida de aquí en adelante como una unidad de transformación. La profundidad de transformación que indica el número de veces de división para conseguir la unidad de transformación mediante la división de la altura y el ancho de la unidad de codificación también podría ser colocada en la unidad de transformación. Por ejemplo, en una unidad de codificación actual de 2Nx2N, la profundidad de transformación podría ser de 0 cuando el tamaño de la unidad de transformación también es 2Nx2N, podría ser de 1 cuando cada uno de la altura y el ancho de la unidad de codificación actual es dividido en dos partes iguales, totalmente divididas en 4 unidades de transformación, y el tamaño de la unidad de transformación de esta manera, es NxN, y podría ser de 2 cuando cada uno de la altura y el ancho de la unidad de codificación actual es dividido en cuatro partes iguales, totalmente divididas en 4A2 unidades de transformación, y el tamaño de la unidad de transformación es de esta manera, de N/2xN/2. Por ejemplo, la unidad de transformación podría ser colocada de acuerdo con estructura jerárquica de árbol, en la cual una unidad de transformación de una profundidad más alta de transformación es dividida en cuatro unidades de transformación de una profundidad más baja de transformación de acuerdo con las características jerárquicas de una profundidad de transformación.
En forma similar a la unidad de codificación, la unidad de transformación en la unidad de codificación podría ser dividida, en forma recursiva en regiones de tamaño más pequeño, de modo que la unidad de transformación podría ser independientemente determinada en unidades de regiones . De esta manera, los datos residuales en la unidad de codificación podrían ser divididos de acuerdo con la transformación que tiene la estructura de árbol de acuerdo con las profundidades de transformación.
La información de codificación de acuerdo con las unidades de codificación que corresponde con una profundidad codificada utiliza la información acerca de la profundidad codificada y la información relacionada con la codificación de predicción y transformación. En consecuencia, el determinador de unidad de codificación 120 determina la profundidad codificada que tiene el error final de codificación y determina el tipo de partición en la unidad de predicción, el modo de predicción de acuerdo con las unidades de predicción y el tamaño de una unidad de transformación para la transformación.
Las unidades de codificación de acuerdo con una estructura de árbol en una unidad de codificación máxima y un método de determinación de una partición, de acuerdo con las modalidades de ejemplo, serán descritos en detalle más adelante con referencia a las Figuras 3-12.
El determinador de unidad de codificación 120 podría medir el error de codificación de unidades de codificación más profunda de acuerdo con las profundidades utilizando la optimización de relación-distorsión en función de los multiplicadores de LaGrange .
La unidad de salida 130 da salida a los datos de-imagen de la unidad de codificación máxima, que son codificados en función al menos de una profundidad codificada determinada por el determinador de unidad de codificación 120, y la información acerca del modo de codificación de acuerdo con la profundidad codificada, en flujos de bits.
Los datos codificados de imagen podrían ser obtenidos al codificar los datos residuales de una imagen.
La información acerca del modo de codificación de acuerdo con la profundidad codificada podría incluir al menos uno de la información acerca de la profundidad codificada, el tipo de partición en la unidad de predicción, el modo de predicción y el tamaño de la unidad de transformación.
La información acerca de la profundidad codificada podría ser definida utilizando la información dividida de acuerdo con las profundidades, que indica si la codificación es realizada en las unidades de codificación de una profundidad más baja el lugar de la profundidad actual. Si la profundidad actual de la unidad de codificación actual es la profundidad codificada, los datos de imagen en la unidad de codificación actual son codificados y salidos. En este caso, la información dividida podría ser definida para no dividir la unidad de codificación actual en una profundidad más baja. En forma alterna, si la profundidad actual de la unidad de codificación actual no es la profundidad codificada, la codificación es realizada en la unidad de codificación de la profundidad más baja. En este caso, la información dividida podría ser definida para dividir la unidad de codificación actual a fin de obtener las unidades de codificación de la profundidad más baja.
Si la profundidad actual no es la profundidad codificada, la codificación es realizada en la unidad de codificación que es dividida en la unidad de codificación de la profundidad más baja. En este caso, debido a que al menos existe una unidad de codificación de la profundidad más baja en una unidad de codificación de la profundidad actual, la codificación es realizada, en forma repetida, en cada unidad de codificación de la profundidad más baja, y de esta manera, la codificación podría ser realizada, en forma recursiva, para las unidades de codificación que tienen la misma profundidad .
Debido a que las unidades de codificación que tienen una estructura de árbol son determinadas para una unidad de codificación máxima, y la información acerca al menos de un modo de codificación es determinada para una unidad de codificación de una profundidad codificada, la información acerca al menos de un modo de codificación podría ser determinada para una unidad de codificación máxima. Asimismo, la profundidad codificada de los datos de imagen de la unidad de codificación máxima podría ser diferente de acuerdo con las ubicaciones debido a que los datos de imagen son erárquicamente divididos de acuerdo con las profundidades, y de esta manera, la información acerca de la profundidad codificada y el modo de codificación podría ser establecida para los datos de imagen.
En consecuencia, la unidad de salida 130 podría asignar la información de codificación acerca de una profundidad codificada correspondiente y un modo de codificación al menos a una de la unidad de codificación, la unidad de predicción, y una unidad mínima incluida en la unidad de codificación máxima.
La unidad mínima de acuerdo con una modalidad de ejemplo es una unidad rectangular de datos obtenida mediante la división de la unidad de codificación mínima de la profundidad más baja entre 4. En forma alterna, la unidad mínima podría ser una unidad rectangular máxima de datos que podría ser incluida en todas las unidades de codificación, las unidades de predicción, las unidades de partición, y las unidades de transformación incluidas en la unidad de codificación máxima.
Por ejemplo, la información de codificación salida a través de la unidad de salida 130 podría ser clasificada en la información de codificación de acuerdo con las unidades de codificación y la información de codificación de acuerdo con las unidades de predicción. La información de codificación de acuerdo con las unidades de codificación podría incluir la información acerca del modo de predicción y el tamaño de las particiones. La información de codificación de acuerdo con las unidades de predicción podría incluir la información acerca de la dirección estimada de un inter-modo, un índice de imagen de referencia del inter-modo, un vector de movimiento, un componente croma de un intra-modo, y un método de interpolación del intra-modo. Asimismo, la información acerca del tamaño máximo de la unidad de codificación definida de acuerdo con imágenes, rebanadas, o GOPs, y la información acerca de la profundidad máxima podrían ser insertadas al menos en uno de un conjunto de parámetro de secuencia (SPS) o un encabezado de un flujo de bits.
En el aparato de codificación de video 100, la unidad de codificación más profunda podría ser una unidad de codificación obtenida dividiendo entre dos al menos uno de la altura y el ancho de una unidad de codificación de una profundidad más alta, que es una capa por encima. Por ejemplo, cuando el tamaño de la unidad de codificación de la profundidad actual es 2Nx2N, el tamaño de la unidad de codificación de la profundidad más baja podría ser NxN. Asimismo, la unidad de codificación de la profundidad actual que tiene el tamaño de 2Nx2N podría incluir un máximo de 4 unidades de codificación de la profundidad más baja.
En consecuencia, el aparato de codificación de video 100 podría formar las unidades de codificación que tienen la estructura de árbol al determinar las unidades de codificación que tienen una forma óptima y un tamaño óptimo para cada unidad de codificación máxima, en función del tamaño de la unidad de codificación máxima y la profundidad máxima determinados considerando las características de la imagen actual. Asimismo, debido a que la codificación podría ser realizada en cada unidad de codificación máxima utilizando cualquiera uno de varios modos de predicción y transformaciones, el modo óptimo de codificación podría ser determinado considerando las características de la unidad de codificación de varios tamaños de imagen.
De esta manera, si es codificada una imagen que tiene alta resolución o una gran cantidad de datos en un macrobloque de la técnica relacionada, se incrementa el número de macrobloques por imagen de manera excesiva. En consecuencia, se incrementa el número de piezas de la información comprimida que es generada para cada macrobloque, y de esta manera, es difícil transmitir la información comprimida y disminuye la eficiencia de la compresión de datos. Sin embargo, utilizando el aparato de codificación de video 100 de acuerdo con una modalidad de ejemplo, podría ser incrementada la eficiencia de la comprensión de imagen debido a que una unidad de codificación es ajustada mientras se consideran las características de una imagen y se incrementa el tamaño máximo de una unidad de codificación mientras se considera el tamaño de la imagen.
La Figura 2 es un diagrama de bloque de un aparato de decodificación de video 200 de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 2, el aparato de decodificación de video 200 incluye un receptor 210, un extractor de información de codificación y datos de imagen 220, y un decodificador de datos de imagen 230. Las definiciones de varios términos, tales como una unidad de codificación, una profundidad, una unidad de predicción, y una unidad de transformación, y la información acerca de varios modos de codificación para varias operaciones del aparato de decodificación de video 200 son similares a las descritas con anterioridad con referencia a la Figura 1.
El receptor 210 recibe y analiza un flujo de bits de un video codificado. El extractor de información de codificación y datos de imagen 220 extrae los datos codificados de imagen para cada unidad de codificación del flujo analizado de bits, en donde las unidades de codificación tienen una estructura de árbol de acuerdo con cada unidad de codificación máxima, y da salida a los datos extraídos de imagen hacia el decodificador de datos de imagen 230. El extractor de información de codificación y datos de imagen 220 podría extraer la información acerca del tamaño máximo de una unidad de codificación de una imagen actual el encabezado acerca de la imagen actual o un SPS.
Asimismo, el extractor de información de codificación y datos de imagen 220 extrae la información acerca de la profundidad codificada y el modo de codificación para las unidades de codificación que tienen una estructura de árbol de acuerdo con cada unidad de codificación máxima, del flujo analizado de bits. La información extraída acerca de la profundidad codificada y el modo de codificación es salida hacia el decodificador de datos de imagen 230. Es decir, los datos de imagen en un flujo de bits son divididos en la unidad de codificación máxima de modo que el decodificador de datos de imagen 230 decodifica los datos de imagen para cada unidad de codificación máxima.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con la unidad de codificación máxima podría ser establecida para la información al menos acerca de la unidad de codificación que corresponde con la profundidad codificada, y la información acerca de un modo de codificación podría incluir la información al menos acerca de un tipo de partición de una correspondiente unidad de codificación que corresponde con la profundidad codificada, el modo de predicción y el tamaño de una unidad de transformación. Asimismo, la información de división de acuerdo con las profundidades podría ser extraída como la información acerca de la profundidad codificada.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con cada unidad de codificación máxima extraídos por el extractor de información de codificación y datos de imagen 220 es la información acerca de la profundidad codificada y el modo de codificación determinados para generar un error de codificación mínima cuando un codificador, tal como un aparato de codificación de video 100 de acuerdo con una modalidad de ejemplo, realiza, en forma repetida, la codificación para cada unidad de codificación más profunda en función de las profundidades de acuerdo con cada unidad de codificación máxima. En consecuencia, el aparato de decodificación de video 200 podría restaurar la imagen decodificando los datos de imagen de acuerdo con una profundidad codificada y un modo de codificación que genera el error de codificación mínima.
Debido a que la codificación de la información acerca de la profundidad codificada y el modo de codificación podría ser asignada a una unidad predeterminada de datos de entre una correspondiente unidad de codificación, una unidad de predicción, y una unidad mínima, el extractor de información de codificación y datos de imagen 220 podría extraer la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades predeterminadas de datos. Las unidades predeterminadas de datos en las cuales la misma información acerca de la profundidad codificada y el modo de codificación es asignada, podrían ser las unidades de datos incluidas en la misma unidad de codificación máxima.
El decodificador de datos de imagen 230 restaura la imagen actual de codificando los datos de imagen en cada unidad de codificación máxima en función de la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima. Por ejemplo, el decodificador de datos de imagen 230 podría decodificar los datos codificados de imagen en función de la información extraída acerca del tipo de partición, el modo de predicción, y la unidad de transformación para cada unidad de codificación de entre las unidades de codificación que tienen la estructura de árbol incluida en cada unidad de codificación máxima. El proceso de decodificación podría incluir una predicción que a su vez incluye intra-predicción y la compensación de movimiento y una transformación inversa.
La transformación inversa podría ser realizada de acuerdo con un método de transformación inversa ortogonal o transformación inversa de entero.
El decodificador de datos de imagen 230 podría realizar al menos una de la intra-predicción y la compensación de movimiento de acuerdo con una partición y un modo de predicción de cada unidad de codificación, en función de la información acerca del tipo de partición y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con las profundidades codificadas.
Asimismo, el decodificador de datos de imagen 230 podría realizar la transformación inversa de acuerdo con cada unidad de transformación en la unidad de codificación, en función de la información acerca del tamaño de la unidad de transformación de la unidad de codificación de acuerdo con las profundidades codificadas, para así realizar la transformación inversa de acuerdo con las unidades de codificación máxima.
El decodificador de datos de imagen 230 podría determinar al menos una profundidad codificada de una unidad de codificación máxima actual utilizando la información dividida de acuerdo con las profundidades. Si la información dividida indica que los datos de imagen ya no son más divididos en la profundidad actual, la profundidad actual es una profundidad codificada. En consecuencia, el decodificador de datos de imagen 230 podría decodificar los datos decodificados por lo menos de una unidad de codificación que corresponde con cada profundidad codificada en la unidad de codificación máxima actual utilizando al menos uno de la información acerca del tipo de partición de la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformación para cada unidad de codificación que corresponde con la profundidad codificada, y da salida a los datos de imagen de la unidad de codificación máxima actual.
Por ejemplo, las unidades de datos que incluyen la información de codificación que tienen la misma la información dividida podrían ser reunidas observando la información de codificación establecida que es asignada para la unidad predeterminada de datos de entre la unidad de codificación, la unidad de predicción, y la unidad mínima, y las unidades reunidas de datos podrían ser consideradas que son una unidad de datos que será decodi icada por el decodifícador de datos de imagen 230 en el mismo modo de codificación .
El aparato de decodificación de video 200 podría obtener la información al menos acerca de una unidad de codificación que genera el error de codificación mínima cuando la codificación es realizada, en forma recursiva, para cada unidad de codificación máxima, y podría utilizar la información para decodificar la imagen actual. Es decir, podrían ser decodificadas las unidades de codificación que tienen la estructura de árbol determinadas para hacer las unidades de codificación óptima en cada unidad de codificación máxima. Asimismo, el tamaño máximo de la unidad de codificación podría ser determinado considerando al menos uno de la resolución y la cantidad de datos de imagen.
En consecuencia, incluso si los datos de imagen tienen alta resolución y una gran cantidad de datos, los datos de imagen podría ser decodificados y restaurados, de manera eficiente, utilizando un tamaño de una unidad de codificación y un modo de codificación, los cuales son determinados, de manera adaptiva de acuerdo con las características de los datos de imagen, y la información acerca de un modo óptimo de codificación recibido de un codificador.
Un método de determinación de las unidades de codificación que tienen una estructura de árbol, una unidad de predicción, y una unidad de transformación, de acuerdo con una o más modalidades de ejemplo, será descrito con referencia a las Figuras 3-13.
La Figura 3 es un diagrama que describe un concepto de las unidades de codificación de acuerdo con una modalidad de ejemplo. Un tamaño de una unidad de codificación podría ser expresado en ancho x altura. Por ejemplo, el tamaño de la unidad de codificación podría ser de 64x64, 32x32, 16x16, o 8x8. Una unidad de codificación de 64x64 podría ser dividida en las particiones de 64x64, 64x32, 32x64, o 32x32, y una unidad de codificación de 32x32 podría ser dividida en las particiones de 32x32, 32x16, 16x32, o 16x16, una unidad de codificación de 16x16 podría ser dividida en las particiones de 16x16, 16x8, 8x16, o 8x8, y una unidad de codificación de 8x8 podría ser dividida en las particiones de 8x8, 8x4, 4x8, o 4x4.
Con referencia a la Figura 3, se proporcionan, de manera de ejemplo, los primeros datos de video 310 con una resolución de 1920x1080 y una unidad de codificación con un tamaño máximo de 64 y una profundidad máxima de 2. Además, se proporcionan, de manera de ejemplo, los segundos datos de video 320 con una resolución de 1920x1080 y una unidad de codificación con un tamaño máximo de 64 y una profundidad máxima de 3. Asimismo, se proporcionan, de manera de ejemplo, los terceros datos de video 330 con una resolución de 352x288, y una unidad de codificación con un tamaño máximo de 16 y una profundidad máxima de 1. La profundidad máxima mostrada en la Figura 3 denota un número total de divisiones de una unidad de codificación máxima en una unidad de decodificación mínima.
Si la resolución es alta o es grande la cantidad de datos, podría ser gran del tamaño máximo de una unidad de codificación de modo que se incrementa la eficiencia de la codificación y refleja, de manera exacta, las características de una imagen. En consecuencia, el tamaño máximo de la unidad de codificación de los primeros y segundos datos de video 310 y 320 que tienen la resolución más alta que los terceros datos de video 330 podría ser de 64.
Debido a que la profundidad máxima de los primeros datos de video 310 es 2, las unidades de codificación 315 de los primeros datos de video 310 podrían incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y las unidades de codificación que tienen tamaños deje largo de 32 y 16 debido a que las profundidades son profundizadas en dos capas dividiendo la unidad de codificación máxima dos veces. Mientras tanto, debido a que la profundidad máxima de los terceros datos de video 330 es 1, las unidades de codificación 335 de los terceros datos de video 330 podrían incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 16, y las unidades de codificación que tienen un tamaño de eje largo de 8 debido a que las profundidades son profundizadas en una capa dividiendo la unidad de codificación máxima una vez.
Debido a que la profundidad máxima de los segundos datos de video 320 es 3, las unidades de codificación 325 de los segundos datos de video 320 podrían incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y las unidades de codificación que tienen tamaños de eje largo de 32, 16, y 8 debido a que las profundidades son profundizadas en 3 capas dividiendo la unidad de codificación máxima tres veces. A medida que se profundiza la profundidad, la información detallada podría ser expresada, de manera precisa.
La Figura 4 es un diagrama de bloque de un codificador de imagen 400 basado en las unidades de codificación, de acuerdo con una modalidad de ejemplo. El codificador de imagen 400 podría realizar las operaciones de un determinador de unidad de codificación 120 de un aparato de codificación de video 100 de acuerdo con una modalidad de ejemplo para codificar los datos de imagen. Es decir, con referencia a la Figura 4, un intra-predictor 410 realiza la intra-predicción en las unidades de codificación, de entre un cuadro actual 405, en un intra-modo, y un estimador de movimiento 420 y un compensador de movimiento 425 realizan la inter-estimación y la compensación de movimiento en las unidades de codificación, de entre el cuadro actual 405, en un inter-modo utilizando el cuadro actual 405 y un cuadro de referencia 495.
Los datos salidos a partir del intra-predictor 410, el estimador de movimiento 420 y el compensador de movimiento 425 son salidos como un coeficiente cuantificado de transformación a través de un transformador 430 y un cuantificador 440. El coeficiente cuantificado de transformación es restaurado como los datos en un dominio espacial a través de un cuantificador inverso 460 y un transformador inverso 470, y los datos restaurados en el dominio espacial son salidos como el cuadro de referencia 495 después de ser posteriormente procesados a través de una unidad de desbloqueo 480 y una unidad de filtrado de circuito 490. El coeficiente cuantificado de transformación podría ser salido como un flujo de bits 455 a través de un codificador de entropía 450.
Con el propósito que el codificador de imagen 400 sea aplicado en el aparato de codificación de video 100, los elementos del codificador de imagen 400, es decir, el intra-predictor 410, el estimador de movimiento 420, el compensador de movimiento 425, el transformador 430, el cuantificador 440, el codificador de entropía 450, el cuantificador inverso 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtrado de circuito 490, realizar las operaciones basadas en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol mientras se considera la profundidad máxima de cada unidad de codificación máxima.
De manera específica, el intra-predictor 410, el estimador de movimiento 420, y el compensador de movimiento 425 determinar las particiones y un modo de predicción de cada unidad de codificación de entre las unidades de codificación que tiene una estructura de árbol mientras se considera un tamaño máximo y una profundidad máxima de una unidad de codificación máxima actual, y el transformador 430 determina el tamaño de la unidad de transformación en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol .
La Figura 5 es un diagrama de bloque de un decodificador de imagen 500 basado en las unidades de codificación, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 5, un analizador 510 analiza los datos codificados de imagen que serán decodificados y la información acerca de la codificación utilizada para decodificar un flujo de bits 505. Los datos codificados de imagen son salidos como los datos cuantificados inversos a través de un decodificador de entropía 520 y un cuantificador inverso 530, y los datos cuantificados inversos son restaurados en los datos de imagen en un dominio espacial a través de un transformador inverso 540.
Un intra-predictor 550 realiza la intra-predicción en las unidades de codificación en un intra-modo con respecto a los datos de imagen en el dominio espacial, y un compensador de movimiento 560 realiza la compensación de movimiento en las unidades de codificación en un inter-modo utilizando un cuadro de referencia 585.
Los datos de imagen en el dominio espacial, que pasaron a través del intra-predictor 550 y el compensador de movimiento 560, podría ser salidos como un cuadro restaurado 595 después de ser posteriormente procesados a través de una unidad de desbloqueo 570 y una unidad de filtrado de circuito 580. Asimismo, los datos de imagen que son posteriormente procesados a través de la unidad de desbloqueo 570 y la unidad de filtrado de circuito 580 podrían ser salidos como el cuadro de referencia 585.
Con el propósito de decodificar los datos de imagen en un decodificador de datos de imagen 230 de un aparato de decodificación de video 200 de acuerdo con una modalidad de ejemplo, el decodificador de imagen 500 podría realizar las operaciones que son efectuadas después del analizador 510. Con el propósito que el decodificador de imagen 500 sea aplicado en el aparato de decodificación de video 200, los elementos del decodificador de imagen 500, es decir, el analizador 510, el decodificador de entropía 520, el cuantificador inverso 530, el transformador inverso 540, el intra-predictor 550, el compensador de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtrado de circuito 580, realizan las operaciones basadas en las unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
De manera específica, el intra-predictor 550 y el compensador de movimiento 560 realizan las operaciones basadas en las particiones y un modo de predicción para cada una de las unidades de codificación que tiene una estructura de árbol, y el transformador inverso 540 realiza las operaciones basadas en un tamaño de una unidad de transformación para cada unidad de codificación.
La Figura 6 es un diagrama que ilustra las unidades de codificación más profunda de acuerdo con las profundidades, y las particiones, de acuerdo con una modalidad de ejemplo.
Un aparato de codificación de video 100 y un aparato de decodificación de video 200 de acuerdo con las modalidades de ejemplo utilizar las unidades de codificación jerárquica a fin de considerar las características de una imagen. La altura máxima, el ancho máximo y la profundidad máxima de las unidades de codificación podrían ser determinados, de manera adaptiva, de acuerdo con las características de la imagen, o podrían ser diferentemente establecidos por el usuario. Los tamaños de unidades de codificación más profunda de acuerdo con las profundidades podrían ser determinados de acuerdo con el tamaño máximo predeterminado de la unidad de codificación.
Con referencia a la Figura 6, en una estructura jerárquica 600 de las unidades de codificación de acuerdo con una modalidad de ejemplo, la altura máxima y el ancho máximo de las unidades de codificación son cada uno 64, y la profundidad máxima es 4. Debido a que una profundidad se profundiza a lo largo del eje vertical de la estructura jerárquica 600, la altura y el ancho de una unidad de codificación más profunda son divididos cada uno. Asimismo, una unidad de predicción y las particiones, que son las bases para la codificación de predicción de cada unidad de codificación más profunda, son mostradas a lo largo del eje horizontal de la estructura jerárquica 600.
Es decir, una primera unidad de codificación 610 es una unidad de codificación máxima en la estructura jerárquica 600, en donde una profundidad es 0 y un tamaño, es decir, la altura por el ancho, es de 64x64. La profundidad se profundiza a lo largo del eje vertical, y una segunda unidad de codificación 620 que tiene un tamaño de 32x32 y una profundidad de 1, una tercera unidad de codificación 630 que tiene un tamaño de 16x16 y una profundidad de 2, una cuarta unidad de codificación 640 que tiene un tamaño de 8x8 y una profundidad de 3 , y una quinta unidad de codificación 650 que tiene un tamaño de 4x4 y una profundidad de 4 existen. La quinta unidad de codificación 650 que tiene el tamaño de 4x4 y la profundidad de 4 es una unidad de codificación mínima.
La unidad de predicción y las particiones de una unidad de codificación son colocadas a lo largo del eje horizontal de acuerdo con cada profundidad. Es decir, si la primera unidad de codificación 610 que tiene el tamaño de 64x64 y la profundidad de 0 es una unidad de predicción/ la unidad de predicción podría ser dividida en las particiones incluidas en la primera unidad de codificación 610, es decir, una partición 610 que tiene un tamaño de 64x64, las particiones 612 que tiene un tamaño de 64x32, las particiones 614 que tiene un tamaño de 32x64, o las particiones 616 que tiene un tamaño de 32x32.
En forma similar, una unidad de predicción de la segunda unidad de codificación 620 que tiene el tamaño de 32x32 y la profundidad de 1 podría ser 'dividida en las particiones incluidas en la segunda unidad de codificación 620, es decir, una partición 620 que tiene un tamaño de 32x32, las particiones 622 que tiene un tamaño de 32x16, las particiones 624 que tiene un tamaño de 16x32, y las particiones 626 que tiene un tamaño de 16x16.
En forma similar, una unidad de predicción de la tercera unidad de codificación 630 que tiene el tamaño de 16x16 y la profundidad de 2 podría ser dividida en las particiones incluidas en la tercera unidad de codificación 630, es decir, una partición que tiene un tamaño de 16x16 incluida en la tercera unidad de codificación 630, las particiones 632 que tiene un tamaño de 16x8, las particiones 634 que tiene un tamaño de 8x16, y las particiones 636 que tiene un tamaño de 8x8.
En forma similar, una unidad de predicción de la cuarta unidad de codificación 640 que tiene el tamaño de 8x8 y la profundidad de 3 podría ser dividida en las particiones incluidas en la cuarta unidad de codificación 640, es decir, una partición que tiene un tamaño de 8x8 incluida en la cuarta unidad de codificación 640, las particiones 642 que tiene un tamaño de 8x4, las particiones 644 que tiene un tamaño de 4x8, y las particiones 646 que tiene un tamaño de 4x4.
La quinta unidad de codificación 650 que tiene el tamaño de 4x4 y la profundidad de 4 es la unidad de codificación mínima y la unidad de codificación de la profundidad más baja. La unidad de predicción de la quinta unidad de codificación 650 sólo es asignada a una partición que tiene un tamaño de 4x4.
Con el propósito de determinar al menos una profundidad codificada de las unidades de codificación de la unidad de codificación máxima 610, un determinador de unidad de codificación 120 del aparato de codificación de video 100 realiza la codificación para las unidades de codificación que corresponde con cada profundidad incluida en la unidad de codificación máxima 610.
El número de unidades de codificación más profunda de acuerdo con las profundidades que incluye los datos en el mismo intervalo y el mismo tamaño se incrementa a medida que se profundiza la profundidad. Por ejemplo, cuatro unidades de codificación que corresponden con una profundidad de 2 son utilizadas para cubrir los datos que son incluidos en una unidad de codificación que corresponde con una profundidad de 1. En consecuencia, con el propósito de comparar los resultados de la codificación de los mismos datos de acuerdo con las profundidades, la unidad de codificación que corresponden con la profundidad de 1 y cuatro unidades de codificación que corresponden con la profundidad de 2 es codificada cada una.
Con el propósito de realizar la codificación para una profundidad actual de entre las profundidades, un error final de codificación podría ser seleccionado para la profundidad actual realizando la codificación para cada unidad de predicción en las unidades de codificación que corresponde con la profundidad actual, a lo largo del eje horizontal de la estructura jerárquica 600. En forma alterna, el error de codificación mínima podría ser buscado comparando los errores últimos de codificación de acuerdo con las profundidades, al realizar la codificación para cada profundidad a medida que se profundiza la profundidad a lo largo del eje vertical de la estructura jerárquica 600. Una profundidad y una partición que tienen el error de codificación mínima en la primera unidad de codificación 610 podrían ser seleccionadas como la profundidad codificada y el tipo de partición de la primera unidad de codificación 610.
La Figura 7 es un diagrama que describe la relación entre una unidad de codificación 710 y las unidades de transformación 720, de acuerdo con una modalidad de ejemplo.
Un aparato de codificación o decodificación de video 100 o 200 de acuerdo con las modalidades de ejemplo codifica o decodifica una imagen de acuerdo con las unidades de codificación que tienen tamaños más pequeños o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de las unidades de transformación para la transformación durante la codificación podrían ser seleccionados en función de las unidades de datos que no son más grandes que una correspondiente unidad de codificación .
Por ejemplo, en el aparato de codificación o decodificación de video 100 o 200, si el tamaño de la unidad de codificación 710 es 64x64, la transformación podría ser realizada utilizando las unidades de transformación 720 que tienen un tamaño de 32x32.
Asimismo, los datos de la unidad de codificación 710 que tienen el tamaño de 64x64 podrían ser codificados al realizar la transformación en cada una de las unidades de transformación que tiene el tamaño de 32x32, 16x16, 8x8, y 4x4, que son más pequeños que 64x64, de manera que una unidad de transformación que tiene el último horror de decodificación podría ser seleccionada.
La Figura 8 es un diagrama que describe la información de codificación de las unidades de codificación que corresponden con una profundidad codificada, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 8, una unidad de salida 130 de un aparato de codificación de video 100 de acuerdo con una modalidad de ejemplo podría codificar y transmitir la información 800 acerca de un tipo de partición, la información 810 acerca de un modo de predicción, y la información 820 acerca de un tamaño de una unidad de transformación para cada unidad de codificación que corresponde con una profundidad codificada, como la información acerca de un modo de codificación.
La información 800 acerca del tipo de partición es la información acerca de la forma de una partición obtenida mediante la división de una unidad de predicción de una unidad de codificación actual, en donde la partición es una unidad de datos para la codificación de predicción de la unidad de codificación actual. Por ejemplo, una unidad de codificación actual CU_0 que tiene un tamaño de 2Nx2N podría ser dividida en cualquiera una de una partición 802 que tiene un tamaño de 2Nx2N, una partición 804 que tiene un tamaño de 2NxN, una partición 806 que tiene un tamaño de Nx2N, y una partición 808 que tiene un tamaño de Nx . Aquí, la información 800 acerca del tipo de partición es establecida para indicar una de la partición 804 que tiene un tamaño de 2Nx , la partición 806 que tiene un tamaño de Nx2N, y la partición 808 que tiene un tamaño de NxN La información 810 acerca del modo de predicción indica el modo de predicción de cada partición. Por ejemplo, la información 810 acerca del modo de predicción podría indicar el modo de la codificación de predicción realizado en una partición indicada por la información 800 acerca del tipo de partición, es decir, un intra-modo 812, un inter-modo 814, o un modo de salto 816.
La información 820 acerca del tamaño de una unidad de transformación indica una unidad de transformación que estará basada en el momento cuando sea realizada la transformación de una unidad de codificación actual. Por ejemplo, la unidad de transformación podría ser una primera unidad de intra-transformación 822, una segunda unidad de intra-transformación 824, una primera unidad de inter-transformación 826, o una segunda unidad de intra-transformación 828.
Un extractor de información de codificación y datos de imagen 220 de un aparato de decodificación de video 200 de acuerdo con una modalidad de ejemplo podría extraer y utilizar la información 800, 810, y 820 para la decodificación, de acuerdo con cada unidad de codificación más profunda .
La Figura 9 es un diagrama de unidades de codificación más profunda de acuerdo con las profundidades, de acuerdo con una modalidad de ejemplo.
La información dividida podría ser utilizada para indicar el cambio de una profundidad. La información dividida indica si una unidad de codificación de una profundidad actual es dividida en unidades de codificación de una profundidad más baja.
Con referencia a la Figura 9, una unidad de predicción 910 para la codificación de predicción de una unidad de codificación 900 que tiene una profundidad de 0 y un tamaño de 2N_0x2N_0 podría incluir las particiones de un tipo de partición 912 que tiene un tamaño de 2N_0x2N_0 , un tipo de partición 914 que tiene un tamaño de 2N_0xN_0, un tipo de partición 916 que tiene un tamaño de N_0x2N_0 , y un tipo de partición 918 que tiene un tamaño de N_0x _0. Aunque la Figura 9 sólo ilustra los tipos de partición 912-918 que son obtenidos al dividir, en forma simétrica, la unidad de predicción 910, se entiende que un tipo de partición no es limitado a los mismos. Por ejemplo, de acuerdo con otra modalidad ejemplo, las particiones de la unidad de predicción 910 podrían incluir particiones asimétricas, las particiones que tienen una forma predeterminada, y las particiones que tienen una forma geométrica.
La codificación de predicción es realizada, en forma repetida, en una partición que tiene un tamaño de 2N_0x2 _0 , en dos particiones que tienen un tamaño de 2N OxN 0, en dos particiones que tienen un tamaño de N_0x2N_0, y en cuatro particiones que tienen un tamaño de N_0xN_0 , de acuerdo con cada tipo de partición. La codificación de predicción en un intra-modo y un inter-modo podría ser realizada en las particiones que tienen los tamaños de 2N_0x2N_0 , N_0x2N_0, 2N_0xN_0 , y N_0xN_0. La codificación de predicción en un modo de salto sólo es realizada en la partición que tiene el tamaño de 2N_0x2N_0.
Los errores de codificación que incluyen la codificación de predicción en los tipos de partición 912-918 son comparados, y el error último de codificación es determinado entre los tipos de partición. Si un error de codificación es el más pequeño en uno de los tipos de partición 912-916, la unidad de predicción 910 no podría ser dividida en una profundidad más baja.
Por ejemplo, si el error de codificación es el más pequeño en el tipo de partición 918, la profundidad es cambiada de 0 a 1 para dividir el tipo de partición 918 en la operación 920, y la codificación es realizada, en forma repetida, en las unidades de codificación 930 que tienen una profundidad de 2 y un tamaño de N_0xN__0 para buscar un error de codificación mínima.
Una unidad de predicción 940 para la codificación de predicción de la unidad de codificación 930 que tiene una profundidad de 1 y un tamaño de 2N_lx2N_l (=N_0x _0) podría incluir las particiones de un tipo de partición 942 que tiene un tamaño de 2N_lx2N_l , un tipo de partición 944 que tiene un tamaño de 2N_lxN_l, un tipo de partición 946 que tiene un tamaño de N_lx2N__l, y un tipo de partición 948 que tiene un tamaño de N_lxN_l .
Como un ejemplo, si un error de codificación es el más pequeño en el tipo de partición 948, la profundidad es cambiada de 1 a 2 para dividir el tipo de partición 948 en la operación 950, y la codificación es realizada, en fórmarepetida, en las unidades de codificación 960, que tienen una profundidad de 2 y un tamaño de N_2x _2 para buscar un error de codificación mínima.
Guando una profundidad máxima es d, las operaciones divididas de acuerdo con cada podrían ser realizadas cuando una profundidad se convierta en d-l, y la información dividida podría ser codificada como cuando una profundidad es uno de 0 a d-2. Por ejemplo, cuando la codificación es realizada hasta cuando la profundidad es d-l una vez que una unidad de codificación que corresponde con una profundidad de d-2 es dividida en la operación 970, una unidad de predicción 990 para la codificación de predicción de una unidad de codificación 980 que tiene una profundidad de d-l y un tamaño de 2N_(d-l)x2N_(d-l) podría incluir las particiones de un tipo de partición 992 que tiene un tamaño de 2N_ (d- 1 ) x2N_ (d-1) , un tipo de partición 994 que tiene un tamaño de 2N (d-l)xN_(d-l), un tipo de partición 996 que tiene un tamaño de N_(d-l)x2N_(d-l) , y un tipo de partición 998 que tiene un tamaño de N_(d-1) x _(d-l) .
La codificación de predicción podría ser realizada, en forma repetida, en una partición que tiene un tamaño de 2N_(d-l)x2N_(d-l) , en dos particiones que tienen un tamaño de 2N_ (d- 1 ) x _ (d- 1) , en dos particiones que tienen un tamaño de N_(d-1) 2N_ (d-1) , en cuatro particiones que tienen un tamaño de N_(d-l)xN_(d-l) de entre los tipos de partición 992-998 para buscar un tipo de partición que tiene un error de codificación mínima.
Aún cuando el tipo de partición 998 tiene el error de codificación mínima, debido a que la profundidad máxima es d, una unidad de codificación CU_(d-l) que tiene una profundidad de d-1 ya no es más dividida en una profundidad más baja. En este caso, una profundidad codificada para las unidades de codificación de una unidad de codificación máxima actual 900 es determinada para que sea d-1 y un tipo de partición de la unidad de codificación máxima actual 900 podría ser determinado para que sea N_ (d-1) x _(d-l) . Asimismo, , debido a que la profundidad máxima es d y una unidad de codificación mínima 980 que tiene la profundidad más baja de d-1 ya no es más dividida en una profundidad más baja, la información dividida para la unidad de codificación mínima 980 no es establecida.
Una unidad de datos 999 podría ser una unidad mínima para la unidad de codificación máxima actual. Una unidad mínima de acuerdo con una modalidad de ejemplo podría ser una unidad rectangular de datos obtenida mediante la división de una unidad de codificación mínima 980 entre 4. Al realizar la codificación en forma repetida, un aparato de codificación de video 100 de acuerdo con una modalidad de ejemplo podría seleccionar una profundidad que tiene el error último de codificación comparando los errores de codificación de acuerdo con las profundidades de la unidad de codificación 900 para determinar la profundidad codificada, y establecer un tipo correspondiente de partición y un modo de predicción como un modo de codificación de la profundidad codificada.
Como tal, los errores de codificación mínima de acuerdo con las profundidades son comparados en todas las profundidades de 1-d, y una profundidad que tiene el error último de codificación podría ser determinada como una profundidad codificada. La profundidad codificada, el tipo de partición de la unidad de predicción, y el modo de predicción podrían ser codificados y transmitidos como la información acerca de un modo de codificación. Asimismo, debido a que una unidad de codificación es dividida de una profundidad de 0 a una profundidad codificada, la información dividida de la profundidad codificada es establecida en 0, y la información dividida de las profundidades que excluye la profundidad codificada es establecida en 1.
Un extractor de información de codificación y datos de imagen 220 de un aparato de decodificación de video 200 de acuerdo con una modalidad de ejemplo podría extraer y utilizar la información acerca de la profundidad codificada y la unidad de predicción de la unidad de codificación 900 para decodificar la partición 912. El aparato de decodificación de video 200 podría determinar la profundidad, en la cual la información dividida es 0 como la profundidad codificada utilizando la información dividida de acuerdo con las profundidades, y podría utilizar la información acerca de un modo de codificación de la profundidad correspondiente para la de codificación.
Las Figuras 10-12 son diagramas que describen la relación entre las unidades de codificación 1010, las unidades de predicción 1060 y las unidades de transformación 1070, de acuerdo con una o más modalidades de ejemplo.
Con referencia a la Figura 10, las unidades de codificación 1010 son unidades de codificación que tienen una estructura de árbol, que corresponden con las profundidades codificadas que son determinadas por un aparato de codificación de video 100 de acuerdo con una modalidad de ejemplo, en una unidad de codificación máxima. Con referencia a las Figuras 11 y 12, las unidades de predicción 1060 son particiones de las unidades de predicción de cada una de las unidades de codificación 1010, y las unidades de transformación 1070 son unidades de transformación de cada una de las unidades de codificación 1010.
Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades de codificación 1010, las profundidades de las unidades de codificación 1012 y 1054 son 1, las profundidades de las unidades de codificación 1014, 1016, 1018, 1028, 1050, y 1052 son 2, las profundidades de las unidades de codificación 1020, 1022, 1024, 1026, 1030, 1032, y 1048 son 3, y las profundidades de las unidades de codificación 1040, 1042, 1044, y 1046 son 4.
En las unidades de predicción 1060, algunas unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, 1052 y 1054 son obtenidas dividiendo las unidades de codificación de las unidades de codificación 1010. En particular, los tipos de partición en las unidades de codificación 1014, 1022, 1050 y 1054 tienen un tamaño de 2NxN, los tipos de partición en las unidades de codificación 1016, 1048 y 1052 tienen un tamaño de Nx2N, y un tipo de partición de la unidad de codificación 1032 tiene un tamaño de NxN. Las unidades de predicción y las particiones de las unidades de codificación 1010 son más pequeñas o iguales a cada unidad de codificación .
La transformación o la transformación inversa es realizada en los datos de imagen de la unidad de codificación 1052 en las unidades de transformación 1070 en una unidad de datos que es más pequeña que la unidad de codificación 1052. Asimismo, las unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050 y 1052 de las unidades de transformación 1070 son diferentes de aquellas de las unidades de predicción 1060 en términos de tamaños y formas. Es decir, los aparatos de codificación y decodificación de video 100 y 200 de acuerdo con las modalidades de ejemplo podrían realizar la intra-predicción, la estimación de movimiento, la compensación de movimiento, la transformación y la transformación de movimiento, de manera individual, en una unidad de datos en la misma unidad de codificación.
En consecuencia, la codificación es realizada, de manera recursiva, en cada una de las unidades de codificación que tiene una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y de esta manera, la codificación de las unidades que tienen una estructura recursiva de árbol podría ser obtenida. La información de codificación podría incluir la información dividida acerca de una unidad de codificación, la información acerca de un tipo de partición, la información acerca de un modo de predicción, y la información acerca de un tamaño de una unidad de transformación. La tabla de ejemplo 1 muestra la información de codificación que podría ser establecida por el aparato de codificación y decodificación de video 100 y 200.
Tabla 1 Una unidad de salida 130 del aparato de codificación de video 100 podría dar salida a la codificación la información acerca de las unidades de codificación que tiene una estructura de árbol, y un extractor de información de codificación y datos de imagen 220 del aparato de decodificación de video 200 podría extraer la codificación de la información acerca de las unidades de codificación que tiene una estructura de árbol de un flujo recibido de bits.
La información dividida indica si una unidad de codificación actual es dividida en unidades de codificación de una profundidad más baja. Si la información dividida de una profundidad actual d es 0, una profundidad en la cual una unidad de codificación actual ya no es más dividida en una profundidad más baja es una profundidad codificada. La información acerca de un tipo de partición, el modo de predicción, y podría ser definido el tamaño de una unidad de transformación para la profundidad codificada. Si la unidad de codificación actual además es dividida de acuerdo con la información dividida, la codificación es independientemente realizada en las unidades divididas de codificación de una profundidad más baja.
Un modo de predicción podría ser uno de un intra-modo, un inter-modo, y un modo de salto. El intra-modo y el inter-modo podrían ser definidos en todos . los tipos de partición, y el modo de salto sólo podría ser definido en un tipo de partición que tiene un tamaño de 2Nx2N.
La información acerca del tipo de partición podría indicar los tipos de partición simétrica que tienen tamaños de 2Mx2N, 2NxN, Nx2N, y NxN, los cuales son obtenidos al dividir en forma simétrica la altura o el ancho de una unidad de predicción, y los tipos de partición asimétrica que tienen tamaños de 2NxnU, 2NxnD, nLx2N, y nRx2N, los cuales son obtenidos al dividir en forma asimétrica la altura o el ancho de la unidad de predicción. Los tipos de partición asimétrica que tienen los tamaños de 2NxnU y 2NxnD podrían ser respectivamente obtenidos al dividir la altura de la unidad de predicción en relaciones de 1:3 y 3:1, y los tipos de partición asimétrica que tienen los tamaños de nLx2N y nRx2N podrían ser respectivamente obtenidos al dividir el ancho de la unidad de predicción en relaciones de 1:3 y 3:1 El tamaño de la unidad de transformación podría ser establecido para que sea de dos tipos en el intra-modo y de dos tipos en el inter-modo. Por ejemplo, si la información dividida de la unidad de transformación es 0, el tamaño de la unidad de transformación podría ser de 2Nx2N, que es el tamaño de la unidad de codificación actual. Si la información dividida de la unidad de transformación es 1, las unidades de transformación podrían ser obtenidas dividiendo la unidad de codificación actual. Asimismo, si un tipo de partición de la unidad de codificación actual que tiene el tamaño de 2Nx2N es un tipo de partición simétrica, el tamaño de una unidad de transformación podría ser de NxN, y si el tipo de partición de la unidad de codificación actual es un tipo de partición asimétrica, el tamaño de la unidad de transformación podría ser de N/2xN/2.
La información de codificación acerca de las unidades de codificación que tienen una estructura de árbol podría incluir al menos una de una unidad de codificación que corresponde con una profundidad codificada, una unidad de codificación que corresponde con una unidad de predicción, y una unidad de codificación que corresponde con una unidad mínima. La unidad de codificación que corresponde con la profundidad codificada podría incluir al menos una de una unidad de predicción y una unidad mínima a su vez incluye la misma información de codificación.
En consecuencia, se determina si las unidades adyacentes de datos son incluidas en la misma unidad de codificación que corresponde con la profundidad codificada comparando la información de codificación de las unidades adyacentes de datos. Asimismo, una correspondiente unidad de codificación que corresponde con una profundidad codificada es determinada utilizando la información de codificación de una unidad de datos, y de esta manera, podría ser determinada la distribución de las profundidades codificadas en una unidad de codificación máxima.
En consecuencia, si una unidad de codificación actual es prevista en función de la información de codificación de las unidades adyacentes de datos, la información de codificación de las unidades de datos en las unidades de codificación más profunda adyacentes a la unidad de codificación actual podría ser directamente referida y utilizada. Sin embargo, se entiende otra modalidad ejemplo no es limitado a la misma. Por ejemplo, de acuerdo con otra modalidad ejemplo, si una unidad de codificación actual es prevista en función de la información de codificación de las unidades adyacentes de datos, las unidades de datos adyacentes a la unidad de codificación actual son buscadas utilizando la información codificada de las unidades de datos, y las unidades adyacentes buscadas de codificación podría ser referidas para la predicción de la unidad de codificación actual.
La Figura 13 es un diagrama que describe la relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación, de acuerdo con la información de modo de codificación de la Tabla de ejemplo 1, de acuerdo con una modalidad de ejemplo.
Con referencia a la Figura 13, una unidad de codificación máxima 1300 incluye las unidades de codificación 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de profundidades codificadas. Aquí, debido a que la unidad de codificación 1318 es una unidad de codificación de una profundidad codificada, la información dividida podría ser establecida en 0. La información acerca de un tipo de partición de la unidad de codificación 1318 que tiene un tamaño de 2Nx2N podría ser establecida para que sea una de un tipo de partición 1322 que tiene un tamaño de 2Nx2N, un tipo de partición 1324 que tiene un tamaño de 2NxN, un tipo de partición 1326 que tiene un tamaño de Nx2N, un tipo de partición 1328 que tiene un tamaño de NxN, un tipo de partición 1332 que tiene un tamaño de 2NxnU, un tipo de partición 1334 que tiene un tamaño de 2NxnD, un tipo de partición 1336 que tiene un tamaño de nLx2N, y un tipo de partición 1338 que tiene un tamaño de nRx2 .
Cuando el tipo de partición es establecido para que sea simétrico, es decir, el tipo de partición 1322, 1324, 1326, o 1328, una unidad de transformación 1342 que tiene un tamaño de 2Nx2N es establecida si la información dividida (aviso de tamaño TU) de una unidad de transformación es 0, y una unidad de transformación 1344 que tiene un tamaño de NxN es establecida si un aviso de tamaño TU es 1.
Cuando el tipo de partición es establecido para que sea asimétrico, es decir, el tipo de partición 1332, 1334, 1336, o 1338, una unidad de transformación 1352 que tiene un tamaño de 2Nx2N es establecida si un aviso de tamaño TU es 0, y una unidad de transformación 1354 que tiene un tamaño de N/2x /2 es establecida si un aviso de tamaño TU as 1.
Con referencia a la Figura 13,- el aviso de tamaño TU es un aviso que tiene un valor de 0 o 1, aunque se entiende que el aviso de tamaño TU no es limitado a 1 bitio, y una unidad de transformación podría ser jerárquicamente dividida teniendo una estructura de árbol mientras el aviso de tamaño TU se incrementa a partir de 0.
En este caso, el tamaño de una unidad de transformación que ha sido en realidad utilizada podría ser expresado utilizando un aviso de tamaño TU de una unidad de transformación, de acuerdo con una modalidad de ejemplo, junto con un tamaño máximo y el tamaño mínimo de la unidad de transformación. De acuerdo con una modalidad de ejemplo, un aparato de codificación de video 100 es capaz de codificar la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima, y un aviso de tamaño TU máximo. El resultado de la codificación de la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima, y el aviso de tamaño TU máximo podría ser insertado en un SPS. De acuerdo con una modalidad de ejemplo, un aparato de decodificación de video 200 podría decodificar el video utilizando la información de tamaño de unidad de transformación máxima, la información de tamaño de unidad de transformación mínima, y el aviso de tamaño TU máximo.
Por ejemplo, si el tamaño de una unidad de codificación actual es 64x64 y el tamaño de unidad de transformación máxima es 32x32, el tamaño de una unidad de transformación podría ser de 32x32 cuando el aviso de tamaño TU es 0, podría ser de 16x16 cuando el aviso de tamaño TU es 1, y podría ser de 8x8 cuando el aviso de tamaño TU es 2.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 32x32 y el tamaño de unidad de transformación mínima es 32x32, el tamaño de la unidad de transformación podría ser de 32x32 cuando el aviso de tamaño TU es 0. Aquí, el aviso de tamaño TU no puede ser establecido en un valor diferente de 0, debido a que el tamaño de la unidad de transformación no puede ser menor que 32x32.
Como otro ejemplo, si el tamaño de la unidad de codificación actual es 64x64 y un aviso de tamaño TU máximo es 1, el aviso de tamaño TU podría ser de 0 ó 1. Aquí, el aviso de tamaño TU no puede ser establecido en un valor diferente de 0 ó 1.
De esta manera, si se define que el aviso de tamaño TU máximo es MaxTransformSizeIndex, el tamaño de unidad de transformación mínima es MinTransformSize, y el tamaño de unidad de transformación es RootTuSize cuando el aviso de tamaño TU es 0, el tamaño de unidad de transformación mínima actual CurrMinTuSize que puede determinarse en una unidad de codificación actual podría ser definido por la Ecuación (1) : CurrMinTuSize = ma (MinTransformSize , RootTuSize/ (2^MaxTransformSizeIndex) ) ... (1) .
Comparado con el tamaño de unidad de transformación mínima actual CurrMinTuSize que puede determinarse en la unidad de codificación actual, el tamaño de unidad de transformación RootTuSize cuando el aviso de tamaño TU es 0 podría denotar un tamaño de unidad de transformación máxima que puede ser seleccionado en el sistema. En la Ecuación (1) , RootTuSize/ (2^MaxTransformSizeIndex) denota un tamaño de unidad de transformación cuando el tamaño de unidad de transformación RootTuSize, cuando el aviso de tamaño TU es 0, es dividido un número de veces que corresponde con el aviso de tamaño TU máximo. Además, MinTransformSize denota el tamaño de transformación mínima. De esta manera, el valor más pequeño de entre RootTuSize/ (2AMaxTransformSizeIndex) y MinTransformSize podría ser el tamaño de unidad de transformación mínima actual CurrMinTuSize que puede determinarse en la unidad de codificación actual.
De acuerdo con una modalidad de ejemplo, el tamaño de unidad de transformación máxima RootTuSize podría variar de acuerdo con el tipo de un modo de predicción.
Por ejemplo, si un modo de predicción actual es un inter-modo, entonces, RootTuSize podría ser determinado utilizando la siguiente Ecuación (2) . En la Ecuación (2) , MaxTransformSize denota el tamaño de unidad de transformación máxima, y PUSize denota el tamaño de unidad de predicción actual".
RootTuSize = min (MaxTransformSize, PUSize) ... (2) .
Es decir, si el modo de predicción actual es el inter-modo, el tamaño de unidad de transformación RootTuSize cuando el aviso de tamaño TU es 0 podría ser un valor más pequeño de entre el tamaño de unidad de transformación máxima y el tamaño de unidad de predicción actual .
Si un modo de predicción de una unidad de partición actual es un intra-modo, RootTuSize podría ser determinado utilizando la siguiente Ecuación (3) . En la Ecuación (3) , el tamaño de partición denota el tamaño de la unidad de partición actual .
RootTuSize = min (MaxTransformSize , PartitionSize) ... (3) .
Es decir, si el modo de predicción actual es el intra-modo, el tamaño de unidad de transformación RootTuSize cuando el aviso de tamaño TU es 0 podría ser un valor más pequeño de entre el tamaño de unidad de transformación máxima y el tamaño de la unidad de partición actual .
Sin embargo, el tamaño de unidad de transformación máxima actual RootTuSize que varía de acuerdo con el tipo de un modo de predicción en una unidad de partición es simplemente de ejemplo, y no es limitado a la misma en otra modalidad de ejemplo.
La Figura 14 es un diagrama de flujo que ilustra un método de codificación de video de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 14, en la operación 1210, una imagen actual es dividida al menos en una unidad de codificación máxima. La profundidad máxima indica el número total de veces posibles división que podría ser predeterminado .
En la operación 1220, una profundidad codificada para dar salida al resultado final de la codificación de acuerdo al menos con una región dividida, que es obtenida dividiendo la región de cada unidad de codificación máxima de acuerdo con las profundidades, es determinada codificando al menos una región dividida, y es determinada una unidad de codificación de acuerdo con una estructura de árbol.
La unidad de codificación máxima es dividida, en forma espacial, cada vez que la profundidad se profundiza y de esta manera, es dividida en unidades de codificación de una profundidad más baja. Cada unidad de codificación podría ser dividida en unidades de codificación de otra profundidad más baja al ser espacialmente dividida, en forma independiente, de las unidades adyacentes de codificación. La codificación es realizada, en forma repetida, cada unidad de codificación de acuerdo con las profundidades.
Asimismo, una unidad de transformación de acuerdo con los tipos de partición que tiene el error último de codificación es determinada para cada unidad de codificación más profunda. Con el propósito de determinar una profundidad codificada que tiene un error de codificación mínima en cada unidad de codificación máxima, los errores de codificación podrían ser medidos y comparados en todas las unidades de codificación más profunda de acuerdo con las profundidades.
En la operación 1230, los datos codificados de imagen que son el resultado final de la codificación de acuerdo con la profundidad codificada son salidos para cada unidad de codificación máxima, con la codificación de la información acerca de la profundidad codificada y un modo de codificación. La información acerca del modo de codificación podría incluir al menos una de la información acerca de la profundidad codificada o la información dividida, la información acerca de un tipo de partición de una unidad de predicción, el modo de predicción, y el tamaño de una unidad de transformación. La información codificada acerca del modo de codificación podría ser transmitida a un decodificador con los datos codificados de imagen.
La Figura 15 es un diagrama de flujo que ilustra un método de decodificación de video de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 15, en la operación 1310, un flujo de bits de un video codificado es recibido y analizado.
En la operación 1320, los datos codificados de imagen de una imagen actual asignados a una unidad de codificación máxima y la información acerca de una profundidad codificada y un modo de codificación de acuerdo con las unidades de codificación máxima son extraídos del flujo analizado de bits. La profundidad codificada de cada unidad de codificación máxima es una profundidad que tiene el error último de codificación en cada unidad de codificación máxima. En la codificación de cada unidad de codificación máxima, los datos de imagen son codificados en función al menos de una unidad de datos obtenida al dividir, en forma jerárquica, cada unidad de codificación máxima de acuerdo con las profundidades .
De acuerdo con la información acerca de la profundidad codificada y el modo de codificación, la unidad de codificación máxima podría ser dividida en unidades de codificación que tienen una estructura de árbol. Cada una de las unidades de codificación que tiene la estructura de árbol es determinada como una unidad de codificación que corresponde con una profundidad codificada, y es codificada, de manera óptima, para salir el error último de codificación. En consecuencia, eficiencia de la codificación y la decodificación de una imagen podría ser mejorada de codificando cada pieza de los datos codificados de imagen en las unidades de codificación después de determinar al menos una profundidad codificada de acuerdo con las unidades de codificación .
En la operación 1330, los datos de imagen de cada unidad de codificación máxima son decodificados en función de la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima. Los datos decodificados de imagen podrían ser reproducidos por medio de un aparato de reproducción, almacenados en un medio de almacenamiento, o transmitidos a través de una red.
De aquí en adelante la codificación y decodificación de video realizadas en un modo de operación de una herramienta de codificación considerando un tamaño de una unidad de codificación de acuerdo con las modalidades de ejemplo serán descritas con referencia a las Figuras 16-23.
La Figura 16 es un diagrama de bloque de un aparato de codificación de video 1400 basado en una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 16, el aparato 1400 incluye un divisor de unidad de codificación máxima 1410, un determinador de unidad de codificación 1420 y una unidad de salida 1430.
El divisor de unidad de codificación máxima 1410 divide una imagen actual al menos en una unidad de codificación máxima.
El determinador de unidad de codificación 1420 codifica al menos una unidad de codificación máxima en unidades de codificación que corresponden con" las profundidades. En este caso, el determinador de unidad de codificación 1420 podría codificar una pluralidad de regiones divididas al menos de una unidad de codificación máxima los modos de operación que corresponde con las herramientas de codificación de acuerdo con las profundidades de las unidades de codificación, de manera respectiva, en función de la relación entre una profundidad de una unidad de codificación, una herramienta de codificación y un modo de operación.
El determinador de unidad de codificación 1420 codifica las unidades de decodificación que corresponden con todas las profundidades, compara los resultados de la codificación entre sí, y determina la profundidad de una unidad de codificación que tiene la eficiencia más alta de codificación como una profundidad codificada. Debido a que en las regiones divididas al menos se una unidad de codificación máxima, una profundidad que tiene la eficiencia más alta de codificación podría diferir de acuerdo con la ubicación, una profundidad codificada de cada una de las regiones divididas al menos de una unidad de codificación máxima podría ser independientemente determinada de aquellas de las otras regiones. De esta manera, más de una profundidad codificada podría ser definida en una unidad de codificación máxima.
Los ejemplos de una herramienta de codificación para la codificación podrían incluir la cuantificación, la transformación, la intra-predicción, la inter-predicción, la compensación de movimiento, la codificación de entropía, y el filtrado de circuito, las cuales son técnicas de codificación de video. De acuerdo con una modalidad de ejemplo, en el aparato de codificación de video 1400, cada una de la pluralidad de las herramientas de codificación podría ser realizada de acuerdo almendros con un modo de operación. Aquí, el término modo de operación indica el modo en el cual es realizada una herramienta de codificación.
Por ejemplo, si una herramienta de codificación es la inter-predicción, el modo de operación de la herramienta de codificación podría ser clasificado en un primer modo de operación el cual es seleccionado el valor promedio de los vectores de movimiento de las unidades vecinas de predicción, un segundo modo de operación en el cual es seleccionado un vector de movimiento de una unidad de predicción en una ubicación particular de entre las unidades vecinas de predicción, y un tercer modo de operación en el cual es seleccionado un vector de movimiento de una unidad de predicción que incluye un patrón más similar al patrón de una unidad de predicción actual de entre las unidades vecinas de predicción.
De acuerdo con una modalidad de ejemplo, el aparato de codificación de video 1400 podría establecer, en forma variable, un modo de operación de una herramienta de codificación de acuerdo con el- tamaño de una unidad de codificación. En la presente modalidad de ejemplo, el aparato de codificación de video 1400 podría establecer, en forma variable, un modo de operación por lo menos de una herramienta de codificación de acuerdo con el tamaño de una unidad de codificación. Debido a que la profundidad de una unidad de codificación corresponde con el tamaño de la unidad de codificación, el modo de operación por lo menos de una herramienta de codificación podría ser determinado en función de la profundidad de la unidad de codificación que corresponde con el tamaño de la unidad de codificación. De esta manera, la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y podría ser establecido el modo de operación. En forma similar, si una herramienta de codificación podría ser realizada en una unidad de predicción o una partición de una unidad de codificación, un modo de operación de la herramienta de codificación podría ser determinado en función del tamaño de una unidad de predicción o una partición.
El aparato de codificación de video 1400 podría establecer la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación antes de que sea realizada la codificación. Por ejemplo, de acuerdo con otra modalidad ejemplo, el aparato de codificación de video 1400 podría establecer la relación entre la profundidad -de una unidad de codificación, una herramienta de codificación, y un modo de operación codificando las unidades de codificación al menos de una unidad de codificación máxima que corresponde con las profundidades en todos los modos de operación de una herramienta predeterminada de codificación y detectando el modo de operación que tiene la eficiencia más alta de codificación de entre los modos operación.
El aparato de codificación de video 1400 podría asignar un modo de operación que provoca que los bits de sobrecarga codifique las unidades que corresponden con las profundidades, los tamaños de las cuales son iguales o más grandes que el tamaño predeterminado, y podrían asignar un modo de operación que no provoque los bits de sobrecarga en las otras unidades de codificación, los tamaños de las cuales son menores que el tamaño predeterminado.
El aparato de codificación de video 1400 podría codificar y transmitir la información con respecto a la relación entre la profundidad de una unidad de codificación, la herramienta de codificación y el modo de operación en unidades de rebanada, unidades de cuadro, unidades de imagen, o unidades GOP de una imagen. De acuerdo con otra modalidad ejemplo, el aparato de codificación de video 1400 podría insertar la información con respecto a la codificación y la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación en un SPS .
Si el determinador de unidad de codificación 1420 realiza la intra-predicción, que es un tipo de una herramienta de codificación, el modo de operación de la intra-predicción podría ser clasificado de acuerdo con el número de direcciones de predicción, es decir, las direcciones en las cuales podría ser referida la información vecina. De esta manera, el modo de operación de la intra-predicción realizada por el aparato de codificación de video 1400 podría incluir los modos de intra-predicción representan el número de direcciones de predicción que varían de acuerdo con el tamaño de una unidad de codificación.
Asimismo, si el determinador de unidad de codificación 1420 realiza la intra-predicción, el modo de operación de la intra-predicción podría ser clasificado de acuerdo con si el suavizamiento se ha realizado en consideración de un patrón de imagen. De esta manera, el modo de operación de la intra-predicción realizado por el aparato de codificación de video 1400 podría representar si la intra-predicción será realizada de acuerdo con el tamaño de una unidad de codificación mediante la diferencia de un modo de intra-predicción para suavizar la región de una unidad de codificación y un modo de intra-predicción para retener una línea de límite entre sí.
Si el determinador de unidad de codificación 1420 realiza la inter-predicción, que es otro tipo de una herramienta de codificación, el determinador de unidad de codificación 1420 podría realizar, de manera selectiva, al menos un método de determinación de un vector de movimiento. De esta manera, el modo de operación de la inter-predicción realizado por el aparato de codificación de video 1400 podría incluir el modo de inter-predicción que representa un método de determinación de un vector de movimiento, que es realizado, de manera selectiva, de acuerdo con el tamaño de una unidad de codificación.
Si el determinador de unidad de codificación 1420 realiza la transformación, que es otro tipo de una herramienta de codificación, el determinador de unidad de codificación 1420 podría realizar, de manera selectiva, la transformación rotacional de acuerdo con el patrón de una imagen. El determinador de unidad de codificación 1420 podría almacenar una matriz de la transformación rotacional que será multiplicada por un una matriz de datos de tamaño predeterminado, que es un objetivo de transformación, para así realizar, de manera efectiva, la transformación rotacional. De esta manera, el modo de operación de la transformación realizada por el aparato de codificación de video 1400 podría incluir un modo de transformación que representa un índice de una matriz de la transformación rotacional que corresponde con el tamaño de una unidad de codificación .
Si el determinador de unidad de codificación 1420 realiza la cuantificación, que es otro tipo de una herramienta de codificación, entonces, podría ser utilizado un parámetro de cuantificación delta que representa la diferencia entre un parámetro actual de cuantificación y un parámetro representativo de cuantificación . De esta manera, el modo de operación de cuantificación realizado por el aparato de codificación de video 1400 podría incluir un modo de cuantificación que indica si será utilizado el parámetro de cuantificación delta que varía de acuerdo con el tamaño de una unidad de codificación.
Si el determinador de unidad de codificación 1420 realiza la interpolación, que es otro tipo de una herramienta de codificación, podría ser utilizado el filtro de interpolación. El determinador de unidad de codificación 1420 podría establecer, de manera selectiva, los coeficientes o el número de derivaciones del filtro de interpolación en función del tamaño de una unidad de codificación, la unidad de predicción o la partición y la profundidad de una unidad de codificación. De esta manera, el modo de operación del filtrado de interpolación realizado por el aparato de codificación de video 1400 podría incluir un modo de interpolación que indica los coeficientes o el número de derivaciones de un filtro de interpolación que varía de acuerdo con el tamaño o la profundidad de una unidad de codificación y el tamaño de una unidad de predicción o una partición .
La unidad de salida 1430 podría dar salida a un flujo de bits, la cual los datos codificados de video (es decir, el resultado final de la codificación recibida partir del determinador de unidad de codificación 1420) , la información con respecto a una profundidad codificada, y un modo de codificación son incluidos para cada una al menos de una unidad de codificación máxima. Los datos codificados de video podrían ser un conjunto de una pluralidad de piezas de datos de video que son codificados . en unidades de codificación que corresponden con las profundidades codificadas de las regiones divididas al menos de una unidad de codificación máxima, de manera respectiva.
Asimismo, los modos anteriores de operación de las herramientas de codificación para las unidades de codificación que corresponden con las profundidades podrían ser codificados en la forma de la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación y posteriormente, podrían ser insertados en un flujo de bits.
De acuerdo con una modalidad de ejemplo, el aparato de codificación de video 1400 podría realizar una herramienta de codificación, tal como la cuantificación, la transformación, la intra-predicción, la inter-predicción, la compensación de movimiento, la codificación de entropía y el filtrado de circuito. Estas herramientas de codificación podrían ser realizadas en diferentes modos de operación en unidades de codificación que corresponden con las profundidades, de manera respectiva. Los anteriores modos de operación sólo son ejemplos ilustrativos dados por conveniencia de la explicación, y la relación entre una profundidad de una unidad de codificación (o el tamaño de una unidad de codificación) , una herramienta de codificación, y un modo de operación en el aparato de codificación de video 1400 no es limitada a las modalidades anteriores ejemplo.
La Figura 17 es un diagrama de bloque de un aparato de decodificación de video 1500 basado en una herramienta de codificación que considera el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 17, el aparato de decodificación de video 1500 incluye un receptor 1510, un extractor 1520, y un decodificador 1330.
El receptor 1510 recibe y analiza un flujo de bits que incluye datos codificados de video. El extractor 1520 extrae los datos codificados de video, la información con respecto a la codificación, y la información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación del flujo de bits recibido por medio del receptor 1510.
Los datos codificados de video son obtenidos al codificar los datos de imagen en las unidades de codificación máxima. Los datos de imagen en cada una de las unidades de codificación máxima son jerárquicamente divididos en una pluralidad de regiones divididas de acuerdo con las profundidades, y cada una de las regiones divididas es codificada en una unidad de codificación de una profundidad codificada correspondiente. La información con respecto a la codificación incluye la información con respecto a las profundidades codificadas de las unidades de codificación máxima y el modo de codificación.
Por ejemplo, la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación podría ser establecida en unidades de datos de margen, por ejemplo, las unidades de codificación máxima, unidades de cuadro, unidades de campo, unidades de rebanada, o unidades GOP. En otro ejemplo, la información con respecto a la codificación, y la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación podría ser extraída de un SPS . Los datos de imagen codificados en unidades de codificación de datos de imagen podrían ser decodificados en un modo selectivo de operación de una herramienta de codificación, en función de la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación, que es definido en unidades predeterminadas de datos de imagen.
El decodificador 1530 podría decodificar los datos codificados de video en las unidades de codificación máxima y en modos de operación de las herramientas de codificación en unidades de codificación que corresponden al menos con una profundidad codificada, de manera respectiva, en función de la información con respecto a la codificación y la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación que son extraídos por el extractor 1520. El modo de operación de una herramienta de codificación podría ser establecido de acuerdo con el tamaño de la unidad de codificación. Debido a que el tamaño de una unidad de codificación que corresponde con la profundidad codificada corresponde con la profundidad codificada, el modo de operación de la herramienta de codificación para la unidad de codificación que corresponde con la profundidad codificada podría ser determinado en función de la profundidad codificada. En forma similar; si la herramienta de codificación para la unidad de codificación es realizada en función de una unidad de predicción o una partición de la unidad de codificación, el modo de operación de la herramienta de codificación podría ser determinado en función del tamaño de una unidad de predicción o una partición.
Incluso si la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación es establecida de acuerdo con una herramienta de codificación, el decodificador 1530 podría realizar una herramienta de decodificación que corresponde con la herramienta de codificación. Por ejemplo, el decodificador 1530 podría cuantificar, en forma inversa, un flujo de bits en una unidad de codificación que corresponde con una profundidad codificada, en función de la información con respecto a la relación entre la profundidad de una unidad de codificación, la cuantificación y un modo de operación.
Si el decodificador 1530 realiza la intra-predicción, que es un tipo de una herramienta de decodificación, el decodificador 1530 podría realizar la intra-predicción en una unidad de codificación actual que corresponde con la profundidad codificada, en función de la información con respecto a la relación entre la profundidad de una unidad de codificación, la intra-predicción y el modo de intra-predicción. Por ejemplo, el decodificador 1530 podría realizar la intra-predicción en la unidad de codificación actual que corresponde con la profundidad codificada en función de la información con respecto a la relación entre una profundidad de una unidad de codificación, la intra-predicción y el modo de intra-predicción, y la información vecina de acuerdo con el número de direcciones de la intra-predicción que corresponde con el tamaño de la unidad de codificación actual .
Asimismo, el decodificador 1530 podría determinar si realiza la intra-predicción de acuerdo con la unidad codificada de la unidad de codificación actual al diferenciar un modo de intra-predicción que suaviza y un modo de intra-predicción que retiene una línea de límite entre sí, en función de la información con respecto a la relación entre una profundidad de una unidad de codificación, la intra-predicción y el modo de intra-predicción.
Si el decodificador 1530 realiza la ínter-predicción, que es otro tipo de una herramienta de decodificación, el decodificador 1530 podría realizar la inter-predicción en la unidad de codificación actual que corresponde con la profundidad codificada en función de la información con respecto a la relación entre una profundidad de una unidad de codificación, la inter-predicción, y el modo de inter-predicción. Por ejemplo, el decodificador 1530 podría realizar el modo de inter-predicción en la unidad de codificación actual de la profundidad codificada utilizando un método de determinación de un vector de movimiento, en función de la información con respecto a la relación entre una profundidad de una unidad de codificación, la inter-predicción y el modo de inter-predicción.
Si el decodificador 1530 realiza la transformación inversa, que es otro tipo de una herramienta de decodificación, el decodificador 1530 podría realizar, de manera selectiva, la transformación rotacional inversa en función de la información con respecto a la relación entre la profundidad de una unidad de codificación, la transformación y un modo de transformación. De esta manera, el decodificador 1530 podría realizar la transformación rotacional inversa en la unidad de codificación actual que corresponde con la profundidad codificada utilizando una matriz de la transformación rotacional de un índice que corresponde con la profundidad codificada, en función de la información con respecto a la relación entre la profundidad de una unidad de codificación, la transformación y el modo de transformación inversa .
Si el decodificador 1530 realiza la cuant if icación inversa, que es otro tipo de una herramienta de codificación, el decodif icador 1530 podría realizar la cuantificación inversa en la unidad de codificación actual que corresponde con la profundidad codificada utilizando un parámetro de cuantificación delta que corresponde con la profundidad codificada, en función de la información con respecto a una profundidad de una unidad de codificación, la cuantif icación y un modo de cuantificación .
Si el decodif icador 1530 realiza la interpolación o la extrapolación, que es otro tipo de una herramienta de codificación, podría ser utilizado un filtro para la interpolación o la extrapolación. El decodificador 1530 podría realizar el filtrado utilizando el filtro para la interpolación o la extrapolación para una unidad de codificación actual que corresponde con la profundidad codificada, utilizando coeficientes o el número de derivaciones del filtro para la interpolación o la extrapolación en función del modo de operación del filtrado para la interpolación o la extrapolación, indicando los coeficientes o el número de derivaciones del filtro para la interpolación o la extrapolación. El modo de operación del filtrado para la interpolación o la extrapolación podría corresponder al menos con uno del tamaño de la unidad de codificación actual, y el tamaño de una unidad de predicción o una partición de la unidad de codificación actual.
El aparato de decodificación de video 1500 podría reconstruir la imagen original a partir de los datos de imagen decodificados por 1530. La imagen reconstruida podría ser reproducida por un aparato de visualización (no se muestra) o podría ser almacenada en un medio de almacenamiento (no se muestra) .
En el aparato de codificación de video 1400 y en el aparato de decodificación de video 1500 de acuerdo con las modalidades de ejemplo, el tamaño de una unidad de codificación podría variar de acuerdo con las características de una imagen y la eficiencia de la codificación de la imagen. El tamaño de una unidad de datos, tal como una unidad de codificación, una unidad de predicción, o una unidad de transformación, podría ser incrementado para codificar una gran cantidad de datos de imagen, por ejemplo, una imagen de alta resolución o alta calidad. El tamaño de un macrobloque que tiene una estructura jerárquica de acuerdo con los estándares H.264 podría ser ,de 4x4, 8x8, o 16x16, aunque el aparato de codificación de video 1400 y el aparato de decodificación de video 1500 de acuerdo con una o más modalidades de ejemplo podría aumentar el tamaño de una unidad de datos a 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, o más.
Cuando es más grande la unidad de datos, son mayores los datos de imagen incluidos en la unidad de datos, y son más variadas las características de imagen en las unidades de datos. De esta manera, sería ineficiente codificar todas las unidades de datos que tienen varios tamaños utilizando sólo una herramienta de codificación.
En consecuencia, el aparato de codificación de video 1400 podría determinar la profundidad de una unidad de codificación y el modo de operación de una herramienta de codificación de acuerdo con las características de los datos de imagen para incrementar la eficiencia de la codificación y codificar la información con respecto a la relación entre la profundidad de la unidad de codificación, la herramienta de codificación, y el modo de operación. Además, el aparato de decodificación de video 1500 podría reconstruir la imagen original mediante la decodificación de un flujo recibido de bits, en función de la información con respecto a la relación entre la profundidad de la unidad de codificación, la herramienta de codificación y el modo de operación.
En consecuencia, el aparato de codificación de video 1400 y el aparato de decodificación de video 1500 podrían codificar y decodificar, de manera efectiva, una gran cantidad de datos de imagen, tal como una imagen de alta resolución o alta calidad, de manera respectiva.
La Figura 18 es un diagrama que describe la relación entre el tamaño de una unidad de codificación, una herramienta de codificación, y un modo de operación, de acuerdo con una modalidad de ejemplo.
Con referencia a la Figura 18, de acuerdo con una modalidad de ejemplo, en un aparato de codificación de video 1400 o en un aparato de decodificación de video 1500, una unidad de codificación 4x4 1610, una unidad de codificación 8x8 1620, una unidad de codificación 16x16 1630, una unidad de codificación 32x32 1640 y una unidad de codificación 64x64 1650 podrían ser utilizadas como unidades de codificación. Si una unidad de codificación máxima es la unidad de codificación 64x64 1650, una profundidad de la unidad de codificación 64x64 1650 es 0, una profundidad de la unidad de codificación 32x32 1640 es 1, una profundidad de la unidad de codificación 16x16 1630 es 2, una profundidad de la unidad de codificación 8x8 1620 es 3, y una profundidad de la unidad de codificación 4x4 1610 es 4.
El aparato de codificación de video 1400 podría determinar, de manera adap iva, el modo de operación de una herramienta de codificación de acuerdo con una profundidad de una unidad de codificación. Por ejemplo, si la primera herramienta de codificación T00L1 podría ser realizada en un primer modo de operación T00L1-1 1660, en un segundo modo de operación TOOLl-2 1662 y en un tercer modo de operación TOOLl-3, el aparato de codificación de video 1400 podría realizar la primera herramienta de codificación TOOLl en el primer modo de operación T00L1-1 1660 con respecto a la unidad de codificación 4x4 1610 y la unidad de codificación 8x8 1620, podría realizar la primera herramienta de codificación TOOLl en el segundo modo de operación 1662 con respecto a la unidad de codificación 16x16 1630 y la unidad de codificación 32x32 1640, y podría realizar la primera herramienta de codificación TOOLl en el tercer modo de operación 1664 con respecto a la unidad de codificación 64x64 1650.
La relación entre el tamaño de una unidad de codificación, una herramienta de codificación, y un modo de operación podría ser determinada mediante la codificación de una unidad de codificación actual en todos los modos de operación de una correspondiente herramienta de codificación y mediante la detección de un modo de operación que provoca al resultado de la codificación con la eficiencia más alta de codificación de entre los modos operación, durante la codificación de la unidad de codificación actual. En otra modalidad de ejemplo, la relación entre el tamaño de una unidad de codificación, una herramienta de codificación, y un modo de operación podría ser predeterminada, por ejemplo, al menos por uno del rendimiento del sistema de codificación, los requerimientos de usuario, o las condiciones ambientales.
Debido a que el tamaño de una unidad de codificación máxima es fijado con respecto a los datos predeterminados, el tamaño de una unidad de codificación corresponde con una profundidad de la unidad de codificación por sí misma. De esta manera, la relación entre una herramienta de codificación adaptiva con el tamaño de una unidad de codificación y un modo de operación podría ser codificada utilizando la información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación y un modo de operación.
La información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación podría indicar los modos óptimos de operación de las herramientas de codificación en unidades de las profundidades de las unidades de codificación, de manera respectiva.
Tabla 2 De acuerdo con la tabla de ejemplo 2, los modos operación de la primera y segunda herramientas de codificación podrían ser aplicados en forma variable a las unidades de codificación que tienen las profundidades de 4, 3, 2, 1 y 0, de manera respectiva. La información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación podría ser codificada y transmitida en unidades de secuencia, unidades GOP, unidades de imagen, unidades de cuadro, o unidades de rebanada de una imagen.
A continuación, serán descritas en detalle varias modalidades de ejemplo de la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación.
La Figura 19 es un diagrama que describe la relación entre la profundidad de una unidad de codificación, una herramienta de codificación (por ejemplo, la inter-predicción) , y un modo de operación, de acuerdo con una modalidad de ejemplo.
Si un aparato de codificación de video 1400 de acuerdo con una modalidad de ejemplo realiza la inter-predicción, podría ser utilizado al menos un método de determinación de un vector de movimiento. De esta manera, un modo de operación de la inter-predicción, que es un tipo de una herramienta de codificación, podría ser clasificado de acuerdo con un método de determinación de un vector de movimiento .
Por ejemplo, con referencia a la Figura 19, en un primer modo de operación de la inter-predicción, el valor promedio de los vectores de movimiento mvpA, mvpB, y mvpC de las unidades vecinas de codificación A, B, y C 1710, 1720, y 1730 es seleccionado como el vector de movimiento previsto MVP de una unidad de codificación actual 1700, como es indicador la siguiente en la Ecuación (4) : MVP = median (mvpA, mvpB, mvpC) ... (4) .
Si el primer modo de operación es empleado, la cantidad de cálculo es baja y los bits de sobrecarga no podrían ser utilizados. De esta manera, incluso si la inter-predicción es realizada en unidades de codificación de tamaño pequeño en el primer modo de operación, es pequeña la cantidad de cálculo o la cantidad de bits que serán transmitidos .
Por ejemplo, en un segundo modo de operación de la inter-predicción, el índice del vector de movimiento de una unidad de codificación que es seleccionada como un vector previsto de movimiento de la unidad de codificación actual 1700 de entre el vector de movimientos de las unidades vecinas de codificación A, B, y C 1710, 1720 y 1730 es visualizado, de manera directa.
Por ejemplo, si el aparato de codificación de video 1400 realiza la inter-predicción en la unidad de codificación actual 1700, el vector de movimiento mvpA de la unidad vecina de codificación A 1710 podría ser seleccionado como un vector de movimiento previsto óptimo de la unidad de codificación actual 1700 y el índice del vector de movimiento mvpA podría ser codificado. De esta manera, aunque ocurre la sobrecarga en el lado de la codificación, provocada por el índice que representa el vector de movimiento previsto, es pequeña la cantidad de cálculo cuando se realiza la inter-predicción en el segundo modo de operación en el lado de la de codificación.
Por ejemplo, en un tercer modo de operación de la inter-predicción, los píxeles 1705 en una ubicación predeterminada en la unidad de codificación actual 1700 son comparados con los píxeles 1715, 1725, 1735 en las ubicaciones predeterminadas en las unidades vecinas de codificación A, B, y C 1710, 1720 y 1730, los píxeles, los grados de distorsión de los cuales son más bajos, son detectados de entre los píxeles 1715, 1725, 1735, y un vector de movimiento de una unidad vecina de codificación que incluye los píxeles detectados es seleccionada como un vector de movimiento previsto de la unidad de codificación actual 1700.
De esta manera, aunque podría ser grande la cantidad de cálculo para el lado de decodificación para detectar píxeles, los grados de distorsión de los cuales son más bajos, el lado de codificación no experimenta la sobrecarga en los bits que serán transmitidos. En particular, si la inter-predicción es realizada en una secuencia de imagen que incluye un patrón específico de imagen en el tercer modo de operación, el resultado de la predicciones más preciso que cuando es utilizado el valor promedio de los vectores de movimiento de de las unidades vecinas de codificación.
El aparato de codificación de video 1400 podría codificar la información con respecto a la relación entre el primer modo de operación, el segundo modo de operación, y el tercer modo de operación de la inter-predicción determinado de acuerdo con una profundidad de una unidad de codificación. El aparato de decodificación de video 1500 de acuerdo con una modalidad de ejemplo podría decodificar los datos de imagen mediante la extracción de la información con respecto al primer modo de operación, el segundo modo de operación, y el tercer modo de operación de la inter-predicción determinado de acuerdo con la profundidad de la unidad de codificación, a partir de un flujo recibido de bits, y realizando la herramienta de decodificación relacionada con la compensación de movimiento y la inter-predicción realizada en una unidad de codificación actual de una profundidad codificada, en función de la información extraída.
El aparato de codificación de video 1400 verifica si ocurre la sobrecarga en los bits que serán transmitidos para así determinar el modo de operación de la inter-predicción de acuerdo con un tamaño oh profundidad de una unidad de codificación. Si una unidad pequeña de codificación es codificada, la sobrecarga adicional podría disminuir en gran medida la eficiencia de codificación de la misma, mientras que si una gran unidad de codificación es codificada, la eficiencia de la codificación no es significativamente influenciada por la sobrecarga adicional.
En consecuencia, podría ser eficiente realizar la inter-predicción en el tercer modo de operación que no provoque la sobrecarga adicional cuando una unidad pequeña de codificación es codificada. A este respecto, un ejemplo de la relación entre el tamaño de una unidad de codificación y un modo de operación de la inter-predicción es mostrado en la siguiente Tabla de ejemplo 3: Tabla 3 La Figura 20 es un diagrama que describe la relación entre la profundidad de una unidad de codificación, una herramienta de codificación (por ejemplo, la intra-predicción) , y un modo de operación, de acuerdo con una modalidad de ejemplo.
Un aparato de codificación de video 1400 de acuerdo con una modalidad de ejemplo podría realizar la extrapolación direccional como la intra-predicción utilizando los píxel reconstruidos 1810 cercanos a una unidad de codificación actual 1800. Por ejemplo, la dirección de la intra-predicción podría ser definida como tan-l(dx, dy) , y la inter-predicción podría ser realizada en varias direcciones de acuerdo -con una pluralidad de parámetros (dx, dy) .
Un píxel vecino 1830 en una línea que se extiende a partir de un píxel actual 1820 en la unidad de codificación actual 1800, que será previsto, y es inclinado por un ángulo tan-l(dy/dx) determinado por los valores dx y dy a partir del píxel actual 1820, podría ser utilizado como un predictor del píxel actual 1830. El píxel vecino 1830 podría pertenecer a una unidad de codificación que es localizada en el lado superior o izquierdo de la unidad de codificación actual 1800, que fue previamente codificada y reconstruida.
Si la intra-predicción es realizada, el aparato de codificación de video 1400 podría ajustar el número de direcciones de la intra-predicción de acuerdo con el tamaño de una unidad de codificación. De esta manera, los modos operación de la intra-predicción, que es un tipo de una herramienta de codificación, podrían ser clasificados de acuerdo con el número de las direcciones de la intra-predicción.
El número de direcciones de la intra-predicción podría variar de acuerdo con el tamaño y la estructura jerárquica de árbol de una unidad de codificación. Los bits de sobrecarga utilizados para representar el modo de intra-predicción podrían disminuir la eficiencia de la codificación de una unidad pequeña de codificación aunque no afectan la eficiencia de la codificación de una - gran unidad de codificación .
De esta manera, el aparato de codificación de video 1400 podría codificar la información con respecto a la relación entre la profundidad de una unidad de codificación y el número de direcciones de la intra-predicción. Asimismo, un aparato de decodificación de video 1500 de acuerdo con una modalidad de ejemplo podría decodificar los datos de imagen extrayendo la información con respecto a la relación entre la profundidad de una unidad de codificación y el número de direcciones de la intra-predicción de un flujo recibido de bits, y podría realizar una herramienta de decodificación relacionada con la intra-predicción realizada en una unidad de codificación actual de una profundidad codificada, en función de la información extraída.
El aparato de codificación de video 1400 considera un patrón de imagen de la unidad de codificación actual para determinar el modo de operación de la intra-predicción de acuerdo con el tamaño o la profundidad de una unidad de codificación. En el caso de una imagen que contiene componentes detallados, la intra-predicción podría ser realizada utilizando la extrapolación lineal, y de esta manera, podría utilizarse un gran número de direcciones de la intra-predicción. Sin embargo, en el caso de una región plana de una imagen, el número de direcciones de la intra-predicción podría ser relativamente pequeño. Por ejemplo, un modo plano o un modo bi-lineal que utiliza la interpolación de los píxel de reconstruidos vecinos podrían utilizarse para realizar la intra-predicción en la región plana de una imagen.
Debido a que una gran unidad de codificación es probablemente determinada en la región plana de una imagen, el número de direcciones de la intra-predicción podría ser relativamente pequeño cuando el modo de intra-predicción es realizado en la gran unidad de codificación. Asimismo, debido a que una unidad pequeña de codificación es probablemente determinada en una región que incluye componentes detallados de una imagen, el número de direcciones de la intra-predicción podría ser relativamente grande cuando el modo de intra-predicción es realizado en la unidad pequeña de codificación. De esta manera, la relación entre el tamaño de una unidad de codificación y el modo de intra-predicción podría ser considerado como la relación entre el tamaño de la unidad de codificación y el número de direcciones de la intra-predicción . Un ejemplo de la relación entre el tamaño de la unidad de codificación y el número de direcciones de la intra-predicción se muestra en la siguiente tabla de ejemplo Tabla 4 Una gran unidad de codificación podría incluir patrones de imagen que son colocados en varias direcciones, y la intra-predicción podría ser realizada de esta manera en la gran unidad de codificación utilizando la extrapolación lineal. En este caso, la relación entre el tamaño de una unidad de codificación y el modo de intra-predicción podría ser establecida como se muestra en la siguiente tabla de ejemplo 5: Tabla 5 De acuerdo con una modalidad de ejemplo, la codificación de predicción es realizada en varios modos de intra-predicción establecidos de acuerdo con los tamaños de las unidades de codificación, con lo cual, se comprime de manera más eficiente la imagen de acuerdo con las características de la imagen.
Las unidades de codificación prevista que son salidas a partir del aparato de codificación de video 1400 mediante la realización de varios modos de intra-predicción de acuerdo con las profundidades de las unidades de codificación tienen una direccionalidad predeterminada de acuerdo con el tipo de un modo de intra-predicción. Debido a la direccionalidad en las unidades de codificación prevista, la eficiencia de la predicción podría ser alta cuando los píxeles de una unidad de codificación actual que será codificada tienen una direccionalidad predeterminada, y podría ser baja cuando los píxeles de la unidad de codificación actual no tengan la orientación predeterminada. De esta manera, una unidad de codificación prevista obtenida utilizando la intra-predicción podría ser posteriormente procesada al producir una nueva unidad prevista de codificación cambiando los valores de los píxeles en la unidad de codificación prevista utilizando estos píxeles y al menos un píxel vecino, con lo cual, se mejora la eficiencia de la predicción de una imagen.
Por ejemplo, en el caso de una región plana de una imagen, podría ser eficiente la realización del procesamiento posterior para suavizar una unidad de codificación prevista obtenida utilizando la intra-predicción . Asimismo, en el caso de una región que tiene componentes detallados de la imagen, podría ser eficiente realizar un procesamiento posterior para retener los componentes detallados en la unidad de codificación prevista obtenida utilizando la intra-predicción.
De esta manera, el aparato de codificación de video 1400 podría codificar la información con respecto a la relación entre una profundidad de una unidad de codificación y el modo de operación que indica si será posteriormente procesada la unidad de codificación prevista obtenida utilizando la intra-predicción. Asimismo, el aparato de decodificación de video 1500 podría decodificar los datos de imagen mediante la extracción de la información con respecto a la relación entre una profundidad de una unidad de codificación y el modo de operación que indica si será posteriormente procesada la unidad de codificación prevista obtenida utilizando la intra-predicción, de un flujo recibido de bits, y mediante la realización de una herramienta de decodificación relacionada con la intra-predicción realizada en la unidad de codificación actual de una profundidad codificada, en función de la información extraída.
En el aparato de codificación de video 1400, el modo de intra-predicción, en el cual es realizado el procesamiento posterior para el suavizamiento y el modo de intra-predicción en el cual no es realizado el procesamiento posterior para el suavizamiento, podrían ser seleccionados para una región plana de una imagen y una región que incluye los componentes detallados de la imagen, de manera respectiva, como el modo de operación que indica si será posteriormente procesada la unidad de codificación prevista obtenida utilizando la intra-predicción.
Una gran unidad de codificación podría ser determinada en una región plana de una imagen y una unidad pequeña de codificación podría ser determinada en una región que contiene los componentes detallados de la imagen. De esta manera, el aparato de codificación de video 1400 podría determinar que el modo de intra-predicción, en el cual será realizado el procesamiento posterior para suavizamiento, es realizado en la gran unidad de codificación y el modo de intra-predicción, en el cual no será realizado el procesamiento posterior para suavizamiento, es realizado en la unidad pequeña de codificación.
En consecuencia, la relación entre una profundidad de una unidad de codificación y el modo de operación que indica si será posteriormente procesada la unidad de codificación prevista obtenida mediante la intra-predicción podría ser considerada como la relación entre el tamaño de una unidad de codificación y si será realizado el procesamiento posterior. A este respecto, un ejemplo de la relación entre el tamaño de una unidad de codificación y un modo de operación de la intra-predicción podría ser mostrado en la siguiente Tabla de ejemplo 6: Tabla 6 Si el aparato de codificación de video 1400 realizar la transformación, que es un tipo de una herramienta de codificación, la transformación rotacional podría ser realizada, de manera selectiva, de acuerdo con un patrón de imagen. Para el cálculo eficiente de la transformación rotacional, una matriz de datos para la transformación rotacional, podría ser almacenada en la memoria. Si el aparato de codificación de video 1400 realiza la transformación rotacional o si el aparato de decodificación de video 1500 realiza la transformación rotacional inversa, los datos relacionados podrían ser llamados a partir de la memoria utilizando un índice de los datos de transformación rotacional utilizados para el cálculo. Estos datos de transformación rotacional podrían ser establecidos en unidades de codificación o unidades de transformación, o de acuerdo con el tipo de la secuencia.
De esta manera, el aparato de codificación de video 1400 podría establecer el modo de transformación indicado por el índice de una matriz de la transformación rotacional que corresponde con la profundidad de una unidad de codificación como un modo de operación de transformación. El aparato de codificación de video 1400 podría codificar la información con respecto a la relación entre el tamaño de una unidad de codificación y el modo de transformación que indica el índice de la matriz de la transformación rotacional.
El aparato de decodificación de video 1500 podría decodificar los datos de imagen mediante la extracción de la información con respecto a la relación entre una profundidad de una unidad de codificación y el modo de transformación que indica el índice de la matriz de la transformación rotacional de un flujo recibido de bits, y podría realizar la transformación rotacional inversa en una unidad de codificación actual de una profundidad codificada, en función de la información extraída.
En consecuencia, la relación entre la profundidad de una unidad de codificación, la transformación rotacional, y un modo de operación podría ser considerada como la relación entre el tamaño de una unidad de codificación y el índice de la matriz de la transformación rotacional. A este respecto, la relación entre el tamaño de una unidad de codificación y un modo de operación de la transformación rotacional podría ser mostrada en la siguiente tabla de ejemplo 7: Tabla 7 Si el aparato de codificación de video 1400 realiza la cuantificación, que es un tipo de una herramienta de codificación, podría ser utilizado un parámetro de cuantificación delta representa la diferencia entre el parámetro actual de cuantificación y un parámetro de cuantificación representativa predeterminada. El parámetro de cuantificación delta podría variar de acuerdo con el tamaño de la unidad de codificación. De esta manera, en el aparato de codificación de video 1400, el modo de operación de cuantificación podría incluir un modo de cuantificación que indica si será utilizado el parámetro de cuantificación delta que varía de acuerdo con el tamaño de una unidad de codificación .
De esta manera, el aparato de codificación de video 1400 podría establecer el modo de cuantificación que indica si será utilizado el parámetro de cuantificación delta que corresponde con el tamaño de una unidad de codificación como en el modo de operación de cuantificación. El aparato de codificación de video 1400 podría codificar la información con respecto a la relación entre una profundidad de una unidad de codificación y el modo de cuantificación que indica si será utilizado el parámetro de cuantificación delta.
El aparato de decodificación de video 1500 podría decodificar los datos de imagen mediante la extracción de la información con respecto a la relación entre una profundidad de una unidad de codificación y el modo de cuantificación que indica si será utilizado el parámetro de cuantificación delta, de un flujo recibido de bits, y mediante la realización de la cuantificación inversa en una unidad de codificación actual de una profundidad codificada, en función de la información extraída.
En consecuencia, la relación entre la profundidad de una unidad de codificación, la cuantificación, y el modo de operación podría ser considerada como la relación entre el tamaño de una unidad de codificación y si será utilizado el parámetro de cuantificación delta. A este respecto, un ejemplo de la relación entre el tamaño de una unidad de codificación y un modo de operación de cuantificación es como se muestra en la siguiente tabla de ejemplo 8: Tabla 8 La Figura 21 ilustra la sintaxis de un conjunto de parámetro de secuencia 1900, en la cual es insertada la información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación, de acuerdo con una modalidad de ejemplo.
En la Figura 21, sequence_parameter_set denota la sintaxis del conjunto de parámetro de secuencia 1900 para una rebanada actual. Con referencia a la Figura 21, la información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación es insertada en la sintaxis del conjunto de parámetro de secuencia 1900 para la rebanada actual .
Además, en la Figura 21, picture_width denota el ancho de una imagen de entrada, picture_height denota la altura de la imagen de entrada, max_coding_unit_size denota el tamaño de una unidad de codificación máxima, y max_coding_unit_depth denota una profundidad máxima.
De acuerdo con una modalidad de ejemplo, las sintaxis use_independent_cu_decode_flag que indican si la decodificación será realizada, de manera independiente, en las unidades de codificación, use_independent_cu_parse_flag que indica si el análisis se ha realizado, de manera independiente, en las unidades de codificación, use_mv_accuracy_control_flag que indica si un vector de movimiento será controlado en forma precisa, use_arbitrary_direction_intra_flag que indica si la intra-predicción será realizada en una dirección arbitraria, use_frequency_domain_prediction_flag que indica si la codificación/decodificación de predicción será realizada en el dominio de transformación de frecuencia, use_rotational_transform_flag que indica si la transformación rotacional será realizada, use_tree_significant_map_flag que indica si la codificación/decodificación será realizada utilizando un mapa significante de árbol, use_multi_parameter_intra_prediction_flag que indica si la codificación de intra-predicción será realizada utilizando múltiples parámetros, use_advanced_motion_vector_prediction_flag que indica si la predicción avanzada de vector de movimiento será realizada, use_adaptive_loop_filter_flag que indica si el filtrado de circuito adaptivo será realizado, use_quadtree_adaptive_loop_filter_flag que indica si el filtrado de circuito adaptivo cuadrático será realizado, use_delta_qp_flag que indica si la cuantificación será realizada utilizando un parámetro de cuantificación delta, use_random_noise_generation_flag que indica si la generación aleatoria de ruido será realizada, use_asymmetric_motion_partition_flag que indica si la estimación del movimiento será realizada en unidades de predicción asimétrica, podrían utilizarse como ejemplos de un parámetro de secuencia de una rebanada. Es posible codificar o decodificar, de manera eficiente, la rebanada actual estableciendo si las operaciones anteriores serán utilizadas empleando estas sintaxis.
En particular, la longitud de un filtro de circuito adaptivo alf_filter_length, el tipo del filtro de circuito adaptivo alf_filter_type, el valor de referencia para cuantificar un coeficiente de filtro de circuito adaptivo alf_qbits, y el número de componentes de color del filtrado de circuito adaptivo alf_num_color podrían ser establecidos en el conjunto de parámetro de secuencia 1900, en función de use_adaptive_loop_filter_flag y use_quadtree_adaptive_loop_filter_flag .
La información con respecto a la relación entre una profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación utilizada en un aparato de codificación de video 1400 y un aparato de decodificación de video 1500 de acuerdo con las modalidades de ejemplo podría indicar el modo de operación de la inter-predicción corresponde con la profundidad de una unidad de codificación uiDepth mvp_mode [uiDepth] , y el modo de operación significant_map_mode [uiDepth] que indica el tipo de un mapa significante de entre los mapas significantes de árbol. Es decir, cualquier relación entre la inter-predicción y el modo correspondiente de operación de acuerdo con una profundidad de una unidad de codificación, o la relación entre la codificación/decodificación que utiliza el mapa significante de árbol y el modo correspondiente de operación de acuerdo con una profundidad de una unidad de codificación, podrían ser establecidos en el conjunto de parámetro de secuencia 1900.
La profundidad de bits de una muestra de entrada input_sample_bit_depth y la profundidad de bits de una muestra interna internal_sample_bit_depth también podrían ser establecidas en el conjunto de parámetro de secuencia 1900.
La información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación y un modo de operación codificada por el aparato de codificación de video 1400 o decodificada por el aparato de decodificación de video 1500 de acuerdo con una modalidad de ejemplo no es limitada a la información insertada en el conjunto de parámetro de secuencia 1900 que se ilustra en la Figura 21. Por ejemplo, la información podría ser codificada o decodificada en las unidades de codificación máxima, las unidades de rebanada, unidades de cuadro, las unidades de imagen, o las unidades GOP de la imagen.
La Figura 22 es un diagrama de flujo que ilustra un método de codificación de video en función de una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 22, en la operación 2010, una imagen actual es dividida al menos en una unidad de codificación máxima .
En la operación 2020, una profundidad codificada es determinada al codificar al menos la unidad de codificación máxima en unidades de codificación que corresponden con las profundidades en los modos de operación de las herramientas de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación. De esta manera, al menos la unidad de codificación máxima incluye unidades de codificación que corresponden al menos con la profundidad codificada.
La relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación podría ser preestablecida en unidades de rebanadas, cuadros, GOPs, o secuencias de cuadro de una imagen. La relación entre la profundidad por lo menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación podría ser determinada comparando los resultados de la codificación de las unidades de codificación que corresponden con las profundidades al menos en un modo de operación que coincide con las herramientas de codificación entre sí, y seleccionando el modo de operación que tiene la eficiencia más alta de codificación al menos de entre un modo de operación durante la codificación al menos de la unidad de codificación máxima. De otro modo, la relación entre la profundidad por lo menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, podría ser determinada de tal modo que las unidades de codificación que corresponden con las profundidades, los tamaños de las cuales son menores o iguales a un tamaño predeterminado, podrían corresponder con el modo de operación que no provoca que los bits de sobrecarga sean insertados en un flujo de datos codificados y las otras unidades de codificación, los tamaños de las cuales son más grandes que el tamaño predeterminado, podrían corresponder con el modo de operación provocando los bits de sobrecarga.
En la operación 2030, un flujo de bits que incluye datos codificados de video al menos de la profundidad codificada, la información con respecto a la codificación, y la información con respecto a la relación entre una profundidad por lo menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación al menos en una unidad de codificación máxima es salida. La información con respecto a la codificación podría incluir al menos la profundidad codificada y la información con respecto a un modo de codificación al menos en una unidad de codificación máxima. La información con respecto a la relación entre una profundidad por lo menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, podría ser insertada en unidades de rebanada, unidades de cuadro, GOPs, o secuencias de cuadro de la imagen.
La Figura 23 es un diagrama de flujo que ilustra un método de decodificación de video en función de una herramienta de codificación considerando el tamaño de una unidad de codificación, de acuerdo con una modalidad de ejemplo. Con referencia a la Figura 23, en la operación 2110, un flujo de bits que incluye datos codificados de video es recibido y analizado.
En la operación 2120, los datos codificados de video, la información con respecto a la codificación, y la información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación son extraídos del flujo de bits. La información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación podría ser extraída partir del flujo de bits en las unidades de codificación máxima, las unidades de rebanada, unidades de cuadro, las unidades GOP, o las secuencias de cuadro de una imagen.
En la operación 2130, los datos codificados de video son decodificados en las unidades de codificación máxima de acuerdo con el modo de operación de una herramienta de codificación que compara una unidad de codificación que corresponde por lo menos con una profundidad codificada, en función de la información con respecto a la codificación y la información con respecto a la relación entre la profundidad de una unidad de codificación, una herramienta de codificación, y un modo de operación, extraída del flujo de bits .
Mientras no se restringen a las mismas, una o más modalidades de ejemplo pueden ser escritas como programas de computadora y pueden ser implementadas en computadoras digitales de uso general que ejecutan los programas utilizando un medio de grabación susceptible de ser leído en computadora. Los ejemplos del medio de grabación susceptible de ser leído en computadora incluyen medios magnéticos de almacenamiento (por ejemplo, ROM, discos flexibles, discos duros, etc.) y medios ópticos de grabación (por ejemplo, CD-ROMs, o DVDs) . Además, mientras no son requeridas en todas las modalidades de ejemplo, una o más unidades del aparato de codificación de video 100 o 1400, el aparato de decodificación de video 200 o 1500, el codificador de imagen 400, y el decodificador de imagen 500 pueden incluir un procesador o microprocesador que ejecuta un programa de computadora almacenado en un medio susceptible de ser leído por computadora .
Mientras las modalidades de ejemplo han sido particularmente mostradas y descritas con referencia a las figuras anteriores, será entendido por aquellas personas de experiencia ordinaria en la técnica que varios cambios en la forma y los detalles podrían ser realizados en la misma sin apartarse del espíritu y alcance del concepto inventivo como es definido por las reivindicaciones adjuntas. Las modalidades de ejemplo tienen que ser consideradas sólo en un sentido descriptivo y no con propósitos de limitación. Por lo tanto, el alcance del concepto inventivo es definido no por la descripción detallada de las modalidades de ejemplo sino por las reivindicaciones adjuntas y todas las diferencias dentro del alcance serán interpretadas que son incluidas en el presente concepto inventivo.
Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un método de codificación de datos de video, caracterizado porque comprende: dividir una imagen actual de los datos de video al menos en una unidad de codificación máxima; determinar la profundidad codificada para dar salida a un resultado de codificación mediante la codificación al menos de una región dividida por lo menos de una unidad de codificación máxima de acuerdo al menos con un modo de operación por lo menos de una herramienta de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, en donde al menos una región dividida es generada dividiendo, en forma jerárquica, al menos la unidad de codificación máxima de acuerdo con las profundidades y es determinado el modo de operación de una herramienta de codificación para una unidad de codificación de acuerdo con la profundidad de la unidad de codificación; y dar salida a un flujo de bits que comprende datos codificados de video de la profundidad codificada, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de la unidad de codificación máxima, la herramienta de codificación, y el modo de operación al menos en una unidad de codificación máxima .
2. El método de conformidad con la reivindicación 1, caracterizado porque : al menos una herramienta de codificación para la codificación por lo menos de una unidad de codificación máxima comprende al menos una de la cuantificación, la transformación, la intra-predicción, la inter-predicción, la compensación de movimiento, la codificación de entropía, y el filtrado de circuito; y al menos las herramientas de codificación son realizadas por lo menos en un modo de operación, de manera respectiva.
3. El método de conformidad con la reivindicación 1, caracterizado porque la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación es preestablecida en unidades de rebanada, unidades de cuadro, o unidades de secuencia de cuadro de la imagen actual .
4. El método de conformidad con la reivindicación 1, caracterizado porque la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación es determinada comparando los resultados de la codificación al menos con una unidad de codificación máxima al menos en un modo de operación de al menos las unidades de codificación de comparación de herramientas de codificación de acuerdo con las profundidades entre sí, y seleccionando el modo de operación que tiene la eficiencia más alta de codificación al menos de entre un modo de operación, durante la codificación al menos de una unidad de codificación máxima.
5. El método de conformidad con la reivindicación 1, caracterizado porque la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación es determinada, de manera que las unidades de codificación que corresponden con las profundidades, los tamaños de las cuales son menores o iguales a un tamaño predeterminado, corresponden con un modo de operación que no provoca que los bits de sobrecarga sean insertados en un flujo de datos codificados y otras unidades de codificación, los tamaños de las cuales son más grandes que el tamaño predeterminado, corresponden con un modo de operación que provoca los bits de sobrecarga.
6. El método de conformidad con la reivindicación 1, caracterizado porque una profundidad codificada de cada una al menos de una región dividida es independientemente determinada de otras regiones divididas de la misma unidad de codificación máxima a la que pertenece al menos una región dividida .
7. Un método de decodificación de datos de video, caracterizado porque comprende: recibir y analizar un flujo de bits que comprende datos codificados de video; extraer, del flujo de bits, los datos codificados de video, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación; y decodificar los datos codificados de video al menos en una unidad de codificación máxima de acuerdo con el modo de operación de una herramienta de codificación que compara una unidad de codificación que corresponde por lo menos con una profundidad codificada, en función de la información con respecto a la profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto al modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y es determinado el modo de operación, en donde el modo de operación de la herramienta de codificación para una unidad de codificación de acuerdo con la profundidad codificada de la unidad de codificación .
8. El método de conformidad con la reivindicación 7, caracterizado porque: la herramienta de codificación para la codificación por lo menos de una unidad de codificación máxima comprende al menos una de la cuantificación, la transformación, la intra-predicción, la inter-predicción, la compensación de movimiento, la codificación de entropía, y el filtrado de circuito; y la decodificación de los datos codificados .de video comprende realizar una herramienta de decodificación que corresponde con la herramienta de codificación para la codificación por lo menos de una unidad de codificación máxima .
9. El método de conformidad con la reivindicación 8, caracterizado porque la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación es preestablecida en unidades de rebanada, unidades de cuadro, o unidades de secuencia de cuadro de la imagen actual.
10. El método de conformidad con la reivindicación 8, caracterizado porque la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación es determinada comparando los resultados de la codificación al menos con una unidad de codificación máxima al menos en un modo de operación por lo menos de una herramienta de codificación que compara las unidades de codificación de acuerdo con las profundidades entre sí, y seleccionando el modo de operación que tiene la eficiencia más alta de codificación al menos de entre un modo de operación durante la codificación al menos de una unidad de codificación máxima.
11. El método de conformidad con ,1a reivindicación 8, caracterizado porque la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación es determinada, de manera que las unidades de codificación que corresponden con las profundidades, los tamaños de las cuales son menores o iguales a un tamaño predeterminado, corresponden con un modo de operación que no provoca que los bits de sobrecarga sean insertados en un flujo de datos codificados y otras unidades de codificación que corresponden con las profundidades, los tamaños de las cuales son más grandes que el tamaño predeterminado, corresponden con un modo de operación que provoca los bits de sobrecarga, durante la codificación del flujo de bits.
12. Un aparato para la codificación de datos de video, caracterizado porque comprende: un divisor de unidad de codificación máxima que divide una imagen actual de los datos de video al menos en una unidad de codificación máxima; un determinador de unidad de codificación que determina la profundidad codificada para dar salida al resultado de la codificación mediante la codificación al menos de una región dividida por lo menos de una unidad de codificación máxima de acuerdo al menos con un modo de operación por lo menos de una herramienta de codificación, de manera respectiva, en función de la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación, en donde al menos una región dividida es generada dividiendo, en forma jerárquica, al menos una unidad de codificación máxima de acuerdo con las profundidades y es determinado el modo de operación de una herramienta de codificación para una unidad de codificación de acuerdo con la profundidad de la unidad de codificación; y una unidad de salida que da salida a un flujo de bits que comprende datos codificados de video que son el resultado de la codificación, la información con respecto a una profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación al menos en una unidad de codificación máxima.
13. Un aparato para la decodificación de datos de video, caracterizado porque comprende: un receptor que recibe y analiza un flujo de bits que comprende datos codificados de video; un extractor que extrae, del flujo de bits, los datos codificados de video, la información con respecto a una profundidad codificada al menos de una unidad de codificación máxima, la información con respecto a un modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, una herramienta de codificación, y un modo de operación; y un decodificador que decodifica los datos codificados de video al menos en una unidad de codificación máxima de acuerdo con el modo de operación de una herramienta de codificación que compara una unidad de codificación que corresponde por lo menos con una profundidad codificada, en función de la información con respecto a la profundidad codificada por lo menos de una unidad de codificación máxima, la información con respecto al modo de codificación, y la información con respecto a la relación entre la profundidad al menos de una unidad de codificación por lo menos de una unidad de codificación máxima, la herramienta de codificación, y el modo de operación, en donde es determinado el modo de operación de la herramienta de codificación para una unidad de codificación de acuerdo con la profundidad codificada de la unidad de codificación.
14. El medio de grabación susceptible de ser leído en computadora, caracterizado porque tiene grabado en el mismo un programa para la ejecución del método de conformidad con la reivindicación 1.
15. El medio de grabación susceptible de ser leído en computadora, caracterizado porque tiene grabado en el mismo un programa para la ejecución del método de conformidad con la reivindicación 8.
MX2012004679A 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion. MX2012004679A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090101191A KR101457418B1 (ko) 2009-10-23 2009-10-23 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
PCT/KR2010/007257 WO2011049396A2 (en) 2009-10-23 2010-10-22 Method and apparatus for encoding video and method and apparatus for decoding video, based on hierarchical structure of coding unit

Publications (1)

Publication Number Publication Date
MX2012004679A true MX2012004679A (es) 2012-06-14

Family

ID=43898418

Family Applications (5)

Application Number Title Priority Date Filing Date
MX2014016033A MX337143B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.
MX2012004679A MX2012004679A (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.
MX2014016034A MX337142B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.
MX2014016031A MX337141B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.
MX2015009332A MX337144B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
MX2014016033A MX337143B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.

Family Applications After (3)

Application Number Title Priority Date Filing Date
MX2014016034A MX337142B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.
MX2014016031A MX337141B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.
MX2015009332A MX337144B (es) 2009-10-23 2010-10-22 Metodo y aparato de codificacion de video y metodo y aparato de decodificacion de video, basados en estructura jerarquica de unidad de codificacion.

Country Status (20)

Country Link
US (7) US8798159B2 (es)
EP (6) EP3261344B1 (es)
JP (6) JP5711244B2 (es)
KR (1) KR101457418B1 (es)
CN (6) CN102577383B (es)
BR (5) BR122015021746B1 (es)
CA (5) CA2890988C (es)
CY (5) CY1118667T1 (es)
DK (5) DK2897364T3 (es)
ES (5) ES2612715T3 (es)
HR (5) HRP20170082T1 (es)
HU (5) HUE033550T2 (es)
LT (5) LT2838267T (es)
MX (5) MX337143B (es)
PL (5) PL2838267T3 (es)
PT (5) PT2838267T (es)
RS (5) RS55648B1 (es)
RU (7) RU2559758C2 (es)
SI (5) SI2489186T1 (es)
WO (1) WO2011049396A2 (es)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9888817B2 (en) 2014-12-17 2018-02-13 Omachron Intellectual Property Inc. Surface cleaning apparatus
JP2011049740A (ja) * 2009-08-26 2011-03-10 Sony Corp 画像処理装置および方法
KR101452713B1 (ko) 2009-10-30 2014-10-21 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치
KR101484280B1 (ko) 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
KR101487687B1 (ko) * 2010-01-14 2015-01-29 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
KR101675118B1 (ko) 2010-01-14 2016-11-10 삼성전자 주식회사 스킵 및 분할 순서를 고려한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
KR101457396B1 (ko) 2010-01-14 2014-11-03 삼성전자주식회사 디블로킹 필터링을 이용한 비디오 부호화 방법과 그 장치, 및 디블로킹 필터링을 이용한 비디오 복호화 방법 및 그 장치
CN105472394B (zh) 2010-01-15 2018-11-30 三星电子株式会社 用于预测编码的使用可变分区的视频编码的方法和设备以及用于预测编码的使用可变分区的视频解码的方法和设备
KR102481529B1 (ko) 2010-04-13 2022-12-23 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
TWI666882B (zh) * 2010-04-13 2019-07-21 美商Ge影像壓縮有限公司 在樣本陣列多元樹細分中之繼承技術
KR101549644B1 (ko) 2010-04-13 2015-09-03 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
HUE057597T2 (hu) 2010-04-13 2022-05-28 Ge Video Compression Llc Videó kódolás képek többes fa struktúrájú alosztásainak használatával
US9094658B2 (en) * 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
KR101822214B1 (ko) * 2010-06-10 2018-01-25 톰슨 라이센싱 복수의 이웃 양자화 파라미터들로부터 양자화 파라미터 예측 변수들을 결정하기 위한 방법들 및 장치
CN105516723B (zh) 2010-09-30 2018-07-27 三菱电机株式会社 运动图像编码装置及方法、运动图像解码装置及方法
KR20120035096A (ko) * 2010-10-04 2012-04-13 한국전자통신연구원 쿼드 트리 변환 구조에서 부가 정보의 시그널링 방법 및 장치
US20130215963A1 (en) * 2010-10-26 2013-08-22 Humax Co., Ltd. Adaptive intra-prediction encoding and decoding method
PL2651128T3 (pl) 2010-12-06 2019-01-31 Sun Patent Trust Sposób dekodowania obrazu, sposób kodowania obrazu, urządzenie dekodujące obraz oraz urządzenie kodujące obraz
KR20120090740A (ko) * 2011-02-07 2012-08-17 (주)휴맥스 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법
JP6327435B2 (ja) 2011-03-03 2018-05-23 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置、及び、画像復号装置
WO2012118359A2 (ko) 2011-03-03 2012-09-07 한국전자통신연구원 색차 성분 양자화 매개 변수 결정 방법 및 이러한 방법을 사용하는 장치
US9363509B2 (en) * 2011-03-03 2016-06-07 Electronics And Telecommunications Research Institute Method for determining color difference component quantization parameter and device using the method
US9135724B2 (en) 2011-03-11 2015-09-15 Sony Corporation Image processing apparatus and method
US8995523B2 (en) * 2011-06-03 2015-03-31 Qualcomm Incorporated Memory efficient context modeling
ES2606694T3 (es) 2011-06-28 2017-03-27 Samsung Electronics Co., Ltd Procedimiento y aparato de codificación de video y procedimiento y aparato de decodificación de video, acompañados con intra predicción
MY165859A (en) 2011-06-28 2018-05-18 Samsung Electronics Co Ltd Method and apparatus for image encoding and decoding using intra prediction
US8929455B2 (en) * 2011-07-01 2015-01-06 Mitsubishi Electric Research Laboratories, Inc. Method for selecting transform types from mapping table for prediction modes
WO2013009029A2 (ko) * 2011-07-08 2013-01-17 한양대학교 산학협력단 부호화 단위의 크기 결정 방법 및 장치
JP5711098B2 (ja) * 2011-11-07 2015-04-30 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
KR20130050405A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 시간 후보자 결정방법
TWI562597B (en) * 2011-11-08 2016-12-11 Samsung Electronics Co Ltd Method and apparatus for quantization parameter determination and computer readable recording medium
TWI505696B (zh) 2011-11-08 2015-10-21 Samsung Electronics Co Ltd 解碼影像的方法
US20150043639A1 (en) * 2012-03-20 2015-02-12 Samsung Electronics Co., Ltd. Method and device for coding scalable video on basis of coding unit of tree structure, and method and device for decoding scalable video on basis of coding unit of tree structure
US9961368B2 (en) 2012-04-24 2018-05-01 Lg Electronics Inc. Method and device for determining a unit of a transform unit used in video signal processing
CN103379331B (zh) * 2012-04-28 2018-10-23 南京中兴新软件有限责任公司 一种视频码流编解码方法和装置
WO2013183268A1 (ja) 2012-06-08 2013-12-12 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
EP2869554B1 (en) 2012-06-27 2020-10-07 Sun Patent Trust Image coding method, image decoding method, image coding device, image decoding device, and image coding and decoding apparatus
KR102039039B1 (ko) * 2012-06-28 2019-10-31 연세대학교 산학협력단 영상 부호화 방법 및 장치
DK3361733T3 (da) * 2012-07-02 2020-01-20 Samsung Electronics Co Ltd Entropikodning af en video og entropiafkodning af en video
US20140029670A1 (en) * 2012-07-27 2014-01-30 Motorola Mobility Llc Devices and methods for processing of partition mode in high efficiency video coding
US20140086319A1 (en) * 2012-09-25 2014-03-27 Sony Corporation Video coding system with adaptive upsampling and method of operation thereof
CN103067704B (zh) * 2012-12-12 2015-12-09 华中科技大学 一种基于编码单元层次提前跳过的视频编码方法和系统
US10728565B2 (en) 2013-04-05 2020-07-28 Samsung Electronics Co., Ltd. Video encoding method and apparatus thereof and a video decoding method and apparatus thereof
US10645399B2 (en) * 2013-07-23 2020-05-05 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding image
US9294766B2 (en) 2013-09-09 2016-03-22 Apple Inc. Chroma quantization in video coding
JP2017505037A (ja) * 2013-12-26 2017-02-09 サムスン エレクトロニクス カンパニー リミテッド デプス符号化方法及びその装置、デプス復号化方法及びその装置
US10003807B2 (en) 2015-06-22 2018-06-19 Cisco Technology, Inc. Block-based video coding using a mixture of square and rectangular blocks
US10009620B2 (en) 2015-06-22 2018-06-26 Cisco Technology, Inc. Combined coding of split information and other block-level parameters for video coding/decoding
US10218975B2 (en) * 2015-09-29 2019-02-26 Qualcomm Incorporated Transform precision manipulation in video coding
WO2017101065A1 (en) * 2015-12-17 2017-06-22 Intel Corporation Decoder for playing big frames
US10560702B2 (en) 2016-01-22 2020-02-11 Intel Corporation Transform unit size determination for video coding
WO2017158850A1 (ja) * 2016-03-18 2017-09-21 株式会社ソシオネクスト 画像処理装置、および画像処理方法
US10341659B2 (en) * 2016-10-05 2019-07-02 Qualcomm Incorporated Systems and methods of switching interpolation filters
KR102036565B1 (ko) * 2016-10-27 2019-10-25 주식회사 에스원 계산-율-왜곡을 최적화하는 방법 및 장치, 그리고 이를 이용해 영상 프레임을 부호화하는 방법 및 장치
CN116437109A (zh) * 2017-01-31 2023-07-14 夏普株式会社 用于执行平面帧内预测视频编码的系统和方法
US10330884B2 (en) * 2017-02-20 2019-06-25 Rosemount Aerospace Inc. Mounting of optical elements for imaging in air vehicles
EP3454556A1 (en) * 2017-09-08 2019-03-13 Thomson Licensing Method and apparatus for video encoding and decoding using pattern-based block filtering
US20210274182A1 (en) * 2018-07-02 2021-09-02 Interdigital Vc Holdings, Inc. Context-based binary arithmetic encoding and decoding
US11192122B2 (en) 2018-08-13 2021-12-07 Omachron Intellectual Property Inc. Cyclonic air treatment member and surface cleaning apparatus including the same
US11013384B2 (en) 2018-08-13 2021-05-25 Omachron Intellectual Property Inc. Cyclonic air treatment member and surface cleaning apparatus including the same
US11006799B2 (en) 2018-08-13 2021-05-18 Omachron Intellectual Property Inc. Cyclonic air treatment member and surface cleaning apparatus including the same
CN114641999A (zh) * 2019-09-10 2022-06-17 三星电子株式会社 使用工具集的图像解码装置及其图像解码方法、和图像编码装置及其图像编码方法

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4849810A (en) * 1987-06-02 1989-07-18 Picturetel Corporation Hierarchial encoding method and apparatus for efficiently communicating image sequences
EP0405591B1 (en) * 1989-06-30 1997-10-01 Nec Corporation Varaible length block coding with changing characteristics of input samples
US5241395A (en) * 1989-08-07 1993-08-31 Bell Communications Research, Inc. Adaptive transform coding using variable block size
US5448297A (en) * 1993-06-16 1995-09-05 Intel Corporation Method and system for encoding images using skip blocks
DE69428979T2 (de) * 1993-08-30 2002-08-08 Sony Corp., Tokio/Tokyo Einrichtung und verfahren zur kodierung von bilddaten
WO1995014350A1 (en) * 1993-11-15 1995-05-26 National Semiconductor Corporation Quadtree-structured walsh transform coding
US5446806A (en) * 1993-11-15 1995-08-29 National Semiconductor Corporation Quadtree-structured Walsh transform video/image coding
US6873734B1 (en) * 1994-09-21 2005-03-29 Ricoh Company Ltd Method and apparatus for compression using reversible wavelet transforms and an embedded codestream
US5867602A (en) * 1994-09-21 1999-02-02 Ricoh Corporation Reversible wavelet transform and embedded codestream manipulation
US5703652A (en) * 1995-07-28 1997-12-30 Sony Corporation Information signal encoding system and method for adaptively encoding an information signal
WO1997017797A2 (en) * 1995-10-25 1997-05-15 Sarnoff Corporation Apparatus and method for quadtree based variable block size motion estimation
KR970057947A (ko) * 1995-12-28 1997-07-31 배순훈 영상 부호화기에서의 타입 결정 및 버퍼 제어 장치
US6970604B1 (en) * 1998-10-05 2005-11-29 Media Tek Inc. Apparatus and method for forming a coding unit
US7006697B1 (en) * 2001-03-30 2006-02-28 Ricoh Co., Ltd. Parallel block MQ arithmetic image compression of wavelet transform coefficients
US6816616B2 (en) * 2001-05-31 2004-11-09 Webex Communications, Inc. Header compression for image data stream
EP1421787A4 (en) * 2001-08-23 2008-10-08 Polycom Inc SYSTEM AND METHOD FOR HIDDING VIDEO ERRORS
US7302006B2 (en) * 2002-04-30 2007-11-27 Hewlett-Packard Development Company, L.P. Compression of images and image sequences through adaptive partitioning
JP3504256B1 (ja) 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、及び動画像復号装置
RU2005130771A (ru) * 2003-03-05 2006-01-27 Эйсай Ко., Лтд. (JP) Композиции и способы профилактики и лечения эндотоксин-связанных заболеваний и состояний
HUP0301368A3 (en) 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
US7830963B2 (en) * 2003-07-18 2010-11-09 Microsoft Corporation Decoding jointly coded transform type and subblock pattern information
US20050024487A1 (en) * 2003-07-31 2005-02-03 William Chen Video codec system with real-time complexity adaptation and region-of-interest coding
JP2005142654A (ja) * 2003-11-04 2005-06-02 Matsushita Electric Ind Co Ltd 映像送信装置および映像受信装置
KR20050045746A (ko) * 2003-11-12 2005-05-17 삼성전자주식회사 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치
FR2879878B1 (fr) * 2004-12-22 2007-05-25 Thales Sa Procede de chiffrement selectif compatible pour flux video
US7634148B2 (en) * 2005-01-07 2009-12-15 Ntt Docomo, Inc. Image signal transforming and inverse-transforming method and computer program product with pre-encoding filtering features
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
US7602984B2 (en) * 2005-09-28 2009-10-13 Novell, Inc. Adaptive method and system for encoding digital images for the internet
CN101317458B (zh) * 2006-03-16 2012-04-18 华为技术有限公司 在编码过程中实现自适应量化的方法及装置
WO2008027192A2 (en) 2006-08-25 2008-03-06 Thomson Licensing Methods and apparatus for reduced resolution partitioning
EP2057847A4 (en) * 2006-08-31 2011-12-21 Samsung Electronics Co Ltd VIDEO CODING ARRANGEMENT AND METHOD AND VIDEO ENCODING ARRANGEMENT AND METHOD
KR100842558B1 (ko) * 2007-01-26 2008-07-01 삼성전자주식회사 동영상 부호화를 위한 블록 모드 결정 방법 및 그 장치
EP1978743B1 (en) * 2007-04-02 2020-07-01 Vestel Elektronik Sanayi ve Ticaret A.S. A method and apparatus for transcoding a video signal
WO2009000110A1 (en) * 2007-06-27 2008-12-31 Thomson Licensing Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
KR101366249B1 (ko) * 2007-06-28 2014-02-21 삼성전자주식회사 스케일러블 영상 부호화장치 및 방법과 그 영상 복호화장치및 방법
KR101365441B1 (ko) * 2007-10-11 2014-02-19 삼성전자주식회사 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
KR101365597B1 (ko) * 2007-10-24 2014-02-20 삼성전자주식회사 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법
US8270472B2 (en) * 2007-11-09 2012-09-18 Thomson Licensing Methods and apparatus for adaptive reference filtering (ARF) of bi-predictive pictures in multi-view coded video
US20100295922A1 (en) * 2008-01-25 2010-11-25 Gene Cheung Coding Mode Selection For Block-Based Encoding
US8542730B2 (en) 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
JP4650512B2 (ja) * 2008-03-28 2011-03-16 セイコーエプソン株式会社 画像符号化装置及び集積回路装置
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8503527B2 (en) * 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
KR101487686B1 (ko) * 2009-08-14 2015-01-30 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
AU2011241284B2 (en) * 2010-04-13 2015-05-07 Samsung Electronics Co., Ltd. Video-encoding method and video-encoding apparatus using prediction units based on encoding units determined in accordance with a tree structure, and video-decoding method and video-decoding apparatus using prediction units based on encoding units determined in accordance with a tree structure
US20110310976A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Joint Coding of Partition Information in Video Coding
US8750634B2 (en) * 2011-05-05 2014-06-10 Mitsubishi Electric Research Laboratories, Inc. Method for coding pictures using hierarchical transform units
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
WO2013088687A1 (ja) * 2011-12-15 2013-06-20 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化復号装置
US8805098B2 (en) * 2012-01-19 2014-08-12 Sharp Laboratories Of America, Inc. Inter reference picture set signaling and prediction on an electronic device

Also Published As

Publication number Publication date
RU2013156555A (ru) 2015-04-27
SI2897364T1 (sl) 2017-03-31
US8897369B2 (en) 2014-11-25
RS55647B1 (sr) 2017-06-30
BR122015021748B1 (pt) 2022-01-18
SI2838267T1 (sl) 2017-03-31
CN104853190A (zh) 2015-08-19
CA2890992A1 (en) 2011-04-28
US20150023414A1 (en) 2015-01-22
RS55614B1 (sr) 2017-06-30
JP2015144472A (ja) 2015-08-06
EP3261344B1 (en) 2019-07-24
HRP20171196T1 (hr) 2017-10-20
RU2013156610A (ru) 2015-05-27
JP5711244B2 (ja) 2015-04-30
CN104796700B (zh) 2017-05-10
BR112012009178B1 (pt) 2022-05-24
PL2838267T3 (pl) 2017-06-30
ES2612715T3 (es) 2017-05-18
JP5893780B2 (ja) 2016-03-23
CA2890990C (en) 2016-04-26
LT2940996T (lt) 2017-08-25
LT2838267T (lt) 2017-02-10
LT2897364T (lt) 2017-02-10
RS56118B1 (sr) 2017-10-31
ES2636757T3 (es) 2017-10-09
BR122015021751A2 (pt) 2019-08-27
CY1118489T1 (el) 2017-07-12
MX337144B (es) 2016-02-15
US20140328394A1 (en) 2014-11-06
CA2890990A1 (en) 2011-04-28
EP2838267B1 (en) 2017-01-25
CN104811699A (zh) 2015-07-29
RU2012121176A (ru) 2013-11-27
RU2559757C9 (ru) 2016-10-20
RU2560791C2 (ru) 2015-08-20
EP2940996A1 (en) 2015-11-04
ES2612712T3 (es) 2017-05-18
ES2613647T3 (es) 2017-05-25
US8891618B1 (en) 2014-11-18
EP2838267A3 (en) 2015-04-08
LT2940997T (lt) 2017-02-10
JP2015144469A (ja) 2015-08-06
RU2559753C1 (ru) 2015-08-10
US8989274B2 (en) 2015-03-24
CA2890992C (en) 2016-04-26
EP2940996B1 (en) 2017-08-02
WO2011049396A2 (en) 2011-04-28
US20140205004A1 (en) 2014-07-24
SI2489186T1 (sl) 2017-02-28
BR122015021746A2 (pt) 2020-01-14
JP2015144471A (ja) 2015-08-06
US20110096829A1 (en) 2011-04-28
EP2897364B1 (en) 2017-01-25
BR122015021748A2 (pt) 2019-08-27
RU2559757C2 (ru) 2015-08-10
RU2013156636A (ru) 2015-07-20
CY1118667T1 (el) 2017-07-12
RS55648B1 (sr) 2017-06-30
KR20110044487A (ko) 2011-04-29
PT2940997T (pt) 2017-02-06
BR122015021750A2 (pt) 2019-08-27
EP2940997A1 (en) 2015-11-04
BR112012009178A2 (pt) 2016-11-22
CA2777584C (en) 2015-09-15
JP5832679B2 (ja) 2015-12-16
CN104853189B (zh) 2016-08-31
HUE033559T2 (hu) 2017-12-28
JP2015136156A (ja) 2015-07-27
DK2940997T3 (da) 2017-02-13
RS55649B1 (sr) 2017-06-30
US8891631B1 (en) 2014-11-18
PL2489186T3 (pl) 2017-03-31
CY1118671T1 (el) 2017-07-12
CN105072442B (zh) 2018-11-16
CA2890988A1 (en) 2011-04-28
CA2890991A1 (en) 2011-04-28
SI2940997T1 (sl) 2017-03-31
HUE035102T2 (en) 2018-05-02
HUE033562T2 (hu) 2017-12-28
MX337143B (es) 2016-02-15
US8891632B1 (en) 2014-11-18
JP2015144470A (ja) 2015-08-06
JP5893781B2 (ja) 2016-03-23
RU2013156553A (ru) 2015-07-20
LT2489186T (lt) 2017-02-10
RU2013156573A (ru) 2015-06-27
MX337142B (es) 2016-02-15
BR122015021750B1 (pt) 2022-01-18
MX337141B (es) 2016-02-15
CY1118490T1 (el) 2017-07-12
HRP20170082T1 (hr) 2017-03-24
US8798159B2 (en) 2014-08-05
DK2838267T3 (da) 2017-02-13
EP2838267A2 (en) 2015-02-18
US20140205003A1 (en) 2014-07-24
BR122015021751B1 (pt) 2022-01-18
PL2940997T3 (pl) 2017-05-31
US9414055B2 (en) 2016-08-09
PT2940996T (pt) 2017-08-10
BR122015021746B1 (pt) 2022-01-18
CN104811699B (zh) 2017-04-26
RU2559758C2 (ru) 2015-08-10
RU2509435C2 (ru) 2014-03-10
CY1119302T1 (el) 2018-02-14
EP3261344A1 (en) 2017-12-27
DK2897364T3 (da) 2017-02-13
EP2489186B1 (en) 2017-01-18
ES2612718T3 (es) 2017-05-18
RU2013156612A (ru) 2015-07-20
PT2489186T (pt) 2017-01-31
US20140328393A1 (en) 2014-11-06
CN104853190B (zh) 2017-04-26
JP5832680B2 (ja) 2015-12-16
HRP20170128T1 (hr) 2017-03-24
JP5934406B2 (ja) 2016-06-15
CA2890988C (en) 2016-04-26
RU2559751C1 (ru) 2015-08-10
EP2897364A1 (en) 2015-07-22
HUE033550T2 (hu) 2017-12-28
DK2940996T3 (en) 2017-08-28
HRP20170126T1 (hr) 2017-03-24
CA2777584A1 (en) 2011-04-28
CN102577383B (zh) 2016-08-03
WO2011049396A3 (en) 2011-11-03
US20140328392A1 (en) 2014-11-06
JP2013509080A (ja) 2013-03-07
CN102577383A (zh) 2012-07-11
RU2557760C2 (ru) 2015-07-27
PL2897364T3 (pl) 2017-05-31
EP2940997B1 (en) 2017-01-25
CN104853189A (zh) 2015-08-19
HUE031397T2 (en) 2017-07-28
EP2489186A2 (en) 2012-08-22
CN105072442A (zh) 2015-11-18
EP2489186A4 (en) 2015-07-08
DK2489186T3 (da) 2017-01-30
CN104796700A (zh) 2015-07-22
SI2940996T1 (sl) 2017-09-29
CA2890991C (en) 2016-04-26
KR101457418B1 (ko) 2014-11-04
PT2897364T (pt) 2017-02-06
HRP20170125T1 (hr) 2017-03-24
PL2940996T3 (pl) 2017-10-31
PT2838267T (pt) 2017-02-03

Similar Documents

Publication Publication Date Title
CA2890990C (en) Method and apparatus for encoding and decoding video, based on the hierachical structure of coding unit
CA2876818C (en) Method and apparatus for encoding video by motion prediction using arbitrary partition, and method and apparatus for decoding video by motion prediction using arbitrary partition
MX2012000613A (es) Metodo y aparato de codificacion de video, y metodo y aparato de decodificacion de video.
KR20170081183A (ko) 인트라 예측을 이용하는 비디오 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
FG Grant or registration