MX2013000345A - Metodo y aparato de codifcacion de video utilizando fusion de bloque, y metodo y aparato de decodificacion de video utilizando fusion de bloque. - Google Patents

Metodo y aparato de codifcacion de video utilizando fusion de bloque, y metodo y aparato de decodificacion de video utilizando fusion de bloque.

Info

Publication number
MX2013000345A
MX2013000345A MX2013000345A MX2013000345A MX2013000345A MX 2013000345 A MX2013000345 A MX 2013000345A MX 2013000345 A MX2013000345 A MX 2013000345A MX 2013000345 A MX2013000345 A MX 2013000345A MX 2013000345 A MX2013000345 A MX 2013000345A
Authority
MX
Mexico
Prior art keywords
unit
data
information
prediction
coding
Prior art date
Application number
MX2013000345A
Other languages
English (en)
Inventor
Woo-Jin Han
Tammy Lee
Il-Koo Kim
Sun-Il Lee
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2011/004969 external-priority patent/WO2012005520A2/en
Publication of MX2013000345A publication Critical patent/MX2013000345A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

El método de codificación incluye: determinar un modo de codificación que indica una unidad actual de datos para la codificación, de una imagen y un método de codificación que incluye la codificación de predicción realizada para la unidad actual de datos; determinar la ocurrencia de la fusión al menos con una unidad vecina de datos en función al menos de uno del modo de codificación y un modo de predicción; y determinar la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción, y determinar la información de codificación de la unidad de datos qué incluye la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción.

Description

METODO Y APARATO DE CODIFICACION DE VIDEO UTILIZANDO FUSION DE BLOQUE, Y METODO Y APARATO DE DECODIFICACION DE VIDEO UTILIZANDO FUSION DE BLOQUE Campo de la Invención Los aparatos y métodos consistentes con las modalidades de ejemplo se refieren a la codificación y decodificación de un video utilizando la fusión o unión de bloque para la codificación de predicción.
Antecedentes de la Invención Con el propósito de codificar los bloques en una imagen actual, las tecnologías de compresión de video utilizan, de manera general, un método de estimación/compensación de movimiento que a su vez utiliza la información de predicción al menos de un bloque similar de entre los bloques vecinos, y utilizan un método de compresión que reduce el tamaño de los datos de video removiendo los datos redundantes mediante la codificación de una señal diferencial entre una imagen previa y una imagen actual a través de una transformada del coseno discreto (DCT, por sus siglas en inglés) .
Puesto que el hardware, para la reproducción y el almacenamiento de contenido de video de alta resolución o de alta calidad, ha estado siendo desarrollado y suministrado, se ha incrementado la demanda de un códec de video para la EF. 238372 codificación o decodificación, de manera efectiva, del contenido de video de alta resolución o alta calidad. En el códec de video de la técnica relacionada, un video es codificado de acuerdo con un método limitado de codificación basado en un macrobloque que tiene un tamaño predeterminado. Asimismo, el códec de video de la técnica relacionada codifica y decodifica los datos de video realizando la transformación y la transformación inversa en los macrobloques al utilizar cada uno de los bloques con el mismo tamaño .
Breve Descripción de la Invención Problema Técnico S proporciona un método y aparato para la codificación de un video utilizando la fusión o unión de bloque y un método y aparato para la decodificación de un video utilizando la fusión de bloque.
Solución al Problema De acuerdo con un aspecto de una modalidad de ejemplo, se proporciona un método de codificación de un video utilizando la fusión de unidad de datos, el método incluye: determinar un modo de codificación que indica una unidad de datos para la codificación de una imagen y un método de codificación que incluye la codificación de predicción que es realizada para cada unidad de datos; determinar la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos; y determinar la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción en función de la ocurrencia de la fusión al menos con una unidad vecina de datos de acuerdo con las unidades de datos y determinar la información de codificación de la unidad de datos que incluye la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción.
Breve Descripción de las Figuras La Figura 1 es un diagrama de bloque de un aparato para la codificación de un video utilizando la fusión de unidad de datos, de acuerdo con una modalidad de ejemplo; La Figura 2 es un diagrama de bloque de un aparato para la decodificación de un video utilizando la fusión de unidad de datos, de acuerdo con una modalidad de ejemplo; La Figura 3 es un diagrama que ilustra los bloques vecinos que podrían ser unidos con un macrobloque actual de acuerdo con la técnica relacionada; Las Figuras 4 y 5 son diagramas que explican los métodos de selección de una unidad de datos que será unida con una unidad actual de datos de entre las unidades vecinas de datos de la unidad actual de datos, de acuerdo con la técnica relacionada y una modalidad de ejemplo, de manera respectiva; Las Figuras 6 y 7 son diagramas de bloque que explican los órdenes de codificación y decodificación de la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción, de acuerdo con las modalidades de ejemplo; Las Figuras 8 y 9 son diagramas que explican los métodos de selección de una unidad de datos que será unida con una unidad actual de datos de entre las unidades vecinas extendidas de datos de la unidad actual de datos, de acuerdo con la técnica relacionada y una modalidad de ejemplo, de manera respectiva; Las Figuras 10, 11, y 12 son diagramas de bloque que explican los órdenes de codificación y decodificación de la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción, de acuerdo con varias modalidades de ejemplos - La Figura 13 es un diagrama que ilustra las unidades vecinas de datos que no son unidas con una partición actual, de acuerdo con una modalidad de ejemplo; La Figura 14 es un diagrama que ilustra una unidad candidata de datos que varía de acuerdo con la forma y la posición de una partición actual, de acuerdo con una modalidad de ejemplo; La Figura 15 es un diagrama que ilustra las unidades vecinas de datos que no podrían ser unidas con una partición actual que es una partición que tiene una forma geométrica, de acuerdo con una modalidad de ejemplo; La Figura 16 es un diagrama que ilustra un ejemplo en donde es utilizada una unidad vecina de datos determinada que será unida con una unidad actual de datos, de acuerdo con una modalidad de ejemplo; La Figura 17 es un diagrama de flujo que ilustra un método de codificación de un video utilizando la fusión de unidad de datos, de acuerdo con una modalidad de ejemplo; La Figura 18 es un diagrama de flujo que ilustra un método de decodificación de un video utilizando la fusión de unidad de datos de acuerdo con una modalidad de ejemplo; La Figura 19 es un diagrama de bloque de un aparato para la codificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tiene una estructura de árbol, de acuerdo con una modalidad de ejemplo; La Figura 20 es un diagrama de bloque de un aparato para la decodificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tiene una estructura de árbol, de acuerdo con una modalidad de ejemplo; La Figura 21 es un diagrama que explica un concepto de las unidades de codificación, de acuerdo con una modalidad de ejemplo; La Figura 22 es un diagrama de bloque de una unidad de codificación de imagen en función de las unidades de codificación, de acuerdo con una modalidad de ejemplo; La Figura 23 es un diagrama de bloque de un decodificador de imagen en función de las unidades de codificación, de acuerdo con una modalidad de ejemplo; La Figura 24 es un diagrama que ilustra las unidades de codificación de acuerdo con las profundidades y las particiones, de acuerdo con una modalidad de ejemplo; La Figura 25 es un diagrama que explica la relación entre una unidad de codificación y las unidades de transformación, de acuerdo con una modalidad de ejemplo; La Figura 26 es un diagrama que explica la información de codificación de las unidades de codificación que corresponde con la profundidad codificada, de acuerdo con una modalidad de ejemplo; La Figura 27 es un diagrama que ilustra las unidades de codificación de acuerdo con las profundidades, de acuerdo con una modalidad de ejemplo; Las Figuras 28-30 son diagramas que explican la relación entre las unidades de codificación, las unidades de predicción, y las unidades de transformación, de acuerdo con una modalidad de ejemplo; La Figura 31 es un diagrama que explica la relación entre una unidad de codificación, una unidad de predicción y una unidad de transformación, de acuerdo con la información de modo de codificación de la Tabla 2; La Figura 32 es un diagrama de flujo que ilustra un método de codificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tiene una estructura de árbol, de acuerdo con una modalidad de ejemplo; y La Figura 33 es un diagrama de flujo que ilustra un método de decodificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tiene una estructura de árbol, de acuerdo con . una modalidad de ejemplo.
Descripción Detallada de la Invención De acuerdo con un aspecto de una modalidad de ejemplo, se proporciona un método de codificación de un video utilizando la fusión de unidad de datos, el método incluye: determinar un modo de codificación que indica una unidad de datos para la codificación de una imagen y un método de codificación que incluye la codificación de predicción que es realizada para cada unidad de datos; determinar la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos; y determinar la información de modo de predicción, la información relacionada de ¦ fusión, y la información relacionada de predicción en función de la ocurrencia de la fusión al menos con una unidad vecina de datos de acuerdo con las unidades de datos y determinar la información de codificación de la unidad de datos que incluye la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción.
La determinación de la información de codificación podría incluir: determinar la información de modo de salto que indica si un modo de predicción de la unidad de datos es un modo de salto y determinar si la información de fusión indica si la unidad de datos y al menos una unidad vecina de datos están unidas entre sí, es codificada en función de la información de modo de salto.
De acuerdo con un aspecto de otra modalidad de ejemplo, se proporciona un método de decodificación de un video utilizando la fusión de unidad de datos, el método incluye: analizar un flujo recibido de bits para extraer los datos codificados de video y la información de codificación y extraer la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción en la información de codificación; y analizar la ocurrencia de fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos basadas en la información de modo de predicción y la información relacionada de fusión, y realizar la inter-predicción y la compensación de movimiento utilizando la información relacionada de predicción al menos de una unidad vecina de datos en una unidad de datos unida al menos con una unidad vecina de datos, para decodificar los datos codificados de video de acuerdo con las unidades de datos determinadas en función de la información de codificación.
La extracción y la lectura podrían incluir: extraer y leer la información de modo de salto que indica si un modo de predicción de la unidad de datos es un modo de salto; y determinar si la información de fusión indica si la unidad de datos y al menos una unidad vecina de datos están unidas entre sí, es extraída en función de la información de modo de salto.
De acuerdo con un aspecto de otra modalidad de ejemplo, se proporciona un aparato para la codificación de un video utilizando la fusión de unidad de datos, el aparato incluye: un determinador de modo de codificación que determina un modo de codificación que indica una unidad de datos para la codificación de una imagen y un método de codificación que incluye la codificación de predicción para cada unidad de datos; un determinador de fusión de unidad de datos que determina la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos,- y un determinador de información de codificación que determina la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción en función de la ocurrencia de la fusión con la unidad vecina de datos de acuerdo con las unidades de datos y determina la información de codificación de la unidad de datos que incluye la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción.
De acuerdo con un aspecto de otra modalidad de ejemplo, se proporciona un aparato para la decodificación de un video utilizando la fusión de unidad de datos, el aparato incluye: un analizador y extractor que analiza un flujo recibido de bits para extraer los datos codificados de video y la información de codificación y para extraer la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción en la información de codificación; y un fusionador y decodificador de unidad de datos que analiza la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos basadas en la información de modo de predicción y la información relacionada de fusión y realiza la inter-predicción y la compensación de movimiento utilizando la información relacionada de predicción al menos de una unidad vecina de datos en una unidad de datos unida con la unidad vecina de datos, para decodificar los datos codificados de video de acuerdo con las unidades de datos determinadas en función de la información de codificación.
De acuerdo con un aspecto de otra modalidad de ejemplo, se proporciona un medio de grabación susceptible de ser leído en computadora que tiene incluido en el mismo un programa para la ejecución del método de codificación del video .
De acuerdo con un aspecto de otra modalidad de ejemplo, se proporciona un medio de grabación susceptible de ser leído en computadora que tiene incluido en el mismo un programa para la ejecución del método de decodificación del video.
Modo para la Invención De aquí en adelante, 'una imagen' podría referirse no sólo a una imagen fija sino también a una imagen en movimiento tal como un video. Además, 'una unidad de datos' se refiere a un grupo de datos en un intervalo predeterminado de entre los datos que constituyen un video. Asimismo, de aquí en adelante, las expresiones tales como "al menos uno de", cuando preceden una lista de elementos, modifican la totalidad de la lista de elementos y no modifican los elementos individuales de la lista.
La codificación y decodificación de un video que utiliza la fusión de la unidad de datos, de acuerdo con una o más modalidades de ejemplo, serán explicadas más adelante con referencia a las Figuras 1-18. La codificación y decodificación de un video que utiliza la fusión de la unidad de datos en función de las unidades de codificación que tiene una estructura de árbol, de acuerdo con una o más modalidades de ejemplo, serán explicadas más adelante con referencia a las Figuras 19-33.
Un aparato para la codificación de un video, un aparato para la decodificación de un video, un método de codificación de un video y un método de decodificación de video, utilizando la fusión de unidad de datos, de acuerdo con una o más modalidades de ejemplo, serán explicados más adelante con referencia a las Figuras 1-18.
La Figura 1 es un diagrama de bloque de un aparato 10. para la codificación de un video utilizando la fusión o unión de unidad de datos, de acuerdo con una modalidad de ej emplo .
El aparato 10 incluye un determinador de modo de codificación 11, un determinador de fusión de unidad de datos 13 y un determinador de información de codificación 15. Por conveniencia de explicación, el aparato 10 para la codificación de un video utilizando la fusión de unidad de datos es referido como un aparato 10 para la codificación de un video.
El aparato 10 recibe los datos de video, codifica los datos de video realizando la inter-predicción entre las imágenes, la intra-predicción en una imagen, la transformación, la cuantificación y la codificación de entropía para las imágenes del video, y da salida a la información de codificación que incluye la información acerca de los datos codificados de video y un modo de codificación.
El determinador de modo de codificación 11 podría determinar una unidad de datos para la codificación de una imagen y podría determinar un método de codificación que será realizado para cada unidad de datos. En un método de codificación de compresión de video, con el propósito de reducir el tamaño de los datos removiendo una parte redundante en los datos de video, es realizado el método de codificación de predicción utilizando los datos vecinos. El determinador de modo de codificación 11 podría determinar un bloque cuadrado regular o una partición en un bloque cuadrado regular como una unidad de datos para la codificación de predicción.
El determinador de modo de codificación 11 podría determinar un modo de predicción que indica el método de codificación de predicción tal como un inter-modo, un intra-modo, un modo de salto o un modo directo, para cada unidad de datos. Asimismo, el determinador de modo de codificación 11 podría determinar los ítems adicionales tales como la dirección de predicción o un índice de referencia útil para la codificación de predicción de acuerdo con el modo de predicción de la unidad de datos .
El determinador de modo de codificación 11 podría determinar varios modos de codificación que incluyen el modo de predicción para la codificación de predicción y los ítems adicionales relacionados, y en consecuencia, podría codificar los datos de video.
El determinador de fusión de unidad de datos 13 podría determinar no sólo si una unidad de datos cuyo modo de predicción es un inter-modo sino también una unidad de datos cuyo modo de predicción es un modo de salto o un modo directo de entre las unidades de datos determinadas por el determinador de modo de codificación 11 es unida al menos con una unidad vecina de datos.
Si una unidad actual de datos es unida con una unidad vecina de datos, la unidad actual de datos podría compartir la información de vector de movimiento de la unidad vecina de datos. Aunque la información de diferencial de vector de movimiento de la unidad actual de datos es codificada de manera independiente, debido a que la información auxiliar de predicción de la unidad actual de datos podría ser derivada siguiendo o con referencia a la información auxiliar de predicción de la unidad vecina de datos unida con la unidad actual de datos, la información auxiliar de predicción de la unidad actual de datos no es codificada por separado.
El determinador de fusión de unidad de datos 13 podría determinar al menos un grupo candidato de unidad de datos que incluye una unidad de datos que podría ser unida con la unidad actual de datos en regiones circundantes a la unidad actual de datos. El determinador de fusión de unidad de datos 13 podría buscar una unidad de datos que será unida con la unidad actual de datos al menos en un grupo candidato de unidad de datos. En este caso, podría determinarse en cada región un grupo candidato de unidad que incluye una unidad de datos que podría ser unida con la unidad actual de datos .
De acuerdo con una regla predeterminada preestablecida entre los sistemas de codificación y decodificación, podría ser establecido un método de determinación de un grupo candidato de unidad de datos en al menos una región que rodea una unidad actual de datos y un método de determinación de una unidad de datos en el grupo candidato de unidad de datos .
Asimismo, el aparato 10 podría codificar y dar salida al menos a uno de la información acerca del método de determinación del grupo candidato de unidad de datos al menos en la región de la unidad vecina actual de datos y la información acerca del método de determinación de una unidad de datos en el grupo candidato de unidad de datos .
Por ejemplo, el determinador de fusión de unidad de datos 13 podría buscar una unidad de datos que tiene el mismo índice de referencia como la unidad actual de datos en el grupo candidato de unidad de datos y podría seleccionar la unidad de datos como la unidad candidata de datos que será unida con la unidad actual de datos .
En forma alterna, el determinador de fusión de unidad de datos 13 podría buscar una unidad de datos cuyo modo de predicción es un inter-modo en el grupo candidato de unidad de datos y podría seleccionar la unidad de datos como la unidad candidata de datos que" será unida con la unidad actual de datos . Una unidad de datos podría ser finalmente determinada de entre las unidades candidatas de datos seleccionadas de este modo como la unidad candidata de datos que será unida con la unidad actual de datos .
El determinador de fusión de. unidad de datos 13 podría determinar una unidad candidata de datos que será unida con la unidad actual de datos utilizando un método general de una predicción de vector de movimiento en el inter-modo. En detalle, de acuerdo con el método general de una predicción de vector dé movimiento en el inter-modo, una pluralidad de vectores candidatos que será prevista con un vector de movimiento de la unidad actual de datos, los cuales son determinados de entre las unidades vecinas de datos haciendo contacto con todos los límites de la unidad actual de datos. Es decir, una de entre las unidades vecinas de datos que hace contacto con un límite izquierdo de la unidad actual de datos, una de entre las unidades vecinas de datos que hace contacto con un límite superior de la unidad actual de datos, y una de entre las unidades vecinas de datos que hace contacto con las esquinas de la unidad actual de datos son seleccionadas, y uno de los vectores de movimiento de las tres unidades de datos es determinado como un vector candidato .
De acuerdo con el método general de una predicción de vector de movimiento en el inter-modo, el determinador de fusión de unidad de datos 13 podría buscar y determinar una unidad de datos que será unida con la unidad actual de datos en el grupo candidato izquierdo de unidad de datos que incluye todas de una pluralidad de las unidades vecinas de datos que hacen contacto con un límite izquierdo de la unidad actual de datos y en el grupo candidato superior de unidad de datos que incluye todas de una pluralidad de las unidades vecinas de datos que hacen contacto con un límite superior de la unidad actual de datos.
Asimismo, el determinador de fusión de unidad de datos 13 podría buscar y determinar una unidad de datos que será unida con la unidad actual de datos en el grupo candidato de esquina de unidad de datos que incluye una unidad vecina izquierda superior de datos, la unidad vecina derecha superior de datos, y la unidad vecina izquierda inferior de datos que hacen contacto con las esquinas de la unidad actual de datos en adición en el grupo candidato izquierdo de unidad de datos y el grupo candidato superior de unidad de datos de la unidad actual de datos .
En este caso, podría ser preestablecido un método de determinación de una unidad candidata de datos en el grupo candidato izquierdo de unidad de datos, un método de determinación de una unidad candidata de datos en el grupo candidato superior de unidad de datos, y un método de determinación de una unidad candidata de datos en el grupo candidato de esquina de unidad de datos. Debido a que podría ser preestablecido cada método de determinación de una unidad candidata de datos de entre un correspondiente grupo candidato de unidad de datos, el método podría ser implícitamente señalado.
Asimismo, podría ser preestablecido un método que determina finalmente una unidad vecina de datos que será unida con la unidad actual de datos de entre una unidad candidata de datos determinada en el grupo candidato izquierdo de unidad de datos, una unidad candidata de datos determinada en el grupo candidato superior de unidad de datos, y una unidad candidata de datos determinada en el grupo candidato de esquina de unidad de datos, es decir, tres unidades candidatas de datos. Es decir, debido a que podría ser preestablecido cada método de determinación de la unidad vecina de datos que será unida con la unidad candidata de datos, el método podría ser implícitamente señalado.
Por ejemplo, el determinador de fusión de unidad de datos 13 podría buscar una unidad de datos cuyo modo de predicción es un inter-modo de entre las unidades candidatas de datos y podría seleccionar la unidad de datos como una unidad candidata de datos que será unida con la unidad actual de datos. En forma alterna, el determinador de fusión de unidad de datos 13 podría buscar una unidad de datos que tiene el mismo índice de referencia como la unidad actual de datos de entre las unidades candidatas de datos y podría seleccionar la unidad de datos como una unidad candidata de datos que será unida con la unidad actual de datos.
Aunque las particiones son divididas con el propósito de una inter-predicción más precisa de una unidad de datos vecina a otra, las particiones no podrían ser unidas entre sí.
Debido a que las unidades accesibles de datos de entre las unidades de datos que rodean una partición actual podrían variar de acuerdo con la forma y la posición de la partición actual, podría ser cambiado un grupo candidato de fusión que incluye las unidades vecinas de datos que podrían ser unidos. En consecuencia, el determinador de fusión de unidad de datos 13 podría buscar una unidad vecina de datos que podrían ser unidos en función de la forma y la posición de una partición actual .
El determinador de información de codificación 15 podría determinar la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción de acuerdo con las unidades de datos. El determinador de información de codificación 15 podría actualizar la información relacionada de predicción en la ' información de codificación determinada por el determinador de modo de codificación 11 de acuerdo con la fusión de la unidad de datos del determinador de fusión de unidad de datos 13. El determinador de información de codificación 15 podría codificar la información de codificación para incluir la información relacionada de fusión de acuerdo con la fusión de la unidad de datos del determinador de fusión de unidad de datos 13. El determinador de información de codificación 15 podría dar salida a los datos de video codificados por el determinador de modo de codificación 11 y la información de codificación.
La información de modo de predicción en la información relacionada de predicción es la información que indica si un modo de predicción de una unidad actual de datos es un inter-modo, un intra-modo, un modo de salto o un modo directo. Por ejemplo, la información de modo de predicción podría incluir la información de modo de salto que indica si el modo de predicción de la unidad actual de datos es un modo de salto y la información de modo directo que indica si el modo de predicción de la unidad actual de datos es un modo directo. ' La información relacionada de fusión incluye la información utilizada para realizar la fusión de la unidad de datos o para determinar si es realizada la fusión de la unidad de datos. Por ejemplo, la información relacionada de fusión podría incluir la información de fusión que indica si una unidad actual de datos va a ser unida con una unidad vecina de datos y la información de índice de fusión que indica una unidad de datos que será unida. El determinador de información de codificación 15 podría codificar la información de fusión a través del modelo de contexto con respecto a una combinación de 'un modo de predicción y un tipo de partición de una unidad vecina de datos' y con respecto a 'si una unidad actual de datos y una unidad vecina de datos son unidas' .
La información relacionada de predicción además podría incluir la información auxiliar de predicción y la información de movimiento utilizada para la codificación de' predicción de una unidad de datos. Por ejemplo, como se describe con anterioridad, la información relacionada . de predicción podría incluir la información auxiliar de predicción que se refiere a la información adicional relacionada con la codificación de predicción que incluye un índice de referencia que indica la unidad de datos que será referida y similares, y el vector de movimiento o la información de diferencial de vector de movimiento.
El determinador de información de codificación 15 podría determinar si la información relacionada de fusión es establecida de acuerdo con la información de modo de predicción en función de una relación cercana entre un modo de predicción de una unidad de datos y la posibilidad que sea unida la unidad de datos .
En una primera modalidad de ejemplo, en donde podría realizarse la fusión de la unidad de datos en una unidad de datos diferente de un modo de salto, el determinador de información de codificación 15 podría codificar la información de modo de salto que indica si un modo de predicción de una unidad actual de datos es un modo de salto, y podría determinar si la información de fusión indica si la unidad actual de datos y una unidad vecina de datos están unidas entre sí, en función de la información de modo de salto.
En detalle, en la primera modalidad de ejemplo, si un modo de predicción de la unidad actual de datos es un modo de salto, el determinador de información de codificación 15 podría establecer la información de modo de salto para indicar que el modo de predicción de la unidad actual de datos es un modo de salto y no podría codificar la información de fusión de la unidad actual de datos.
Si un modo de predicción de la unidad actual de datos no es un modo de salto, el determinador de información de codificación 15 podría establecer la información de modo de salto para indicar que el modo de predicción de la unidad actual de datos no es un modo de salto y podría codificar la información de fusión de la unidad actual de datos.
El determinador de información de codificación 15 podría codificar la información de diferencial de vector de movimiento de una unidad de datos en función de la información de fusión, y podría determinar si la información auxiliar de predicción de la unidad de datos es codificada.
Es decir, si una unidad actual de datos es unida con una unidad vecina de datos, el determinador de información de codificación 15 podría establecer la información de fusión de la unidad actual de datos para indicar que la unidad actual de datos es unida con la unidad vecina de datos, y no podría codificar la información auxiliar de predicción de la unidad actual de datos. Por otro lado, si la unidad actual de datos no es unida con la unidad vecina de datos, el determinador de información de codificación 15 podría establecer la información de fusión de la unidad actual de datos para indicar que la unidad actual de. datos no es unida con la unidad vecina de datos, y podría codificar la información auxiliar de predicción de la unidad actual de datos.
Sin considerar si la unidad actual de datos es unida o no con la unidad vecina de datos, el determinador de información de codificación 15 podría codificar la información de diferencial de vector de movimiento de la unidad actual de datos.
Asimismo, en una segunda modalidad de ejemplo en donde se determina si es realizada la fusión de la unidad de datos en una unidad de datos diferente de un modo de salto y un modo directo, el determinador de información de codificación 15 podría codificar la información relacionada de fusión para indicar si la fusión de la unidad de datos es realizada en una unidad de datos cuyo modo de predicción es un modo directo.
. En detalle, en la segunda modalidad de ejemplo, el determinador de información de codificación 15 podría establecer la información de modo de salto para indicar que el modo de predicción de una unidad de datos no es un modo de salto, y podría codificar la información de modo directo. Asimismo, el determinador de información de codificación 15 podría determinar si la información de fusión es codificada en función de la información de modo directo. Es decir, si un modo de predicción de una unidad actual de datos es un modo directo, el determinador de información de codificación 15 podría establecer la información de modo directo para indicar que un modo de predicción de la unidad actual de datos es un modo directo y no. podría codificar la información de fusión de la unidad actual de datos. Si un modo de predicción de una unidad actual de datos no es un modo directo, el determinador de información de codificación 15 podría establecer la información de modo directo para indicar que un modo de predicción de la unidad actual de datos no es un modo directo y podría codificar la información de fusión de la unidad actual de datos .
Si la información de fusión es codificada, es determinado si la información auxiliar de predicción de la unidad actual de datos es codificada en función de la información de fusión, y la información de diferencial de vector de movimiento de la unidad actual de datos es codificada como se describe con anterioridad en la primera modalidad de ejemplo.
Una unidad de datos obtenida mediante la división de una imagen podría incluir 'una unidad de codificación' que es una unidad de datos para la codificación de una imagen, 'una unidad de predicción' para la codificación de predicción, y ¦una partición' para la inter-predicción. El determinador de fusión de unidad de datos 13 podría determinar si es realizada la fusión o unión con una unidad vecina de datos para cada unidad de codificación, y el determinador de información de codificación 15 podría determinar la información de modo de salto y la información de fusión para cada unidad de codificación. Asimismo, el determinador de fusión de unidad de datos 13 podría determinar si es realizada la fusión ' o unión con una unidad vecina de datos para cada unidad de predicción, y el determinador de información de codificación 105 podría determinar la información de modo de salto y la información de fusión para cada unidad de predicción.
Si ambas de la información de modo de salto y la información de fusión son utilizadas, debido a que la información de predicción única de una unidad actual de datos no es codificada en el caso de ambos de un modo de salto y la fusión de datos, el aparato 10 podría distinguir un método de predicción de acuerdo con un modo de salto de un -método de predicción de acuerdo con la fusión de datos. Por ejemplo, un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de salto podría determinarse de acuerdo con · una regla preestablecida, y una unidad de datos unida con una unidad vecina de datos podría seguir un índice de referencia y una dirección de referencia de la información de movimiento de la unidad vecina de datos. Debido a que podría ser preestablecida la regla para la determinación de un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de salto, la regla podría ser señalada, de manera implícita.
El determinador de información de codificación 15 podría codificar la información de modo de salto para cada modo de predicción y podría codificar la información relacionada de fusión para cada partición. Asimismo, el determinador de información de codificación 15 podría codificar ambas de la información relacionada de fusión y la información de modo de salto para cada unidad de datos . En forma alterna, el determinador de información de codificación 15 podría establecer la información relacionada de fusión que será codificada sólo para una unidad de datos que tiene un modo predeterminado preestablecido de predicción.
El aparato 10 podría determinar la fusión de la unidad de datos entre las unidades de codificación o determine la fusión de la unidad de datos entre las unidades de predicción. Asimismo, el aparato 10 podría codificar, de manera selectiva, la información de modo de salto y la información de modo directo. En consecuencia, si un modo de predicción de una unidad de datos no es un modo de salto en función de la información de modo de salto de la unidad de datos, el determinador de información de codificación 15 podría codificar al menos uno del modo de salto/directo la información de codificación que indica si la información de modo directo de la unidad de datos es codificada, la información de determinación de fusión de unidad de codificación que indica si la ocurrencia de la fusión entre las unidades de codificación es determinada, y la información de determinación de fusión de unidad de predicción que indica si la ocurrencia de la fusión entre las unidades de predicción es determinada.
La Figura 2 es un diagrama de bloque de un aparato 20 para la decodificación de un video utilizando la fusión de unidad de datos, de acuerdo con una modalidad de ejemplo.
El aparato 20 incluye un analizador/extractor 21 y el fusionador/decodificador de unidad de datos 23. Por conveniencia de explicación, el aparato 20 para la decodificación de un video utilizando la fusión de unidad de datos es referido como 'un aparato 20 para la decodificación de un video' .
El aparato 20 recibe un flujo de bits de los datos codificados de video, extrae la información de codificación que incluye la información acerca de un método de codificación y los datos codificados de video, y realiza la de codificación a través de la decodificación de entropía, la cuantificación inversa, la transformación inversa, y la inter-predicción/compensación entre las imágenes para restaurar los datos de video.
El analizador/extractor 21 analiza el flujo recibido de bits para extraer los datos codificados de video y la información de codificación y para extraer la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción en la información de codificación. El analizador/extractor 21 podría extraer la información de modo de salto, la información de modo directo, y similares como la información de modo de predicción. El analizador/extractor 21 podría extraer la información auxiliar de predicción que incluye una dirección de referencia y un índice de referencia, y la información de diferencial de vector de movimiento como la información relacionada de predicción.
El analizador/extractor 21 podría extraer la información de fusión, la información de índice de fusión, y similares como la información relacionada de fusión. El analizador/extractor 21 podría leer la información de fusión codificada a través del modelo de contexto con respecto a la combinación de 'un modo de predicción y un tipo de partición de una unidad vecina de datos' y 'si una unidad actual de datos y la unidad vecina de datos están unidas entre sí,', y podría analizar el modo de predicción y el tipo de partición de la unidad vecina de datos unidos con la unidad actual de datos .
En primer lugar, en una primera modalidad de ejemplo en donde si la fusión de la unidad de datos es realizada en una unidad de datos diferente de un modo de salto es determinada, el analizador/extractor 21 podría extraer y leer la información de modo de salto de la unidad de datos de un flujo recibido de bits, y podría determinar si la información de fusión de la unidad de datos es extraída en función de la información de modo de salto. Es decir, si se lee que un modo de predicción de una unidad actual de datos no es un modo de salto en función de la información de modo de salto, el analizador/extractor 21 podría extraer la información de fusión de la unidad actual de datos del flujo recibido de bits .
El analizador/extractor 21 podría extraer la información de diferencial de vector de movimiento de una unidad de datos en función de la información de fusión, y podría determinar si la ínter- información auxiliar de predicción de la unidad de datos es extraída. Es decir, si se lee que una unidad actual de datos no es unida con una unidad vecina de datos basada en la información de fusión, el analizador/extractor 21 podría extraer la información de diferencial de vector de movimiento de un flujo recibido de bits y podría extraer la información auxiliar de predicción de la unidad actual de datos. Por otro lado, si se lee que una unidad actual de datos es unida con una unidad vecina de datos basada en la información de fusión, el analizador/extractor 21 podría extraer la información de diferencial de vector de movimiento de un flujo recibido de bits y no podría extraer la información auxiliar de predicción de la unidad actual de datos .
A continuación, en una segunda modalidad de ejemplo en donde si la fusión de la unidad de datos es realizada en una unidad de datos diferente de un modo de salto y un modo directo es determinada, si un modo de predicción de una unidad de datos no es un modo de salto, el analizador/extractor 21 podría extraer la información de modo directo de la unidad de datos, y podría determinar si la información de fusión es extraída en función de la información de modo directo.
Es decir, si se lee que un modo de predicción de una unidad actual de datos es un modo directo de acuerdo con la información de modo directo, el analizador/extractor 21 no podría extraer la información de fusión de un flujo recibido de bits. Por otro lado, si se lee que un modo de predicción de una unidad actual de datos no es un modo directo de acuerdo con. la información de modo directo, el analizador/extractor 21 podría extraer la información de fusión de un flujo recibido de bits.
El analizador/extractor 21 podría extraer la información de diferencial de vector de movimiento de una unidad de datos en función de la información de fusión y podría determinar si la información auxiliar de predicción es extraída como se describe con anterioridad en la primera modalidad.
El fusionador/d'ecodificador de unidad de datos 23 analiza si es realizada la unión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de1 datos basadas en la información de modo de predicción y la información relacionada de fusión. El fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos en función de la información de codificación y podría decodificar los datos codificados de video de acuerdo con la unidad determinada de datos para restaurar una imagen.
Por ejemplo, el fusionador/decodificador de unidad de datos 23 podría realizar la inter-predicción y ' la compensación de movimiento utilizando la información relacionada de predicción de una unidad vecina de datos en una unidad de datos unida con la unidad vecina de datos para decodificar los datos de video en función de la información de codificación.
El analizador/extractor 21 podría extraer y leer la información de modo de salto y la información de fusión para cada unidad de codificación, y el fusionador/decodificador de unidad de datos 23 podría determinar si es realizada la fusión o. unión con una unidad vecina de datos basada en la información de fusión para cada unidad de codificación.
Asimismo, el analizador/extractor -21 podría extraer y leer la información de modo de salto y la información de fusión para cada unidad de predicción, y el fusionador/decodificador de unidad de datos 23 podría determinar si es generada la fusión o unión con una unidad vecina de datos basada en la información de fusión para cada unidad de predicción.
El fusionador/decodificador de unidad de datos 23 podría leer si una unidad actual de datos es unida con una unidad vecina de datos en función de la información relacionada de fusión extraída por el analizador/extractor 21, y podría buscar una unidad de datos que será unida de entre las unidades vecinas de datos.
En primer lugar, el fusionador/decodificador de unidad de datos 23 podría analizar si una unidad actual de datos es unida con una unidad vecina de datos basada en la información de fusión en la información relacionada de fusión. Si se lee que la unidad actual de datos es unida con la unidad vecina de datos, el fusionador/decodificador de unidad de datos 23 podría determinar al menos un grupo candidato de unidad de datos que incluye una unidad de datos que podrían ser unidos con la unidad actual de datos en regiones circundantes a la unidad actual de datos en función de la información de índice de fusión en la información relacionada de fusión. El fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos que será unida con la unidad actual de datos al menos en un grupo candidato de unidad de datos . Un grupo candidato de unidad de datos para la unión de la unidad actual de datos podría determinarse al menos para cada una región de la unidad vecina actual de datos.
Debido a que podría ser preestablecido cada método de determinación de la unidad vecina de datos que será unida con la unidad candidata de datos, el método podría ser ¦señalado, de manera implícita. El fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos que será unida con la unidad actual de datos basado al menos en uno de un método de determinación de un grupo candidato de unidad de datos que es preestablecido de acuerdo con una regla predeterminada entre los sistemas de codificación/decodificación y un método de determinación de una unidad de datos en el grupo candidato de unidad de datos.
El analizador/extractor 21 podría extraer al menos uno de la información acerca de un método de determinación de un grupo candidato de unidad de datos de entre al menos una región la unidad vecina actual de datos y la información acerca de un método de determinación de una unidad de datos en el grupo candidato de unidad de datos. El fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos que será unida con la unidad actual de datos basado al menos en uno de la información acerca de un método de determinación de un grupo extraído candidato de unidad de datos y la información acerca de un método de determinación . de una unidad de datos en el grupo candidato de unidad de datos .
Por ejemplo, si el fusionador/decodificador de unidad de datos 23 establece una primera unidad candidata de datos, una segunda unidad candidata de datos, o una tercera unidad candidata de datos de acuerdo con el método preestablecido, el fusionador/decodificador de unidad de datos 23 podría buscar una unidad vecina de datos que tiene el mismo índice de referencia como la unidad actual de datos en un grupo candidato de fusión de las unidades vecinas de capa superior de datos, y podría determinar la unidad vecina de datos como una unidad de datos que será unida.
En forma alterna, si el fusionador/decodificador de unidad de datos 23 determina una primera unidad candidata de datos, una segunda unidad candidata de datos, o una tercera unidad candidata de datos de acuerdo con el método preestablecido, el fusionador/decodificador de unidad ¦ de datos 23 podría buscar una unidad vecina de datos cuyo modo de predicción es un inter-modo en un grupo candidato de fusión de las unidades vecinas de capa superior de datos y podría determinar la unidad vecina de datos como una unidad de datos que será unida con la unidad actual de datos .
Debido a que podría ser preestablecido cada método de determinación de una unidad candidata de datos de entre un correspondiente grupo candidato de unidad de datos, el método podría ser señalado, de manera implícita.
El fusionador/decodificado de unidad de datos 23 podría determinar una unidad candidata de datos que será unida con la unidad actual de datos utilizando el método general de una predicción de vector de movimiento en el inter-modo. En detalle, el fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos que será unida con la unidad actual de datos en el grupo candidato izquierdo de unidad de datos que incluye todas de una pluralidad de unidades izquierdas vecinas de datos que hacen contacto con un límite izquierdo de la unidad actual de datos y el grupo candidato superior de unidad de datos que incluye todas de una pluralidad de las unidades superiores vecinas de datos que hacen contacto con un límite superior en función de la información de índice de fusión en la información relacionada de fusión.
Asimismo, el fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos que será unida con la unidad actual de datos en función de la información de índice de fusión in a el grupo candidato de esquina de unidad de datos que incluye una unidad vecina izquierda superior de datos, la unidad vecina derecha superior de datos, y la unidad vecina izquierda inferior de datos que hace contacto con las esquinas de la unidad actual de datos, en adición al grupo candidato izquierdo de unidad de datos y el grupo candidato superior de unidad de datos de la unidad actual de datos .
En detalle, el fusionador/decodificador de unidad de datos 23 podría leer la información de índice de fusión y podría determinar una primera unidad candidata de datos que es una en el grupo candidato izquierdo de unidad de datos, una segunda unidad candidata de datos que es una en el grupo candidato superior de unidad de datos, o una tercera unidad candidata de datos que es una en el grupo candidato de esquina de unidad de datos como una unidad vecina de datos que será unida con la unidad actual de datos .
Asimismo, el fusionador/decodificador de unidad de datos 23 podría buscar y determinar una de entre las unidades izquierdas vecinas de datos si la primera unidad candidata de datos es determinada, una de entre las unidades superiores vecinas de datos si la segunda unidad candidata de datos es determinada, y una de entre las unidades vecinas de datos que hace contacto con las esquinas si la tercera unidad candidata de datos es determinada como una unidad de datos que será unida con la unidad actual de datos.
En este caso, podría ser preestablecido un método de búsqueda y determinación de una unidad de datos que será unida con la unidad actual de datos de entre las unidades izquierdas vecinas de datos, las unidades superiores vecinas de datos, y las unidades vecinas de datos que hacen contacto con las esquinas. Por ejemplo, de acuerdo con un método preestablecido, el fusionador/decodificador de unidad de datos 23 podría buscar una unidad vecina de datos cuyo modo de predicción es un inter-modo de entre las unidades candidatas de datos y podría determinar la unidad vecina de datos como una unidad de datos que será unida con la unidad actual de datos .
En forma alterna, de acuerdo con un método preestablecido, el fusionador/decodificador de unidad de datos 23 podría buscar una unidad vecina de datos que tiene el mismo índice de referencia como la unidad actual de datos de entre las unidades c.andidatas de datos y podría determinar la unidad vecina de datos como una unidad de datos que será unida.
Debido a que podría ser preestablecido cada método de determinación de la unidad vecina de datos que será unida con la unidad candidata de datos, el método podría ser señalado, de manera implícita.
El fusionador/decodificador de unidad de datos 23 no podría realizar la fusión mutua entre las particiones en una unidad de datos .
El fusionador/decodificador de unidad de datos 23 podría determinar una unidad de datos que será unida con la unidad actual de datos en un grupo candidato de fusión de las unidades vecinas de datos que varían de acuerdo con la forma y la posición de una partición actual.
El analizador/extractor 21 podría extraer la información de modo de salto para cada unidad de predicción y podría extraer la información relacionada de fusión para cada partición. En forma alterna, el analizador/extractor 21 podría extraer la información relacionada de fusión y la información de modo de salto para cada unidad de datos . Asimismo, el analizador/extractor 21 podría extraer la información relacionada de fusión sólo para una unidad de datos que tiene un modo predeterminado de predicción.
El analizador/extractor 21 podría extraer, de manera secuencial, la información de modo de salto, la información de unidad de predicción, la información de partición, y la información de fusión de una unidad de predicción. La información de partición podría incluir la información acerca de si la unidad de predicción es dividida en particiones y la información acerca de un tipo de partición.
El aparato 20 podría decodificar los datos de video realizando la fusión de la unidad de datos entre las unidades de codificación o entre las unidades de predicción. Asimismo, el aparato 20 podría decodificar, de manera selectiva, los datos de video de acuerdo con la información codificada de modo de salto y la información de modo directo.
En consecuencia, si un modo de predicción de una unidad de datos no es un modo de salto en función de la información de. modo de salto de la unidad de datos, el analizador/extractor 21 podría extraer al menos uno del modo de salto/directo la información de codificación que indica si la información de modo directo de la unidad de datos es codificada, la información de determinación de fusión de unidad de codificación que indica si es determinada la ocurrencia de la fusión de las unidades de codificación, y la información de determinación de fusión de unidad de predicción que indica si es determinada la ocurrencia de la fusión entre las unidades de predicción. Asimismo, el fusionador/decodificador de unidad de datos 23 podría realizar la decodificación utilizando ambos de un modo de salto y un modo directo en función de la información extraída, o podría decodificar los datos de video sometidos a la fusión de la unidad de datos basada en una unidad de codificación o una unidad de predicción.
El fusionador/decodificador de unidad de datos 23 podría decodificar los datos de video determinando un' índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de salto de acuerdo con una regla preestablecida y siguiendo un índice de referencia y una dirección de referencia de la información de movimiento de una unidad vecina de datos para la unidad de datos unida con la unidad vecina de datos. Debido a que podría ser preestablecida la regla de determinación de un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de salto, la regla podría ser señalada, de manera implícita.
A medida que se incrementa la resolución de video, la cantidad de los datos se incrementa con rapidez, y se incrementa el tamaño de una unidad de datos, los datos redundantes se incrementan de esta manera, y también se incrementa la unidad de datos que tiene un modo de salto o un modo directo. Sin embargo, debido a que un método anterior de fusión de macrobloque determina sólo si un macrobloque cuyo modo de predicción es un inter-modo diferente de un modo de salto y un modo directo es unido y une el macrobloque con un macrobloque vecino que tiene un tamaño fijo y una posición fija, el método anterior de fusión de macrobloque es aplicado a las áreas limitadas.
El aparato 10 y el aparato 20 podrían realizar la fusión de la unidad de datos en las unidades de datos que tienen varios tamaños, varias formas, ' y varios modos de predicción, y podrían unir las unidades de datos con las unidades vecinas de datos que tienen varias posiciones. En consecuencia,, debido a que varias de las unidades de datos comparten la información relacionada de predicción de varias más de las unidades vecinas de datos, los datos redundantes podrían ser removidos con referencia a la información periférica en un intervalo más ancho, con lo cual, se mejora la eficiencia de la codificación de video.
La Figura 3 es un diagrama que ilustra los bloques vecinos que podrían ser unidos con un macrobloque actual de acuerdo con la técnica relacionada.
De acuerdo con un método de fusión de bloque de acuerdo con la técnica relacionada, un bloque vecino incluido en un grupo candidato de fusión de los bloques vecinos que será unido con el bloque actual tiene que ser un bloque vecino que tiene un inter-modo y es codificado antes del bloque actual. En consecuencia, sólo podrían ser incluidos los bloques que rodean un límite superior y un límite derecho del macrobloque actual en un grupo candidato de fusión.
Los bloques unidos podrían constituir una región, y la información de codificación y la información relacionada de fusión podrían ser codificadas de acuerdo con las regiones de los bloques unidos. Por ejemplo, la información de fusión acerca si es realizada la fusión o unión, de bloque, y si es realizada la unión de bloque, la información de posición de bloque de fusión que indica cuál bloque es unido de entre un bloque superior vecino y un bloque izquierdo vecino del macrobloque actual podría ser codificada.
De acuerdo con el método de fusión de bloque de acuerdo con la técnica relacionada, aunque una pluralidad de blocks hace contacto con los límites del macrobloque actual, sólo un bloque vecino que hace contacto . con una muestra izquierda superior del bloque actual podría ser seleccionado para que sea unido con el macrobloque actual.
Es decir, podría ser seleccionado uno de un primer bloque vecino superior 32 que rodea un límite superior de un primer macrobloque actual 31 y que hace contacto con una muestra izquierda superior del primer macrobloque actual 31 y un segundo . bloque vecino izquierdo 33 que rodea un límite izquierdo del primer macrobloque actual 31 y que hace contacto con la muestra izquierda superior del primer macrobloque 31 para que sea unido con el primer macrobloque actual 31.
Del mismo modo, uno de un segundo bloque vecino superior 36 y un segundo bloque vecino izquierdo 37 que hace contacto con una muestra izquierda superior de un segundo macrobloque actual 35 podría ser unido, de manera selectiva, con el segundo macrobloque actual 35.
Las Figuras 4 y 5 son diagramas que explican los métodos de selección de una unidad de datos que será unida con una unidad actual de datos de entre las unidades vecinas de datos de la unidad actual de datos , de acuerdo con la técnica relacionada y una modalidad de ejemplo, de manera respectiva .
Con referencia a la Figura 4, de acuerdo con un método de fusión de unidad de datos de acuerdo con la técnica relacionada, aunque las unidades vecinas de datos 42, 43, y 44 hacen contacto con un límite superior de una unidad actual de datos 41 y las unidades vecinas de datos 45, 46, 47, y 48 hacen contacto con un límite izquierdo de la unidad actual de datos 41, una unidad de datos' que será unida con la unidad actual de datos 41 es limitada a la unidad de datos 42 como una unidad vecina superior de datos o la unidad de datos 45 como una unidad vecina izquierda de datos. Asimismo, debido a que sólo es posible la unión con una unidad vecina de datos cuyo modo de predicción es un inter-modo, si los modos de predicción de las unidades vecinas de datos 42 y 44 son modos de salto o modos directos, las unidades vecinas de datos 42 y 44 no son consideradas como las unidades de datos que serán unidas .
De acuerdo con un método de fusión de unidad de datos del aparato 10 y el aparato 20 de la Figura 5, un grupo candidato de fusión de las unidades vecinas de datos que podrían ser unidos cón la unidad actual de datos 41 podría incluir todas las unidades superiores vecinas de datos 42, 43 y 44 y las unidades izquierdas vecinas de datos 45, 46, 47 y 48. En este caso, aun cuando un modo de predicción de la unidad actual de datos 41 es un modo de salto o un modo directo así como también un inter-modo, si la unidad actual de datos 41 es unida con una unidad vecina de datos podría determinarse.
Por ejemplo, uno de un grupo candidato superior de fusión 52 que incluye las unidades superiores vecinas de datos 42, 43 y 44 de la unidad actual de datos 41 podría determinarse como un candidato superior de fusión A' . Del mismo modo, uno de un grupo candidato izquierdo de fusión 55 que incluye las unidades izquierdas vecinas de datos 45, 46, 47, y 48 de la unidad actual de datos 41 podría determinarse como un candidato izquierdo de fusión L' . Uno del candidato superior de fusión A 1 y el candidato izquierdo de fusión L' podría ser finalmente determinado para que sea una unidad vecina de datos que será unida con la unidad actual de datos 41.
El aparato 10 y el aparato 20 podrían determinar un método de determinación de uno del grupo candidato superior de fusión 52 como el candidato superior de fusión A' y. un método de determinación de uno del grupo candidato izquierdo de fusión 55 como el candidato izquierdo de fusión L' de acuerdo con un método preestablecido. La información acerca del presente método podría ser señalada, de manera implícita. Aun cuando la información acerca del presente método no es codificada por separado para la búsqueda del candidato superior de fusión A' en el grupo candidato superior de fusión 52 o la búsqueda del candidato izquierdo de fusión L ' en el grupo candidato izquierdo de fusión 55, el aparato 10 y el aparato 20 podrían percibir el método preestablecido en el cual son buscados el candidato superior de fusión A' y el candidato izquierdo de fusión L' .
Por ejemplo, las unidades vecinas de datos que tienen la misma información de índice de referencia como la unidad actual de datos 41 en el grupo candidato superior de fusión 52 y el grupo candidato izquierdo de fusión 55 podría determinarse como el candidato superior de fusión A 1 y el candidato izquierdo de fusión L' . En forma alterna, podrían determinarse las unidades vecinas de datos más cercanas a una muestra izquierda superior de la unidad actual de datos 41 cuyo modo de predicción es un inter-modo en el grupo candidato superior de fusión 52 y el grupo candidato izquierdo de fusión 55 como el candidato superior de fusión A' y el candidato izquierdo de fusión L' .
Del mismo modo, el aparato .10 y el aparato 20 podrían determinar finalmente uno del candidato superior de fusión A' y el candidato izquierdo de fusión L' como una unidad vecina de datos que será unida con la unidad actual de datos 41 de acuerdo con un método preestablecido.
Las Figuras 6 y 7 son diagramas de bloque que explican los órdenes de codificación y decodificación la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción, de acuerdo con las modalidades de ejemplo.
En primer lugar, La Figura 6 es un diagrama de bloque que explica un método de codificación y decodificación de la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción, de acuerdo con una primera modalidad de ejemplo en la cual es determinada la ocurrencia de la fusión de la unidad de datos en consideración de si un modo de predicción de una unidad actual de datos es un modo de salto.
En la operación 61, el aparato 10 codifica la información de modo de salto 'skip_flag' de una unidad actual de datos . Si un modo de predicción de la unidad actual de datos es un modo de salto, la información de modo de salto 'skip_flag' podría ser establecida en 1, y si un modo de predicción de la unidad actual de datos no es un modo de salto, la información de modo de salto 'skip_flag' podría ser establecida en 0.
Si es determinado en la operación 61 que el modo de predicción de la unidad actual de datos es un modo de salto, el método continúa en la operación 62. En la operación 62, la información de fusión 'merging_flag ' no podría ser codificada. Si es determinado en la operación 61 que el modo de predicción de la unidad actual de datos no es un modo de salto, el método continúa en la operación 63. En la operación 63, la información de fusión ' merging_flag ' es codificada. La información de dirección de predicción e índice de referencia de la unidad actual de datos cuyo modo de predicción es un modo de salto podría determinarse de acuerdo con una regla preestablecida. Para la información de dirección de predicción e índice de referencia de la unidad actual de datos que será unida con una unidad vecina de datos, podrían ser seguidos o referidos un índice de referencia y una dirección de referencia de un vector de movimiento de la unidad vecina de datos.
Por ejemplo, si existe preestablecida una regla en la que si una rebanada actual es una rebanada P, la dirección de predicción de una unidad de datos cuyo modo de predicción es un modo de salto es establecida en una dirección Listo, si una rebanada actual es una rebanada B, un modo de predicción es establecido en una dirección Bi, y un índice de referencia de la unidad de datos cuyo modo de predicción es un modo de salto es establecido en 0, podría ser posible la codificación de predicción de la unidad de datos cuyo modo de predicción es un modo de salto de acuerdo con la regla.
Si la unidad actual de datos es unida con una unidad vecina de datos, la información de fusión 'merging_flag' de la unidad actual de datos podría ser establecida en 1 y si la unidad actual de datos no es unida con una unidad vecina de datos, la información de fusión ' merging_flag 1 de la unidad actual de datos podría ser establecida en 0. En la operación 64, si la unidad actual de datos es unida con una unidad vecina de datos, debido a que la información auxiliar de predicción para la codificación de predicción de la unidad actual de datos podría ser seguido derivada de la información de la unidad vecina de datos, la información de dirección de predicción e índice de referencia 'Inter direction/Ref índex' de la unidad actual de datos no podría ser codificada. En la operación 65, aunque la unidad actual de datos es unida con la unidad vecina de datos, la información de diferencial de vector de movimiento 'mvd' es codificada.
En la operación 66, si la unidad actual de datos no es unida con una unidad vecina de datos, la información de dirección de predicción e índice de referencia ' Inter direction/Ref índex' de la unidad actual de datos podría ser codificada, y en la operación 67, la información de diferencial de vector de movimiento 'mvd' podría ser codificada. Por ejemplo, la dirección de predicción de la unidad actual de datos podría incluir una dirección listo, una dirección Listl y una dirección Bi.
El aparato 20 podría extraer y leer la información de modo de salto de una unidad actual de datos y podría extraer y leer la información de fusión y la información relacionada de predicción en función de la información de modo de salto como en el método de las operaciones 61-67.
La Figura 7 es un diagrama de bloque que explica un método de codificación/decodificación de la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción, de acuerdo con una segunda modalidad de ejemplo en la cual es determinada la ocurrencia de la fusión de la unidad de datos en consideración de si un modo de predicción de una unidad actual de datos es un modo de salto y un modo directo.
En la operación 71, el aparato 10 codifica la información de modo de salto 'skip_flag' de la unidad actual de datos. Si es determinado en la operación 71 que un modo de predicción de la unidad actual de datos es un modo de salto, el método continúa en la operación 72. En la operación 72, la información de fusión 1 merging_flag 1 no podría ser codificada.
Si es determinado en la operación 71 que el modo de predicción de la unidad actual de datos no es un modo de salto, el método continúa en la operación 73. En la operación 73, el modo directo ' direct_flag 1 es codificado. Si el modo de predicción de la unidad actual de datos es un modo directo, la información de modo directo 1 direct_flag ' de la unidad actual de datos podría ser establecida en 1 y si el modo de predicción de la unidad actual de datos no es un modo directo, la información de modo directo 1 direct_flag 1 de la unidad actual de datos podría ser establecida en 0. Si es determinado en la operación 73 que el modo de predicción de la unidad actual de datos es un modo directo, el método continúa en la operación 74. En la operación 74, la información de fusión 1 merging_flag ' no podría ser codificada .
Si es determinado en la operación 73 que el modo de predicción de la unidad actual de datos no es un modo directo, el método continúa en la operación 75. En la operación 75, la información de fusión 1 merging_flag 1 es codificada. En la operación 76, si la unidad actual de datos es unida con una unidad vecina de datos, la información de dirección de predicción e índice de referencia 'Inter direction/Ref índex' de la unidad actual de datos no podría ser codificada, y en la operación 77, la información de diferencial de vector de movimiento 'mvd' es codificada. En las operaciones 78 y 79, si la unidad actual de datos no es unida con una unidad vecina de datos, la información de dirección de predicción e índice de referencia 1 Inter direction/Ref index' de la unidad actual de datos y la información de diferencial de vector de movimiento 'mvd' podría ser codificada.
El aparato 20 podría extraer y leer la información de modo de salto o la información de modo directo de una unidad actual de datos y podría extraer y leer la información de fusión y la información relacionada de predicción en función de la información de modo de salto o la información de modo directo como en el método de las operaciones 71-79.
Las Figuras 8 y 9 son diagramas que explican los métodos de selección de una unidad de datos que será unida con una unidad actual de datos de entre las unidades vecinas extendidas de datos de la unidad actual de datos, de acuerdo con el método de la técnica relacionada y una modalidad de ejemplo, de manera respectiva.
De acuerdo con la técnica relacionada, el método de fusión de la µnidad de datos de la Figura 8, los objetos que serán unidos con una unidad actual de datos 81 son limitados a una unidad vecina superior de datos 82 y una unidad vecina izquierda de datos 85 que hace contacto con una muestra izquierda superior de la unidad actual de datos 81. Es decir, las unidades vecinas de datos 89, 91 y 93 que hacen contacto con una esquina izquierda superior, una esquina derecha superior y una esquina izquierda inferior de la unidad actual de datos 81 no son incluidas en un grupo candidato de fusión de la unidad actual de datos 81.
Un método de fusión de unidad de datos de la Figura 9 es similar al método de vector de movimiento de un inter-modo. En la Figura 9, un grupo candidato de fusión de las unidades vecinas de datos, que podría ser unido con la unidad actual de datos 81, podría incluir no sólo las unidades superiores vecinas de datos 82, 83 y 84 y las unidades izquierdas vecinas de datos 85, 86, 87 y 88 sino también las unidades vecinas de datos 89, 91 y 93 podrían hacer contacto con una esquina izquierda superior, un esquina derecha superior y una esquina izquierda inferior de la unidad actual de datos 81.
Por ejemplo, podría determinarse uno de un grupo candidato superior de fusión 92 que incluye las unidades superiores vecinas de datos 82, 83, y 84 de la unidad actual de datos 81 como un candidato superior de fusión ?' , y podría determinarse uno de un grupo candidato izquierdo de fusión 95 que incluye las unidades izquierdas vecinas de datos 85, 86, 87 y 88 como un candidato izquierdo de fusión L'. Asimismo, podría determinarse uno de un grupo candidato de unión dé esquina 96 que incluye las unidades vecinas de datos 89, 91 y 93 hace contacto con la esquina izquierda superior, la esquina derecha superior, y la esquina izquierda inferior de la unidad actual de datos 81 como una candidata de fusión de esquina C . Uno del candidato superior de fusión ?' , el candidato izquierdo de fusión L1, y la candidata de fusión de esquina C podría ser finalmente determinado como una unidad vecina de datos que será unida con la unidad actual de datos 81.
Un método de determinación de uno del grupo candidato superior de fusión 92 como el candidato superior dé fusión A', un método de determinación de uno del grupo candidato izquierdo de fusión 95 como el candidato izquierdo de fusión L' , un método de determinación de uno del grupo candidato de fusión de esquina 96 como el candidato de fusión de esquina C , y un método de determinación final de uno del candidato superior de fusión ?' , del candidato izquierdo de fusión L' y del candidato de fusión de esquina C podrían seguir una regla preestablecida como es descrito con referencia a la Figura' 5.
En la Figura 9, debido a que las direcciones de las unidades candidatas de datos que podrían ser unidas con la unidad actual de datos 81 incluyen la información de unión de posición superior, inferior y de esquina podrían ser expresadas como un índice de fusión, no un tipo de aviso de 0 ó 1.
Las Figuras 10, 11, y 12 son diagramas de bloque que explican los órdenes de codificación y decodificación la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción, de acuerdo con varias modalidades de ejemplo.
Con referencia a la Figura 10, el aparato 10 podría codificar la información de modo de salto y la información de fusión para cada unidad de predicción que es una unidad de datos para la codificación de predicción.
En la operación 101, el aparato 10 podría codificar la información de modo de salto 'skip_flag' de una unidad de predicción, y en la operación 102, el aparato 10 podría codificar la información de fusión ' merging_flag ' de una unidad de predicción diferente de un modo de salto. En las operaciones 103 y 104, el aparato 10 podría codificar la información única de modo de predicción 'Prediction info' y la información de partición 'Partition info' de una unidad de predicción cuyo modo de predicción no es un modo de salto y que no es unida con una unidad vecina de datos .
En consecuencia, el aparato 20 podría extraer y leer la información de modo de salto y la información de fusión para cada unidad de predicción. El aparato 20 podría extraer la información única de modo de predicción y la información de partición de una unidad de predicción cuyo modo de predicción no es un modo de salto y que no es unida con una unidad vecina de datos.
Con referencia a la Figura 11, el aparato 10 podría codificar la información de modo de salto para cada unidad de predicción, y podría codificar la información de fusión de cada partición obtenida dividiendo una unidad de predicción con el propósito de una codificación más precisa de predicción.
En la operación 111, el aparato 10 podría codificar la información de modo de salto 'skip_flag' de una unidad de predicción, en la operación 112, el aparato 10 podría codificar la información de modo de predicción 'Prediction info1 de una unidad de predicción cuyo modo de predicción no es un modo de salto, y en la operación 113, el aparato 10 podría codificar la información de partición 'Partition info ' .
En la operación 114, el aparato 10 podría codificar la información de fusión ' merging_flag ' para cada partición de la unidad de predicción cuyo modo de predicción no es un modo de salto. En la operación 115, el aparato 10 podría codificar la información de movimiento único 'Motion info1 de una partición que no es unida con una unidad vecina de datos de entre las particiones de la unidad de predicción cuyo modo de predicción no es un modo de salto.
En consecuencia, el aparato 20 podría extraer y leer la información de modo de salto para cada unidad de predicción, y podría extraer y leer la información de fusión para cada partición. El aparato 20 podría extraer la información de movimiento único de una partición cuyo modo de predicción no es un modo de salto y que no es unida con una unidad vecina.
Con referencia a la Figura 12, el aparato 10 podría codificar la información de modo de salto para cada unidad de ' predicción, y podría codificar la información de fusión para cada partición cuando es satisfecha una condición predeterminada.
En la operación 121, el aparato 10 podría codificar la información de modo de salto 'skip_flag' de una unidad de predicción, en la operación 122, el aparato 10 podría codificar la información de modo de predicción 1 Prediction info 1 de una unidad de predicción cuyo modo de predicción no es un modo de salto, y en la operación 123, el aparato podría codificar la información de partición 'Partition info ' .
En la operación 124, > el aparato 10 determina si es satisfecha una condición predeterminada para cada partición de la unidad de predicción. En la operación 125, la información de fusión ' merging_flag 1 sólo de una unidad de datos que satisface la condición predeterminada de entre las particiones de la unidad de predicción cuyo modo de predicción no es un modo de salto podría ser codificada. En la operación 126, el aparato 10 codifica la información de movimiento único 'Motion info 1 de una partición qué satisface la condición predeterminada y no es unida con una unidad vecina de datos y una partición que no satisface la condición predeterminada de las particiones de la unidad de predicción cuyo modo de predicción no es un modo de salto.
Una condición predeterminada de una partición para la codificación de la información de fusión podría incluir a case en donde un modo de predicción de una partición es un modo predeterminado de predicción. Por ejemplo, la información de fusión de una partición podría ser codificada de acuerdo con una condición que un modo de predicción no es un modo de salto si no un inter-modo (modo sin salto) , una condición que un modo de predicción no es un modo de salto y un modo directo si no un inter-modo (el inter-modo sin salto y el inter-modo no directo) , o una condición que un modo de predicción es un inter-modo que no es dividido por una partición (el inter-modo no dividido) .
En' detalle, en la operación 124, si la fusión de la unidad de datos es realizada en una unidad de datos, cuyo modo de predicción no es un modo de salto y un modo directo si no un inter-modo, el aparato 10 podría determinar si los modos de predicción de las particiones de una unidad de predicción diferente de un modo de salto no son los modos directos si no los inter-modos . En la operación 125, podría ser codificada la información de fusión 'merging_flag' de una partición cuyo modo de predicción no es un modo directo. En la operación 126, podría ser codificada la información de movimiento único 'Motion info' de una partición cuyo modo de predicción no es un modo directo y que no es unida con una unidad vecina de datos y una partición cuyo modo de predicción es un modo directo.
En consecuencia, el aparato 20 podría extraer y leer la información de modo de salto para cada modo de predicción, y podría extraer y leer la información de fusión para cada partición. El aparato 20 podría extraer y la información de movimiento único de una partición cuyo modo de predicción no es un modo de salto y que satisface una condición predeterminada aunque no es unida con una unidad vecina de datos y una partición que no satisface la condición predeterminada.
La Figura 13 es un diagrama que ilustra las unidades vecinas de datos que no son unidas con una partición actual, de acuerdo con una modalidad de ejemplo.
Una unidad de datos para la codificación de predicción, es decir, una unidad de predicción, podría ser dividida en dos o más particiones para una codificación más precisa de predicción. Por ejemplo, un ancho de una primera unidad de predicción 131 podría ser dividido en una primera partición 132 y una segunda partición 133.
Debido a que la primera partición 132 y la segunda partición 133 tienen diferentes características de movimiento aun cuando la primera partición 132 y la segunda partición 133 son incluidas en la primera unidad de predicción 131, la fusión, de la unidad de datos no podría ser realizada entre la primera partición 132 y la segunda partición 133. En consecuencia, el aparato 10 no podría determinar si la fusión de la unidad de datos es realizada entre la primera partición 132 y la segunda partición 133 en la misma primera unidad de predicción 131. Asimismo, la información de índice de fusión para la segunda partición 133 no podría incluir un índice que indica una unidad vecina izquierda de datos.
Aun cuando es dividida la altura de una segunda unidad de predicción 135 en una tercera partición 136 y una cuarta partición 137, debido a que la fusión de la unidad de datos no debe ser realizada entre la tercera partición 136 y la cuarta partición 137, el aparato 10 no podría determinar si es realizada la fusión de la unidad de datos entre la tercera partición 136 y la cuarta partición 137. Asimismo, la información de índice de fusión para la cuarta partición 137 no podría incluir un índice que indica una unidad vecina . superior de datos .
La Figura 14 es un diagrama que ilustra una unidad candidata de datos que varía de acuerdo con la forma y la posición de una partición actual, de acuerdo con una modalidad de ejemplo.
De acuerdo con la forma y la posición de una partición, podría variar la posición de la unidad vecina de datos que será unida. Por ejemplo, si una unidad de predicción 141 es dividida en las particiones izquierda y derecha 142 y 143, las candidatas de unidad vecina de datos que podrían ser unidas con la partición izquierda 142 podrían ser una unidad de datos 144 de un límite superior de la partición izquierda 142, una unidad de datos 145 que rodea un límite izquierdo de la partición izquierda 142, y una unidad de datos 146 que rodea una esquina derecha superior de la partición izquierda 142.
Aunque la partición derecha 153 hace contacto con la partición izquierda 142 en un límite izquierdo, debido a que la partición izquierda 142 y la partición derecha 143 son particiones de la misma unidad de predicción 141, no podría ser realizada la fusión o unión entre la partición izquierda 142 y la partición derecha 143. En consecuencia, las candidatas de unidad vecina de datos que podrían ser unidas con la partición derecha 143 podrían ser una unidad de datos 146 que rodea un límite superior de la partición derecha 143 y una unidad de datos 147 que rodea una esquina derecha superior de la partición derecha 143. Asimismo, la información de índice de fusión para la partición derecha 143 no podría incluir un índice que indica una unidad vecina izquierda superior de datos. La Figura 15 es un diagrama que ilustra las unidades vecinas de datos que no podrían ser unidas con una partición actual que es una partición que tiene una forma geométrica, de acuerdo con una modalidad de ej emplo .
En la codificación de predicción del aparato 10, una unidad de predicción podría ser dividida no sólo en una dirección vertical u horizontal, sino también en una dirección arbitraria en las particiones que tiene geométricamente varias formas. Las unidades de predicción 148, 152, 156 y 160 obtenidas al realizar la división en direcciones arbitrarias son ilustradas en la Figura 15.
Las particiones que tienen formas geométricas no podrían ser unidas con las unidades vecinas de datos haciendo contacto con los límites superiores y los límites inferiores de las particiones de acuerdo con las posiciones y formas de las particiones. Por ejemplo, de entre dos particiones 149 y 150 de la unidad de predicción 148, la partición 150 podría ser unida con una unidad vecina de datos 151 haciendo contacto con un límite izquierdo. Sin embargo, debido a que una unidad vecina de datos que hace contacto con un límite superior es la partición 149 incluida en la misma unidad de predicción 158, la partición 150 no podría ser unida con la unidad vecina superior de datos. En este caso, la información de índice de fusión de la partición 150 no podría incluir un índice que indica la partición 149 que es la unidad vecina superior de datos.
Del mismo modo, de entre dos particiones 153 y 154 de la unidad de predicción 152, la partición 164 podría ser unida con una unidad veciha izquierda de datos 155. Sin embargo, debido a que una unidad vecina superior de datos es la partición 153 incluida en la misma unidad de predicción 152, la partición 154 no podría ser unida con la unidad vecina superior de datos.
Del mismo modo, de entre dos particiones 157 y 158 de la unidad de predicción 156, la partición 158 podría ser unida con una unidad vecina superior de datos 159. Sin embargo, debido- a que una unidad vecina izquierda de datos es la partición 157 incluida en la misma unidad de predicción 156, la partición 158 no podría ser unida con la unidad vecina izquierda de datos.
Del mismo modo, de entre dos particiones 161 y 162 de la unidad de predicción 160, debido a que la partición 161 incluida en la misma unidad de predicción 160 es una unidad vecina superior de datos y una unidad vecina izquierda de datos de la partición 162, la partición 162 no podría ser unida con la unidad vecina superior de datos y la unidad vecina izquierda de datos.
Como es descrito con referencia a las Figuras 13, 14 y 15, si es generada una unidad vecina de datos que no podría ser unida de acuerdo con la forma o la posición de una unidad de datos, la información de índice de fusión no podría incluir un índice que indica que la unidad vecina de datos no podría ser unida.
Asimismo, el aparato 10 no podría realizar la fusión de la unidad de datos para extender una unidad actual de datos y para superponer la unidad actual de datos con otra unidad de datos que existe previamente.
Por ejemplo, si una unidad de predicción es dividida en dos particiones y una unidad candidata predeterminada de datos de la segunda partición tiene la misma información de movimiento que la primera partición, no podría ser permitida la unión entre la segunda partición y la unidad candidata predeterminada de datos .
Por ejemplo, de entre la primera partición 132 y la segunda partición 133 de la primera unidad de predicción 131 de la Figura 13, si una unidad superior de predicción de la segunda partición 133 tiene la misma información de movimiento que la primera partición 132, las unidades superiores de predicción de la primera partición 132 y la segunda partición 133 podría ser excluidas de un grupo candidato de unidad de datos de la segunda partición 133. Esto es debido a que si es realizada la fusión de la unidad de datos de manera que la segunda partición 133 se refiere a la información de movimiento de una unidad superior de predicción, es el mismo caso en donde es referida la información de movimiento de la primera partición 132.
La información de fusión junto con si es realizada la fusión de la unidad de datos podría ser establecido a través del modelo de contexto considerando un modo de predicción y un tipo de partición de una unidad vecina de datos . El índice de un modelo de contexto podría ser expresado como la información de fusión analizando la combinación de un modo de predicción y un tipo de partición de una unidad vecina de datos de una unidad actual de datos y a case en donde la unidad actual de datos y la unidad vecina de datos están unidas entre sí, como un modelo de contexto.
La Tabla 1 muestra la información de fusión a través del modelo de contexto de acuerdo con una modalidad de ejemplo. Por conveniencia de explicación, los objetos que serán unidos con una unidad actual de datos son limitados a una unidad vecina izquierda de datos y una unidad vecina superior de datos .
Tabla 1 Podrían ser incluidas, de manera selectiva, particiones que tienen formas arbitrarias tales como los tipos de partición simétrica 2Nx2N, 2NxN, Nx2N, y NxN obtenidos al dividir la altura o el ancho de una unidad de predicción de acuerdo con una relación simétrica, los tipos de partición asimétrica 2NxnU, 2NxnD, nLx2N, y nRx2N obtenidos al dividir la altura o el ancho de una unidad de predicción de acuerdo con una relación asimétrica tal como l:n o n:l, o los tipos de partición geométrica obtenidos al dividir la altura o el ancho de una unidad de predicción en varias formas geométricas . Los tipos de partición asimétrica 2NxnU y 2NxnD son obtenidos al dividir la altura de una unidad de predicción de acuerdo con las relaciones de 1:3 y 3:1, de manera respectiva, y los tipos de partición asimétrica nLx2N y nRx2N son obtenidos al dividir el ancho de una unidad de predicción de acuerdo con las relaciones de 1:3 y 3:1, de manera respectiva.
De acuerdo con la Tabla 1, debido a que la fusión de la unidad de datos no es realizada cuando los modos de predicción de ambas de una unidad vecina izquierda de datos y una unidad vecina superior de datos de una unidad actual de datos son los intra-modos, la información de fusión de la unidad actual de datos es asignada a un índice 0 si la necesidad de distinguir los modelos de contexto de acuerdo con los tipos de partición.
Asimismo, suponiendo que los modos de predicción de una unidad vecina izquierda de datos y una unidad vecina superior de datos son los inter-modos, no los modos de saltó o los modos directos, cuando sólo una de la unidad vecina izquierda de datos y la unidad vecina superior de datos es unida con una unidad actual de datos, y cuando ambas de la unidad vecina izquierda de datos y la unidad vecina superior de datos son unidas con la unidad actual de datos, podría ser establecido un modelo de contexto de la información de fusión de acuerdo con la combinación de si es realizada la fusión de la unidad de datos de acuerdo con los tipos de partición de las unidades vecinas de datos. En este caso, cada información de fusión podría ser asignada con uno de los índices de modelo de contexto 1-6 de acuerdo con la tabla 1.
Asimismo, suponiendo que los modos de predicción son un modo de salto y un modo directo, cuando al menos uno de una unidad vecina izquierda de datos y una unidad vecina superior de datos es un modo de salto o un modo directo, podría ser establecido un modo de contexto de la información de fusión de acuerdo con los tipos de partición de las unidades vecinas de datos y cada información de fusión podría ser es asignada a cada uno de los índices de modelo de contexto 7-9 de acuerdo con la Tabla 1.
En consecuencia, el aparato 20 podría leer la información de fusión de acuerdo con el modelo de contexto, y podría analizar si es realizada la fusión o unión entre una unidad actual de datos y una unidad vecina de datos y un modo de predicción y un tipo de partición de la unidad vecina de datos .
El aparato 20 podría inferir la información de movimiento de una unidad actual de datos utilizando la información de movimiento de una unidad vecina de datos que es unida con la unidad actual de datos .
En adición, el aparato 10 y el aparato 20 podrían realizar la transformación en una unidad unida de datos si la forma de la unidad unida de datos formada mediante la fusión de la unidad de datos es un cuadrado regular.
Asimismo, en el aparato 10 y el aparato 20, una unidad vecina de datos unida con una unidad actual de datos podría compartir la información acerca de la dirección de intra-predicción. La información acerca de la dirección de predicción para una unidad unida de datos formada por la . fusión de la unidad de datos no podría ser codificada o de codificada de acuerdo con las unidades de datos, sino que podría ser codificada o de codificada sólo una vez para la unidad unida de datos .
La Figura 16 es un diagrama que ilustra un ejemplo en donde una unidad vecina de datos determinada que será unida con una unidad actual de datos es utilizada, de acuerdo con una modalidad de ejemplo.
El aparato 10 y el aparato 20 podrían extender el límite de una unidad vecina de datos que será unida con una unidad actual de datos 163, y podría utilizar el límite extendido para dividir una partición de la unidad actual de datos 164. Por ejemplo, si la unidad actual de datos 163 es unida con las unidades izquierdas vecinas de datos 164, 165 y 166, los límites de las unidades izquierdas vecinas de datos 164, 165 y 166 podrían extenderse para alcanzar la unidad actual de datos 163. La unidad actual de datos 163 podría ser dividida en las particiones 167, 168 y 169 de acuerdo con los límites extendidos de las unidades izquierdas vecinas de datos 165, 165 y 166.
La Figura 17 es un diagrama de flujo que ilustra un método de codificación de un video utilizando la fusión de unidad de datos, de acuerdo con una modalidad de ejemplo.
En la operación 171, es determinado el modo de codificación que indica una unidad de datos para la codificación de una imagen y el método de codificación que incluye la codificación de predicción realizada para cada unidad de datos .
En la operación 172, es determinada la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos. Una unidad de datos podría incluir una unidad de predicción para la codificación de predicción y una partición para la codificación precisa de predicción de la unidad de predicción.
De entre una pluralidad de las unidades superiores vecinas de datos que hacen contacto con un límite superior y una pluralidad de unidades izquierdas vecinas de datos que hace contacto con un límite izquierdo de una unidad actual de datos, podría ser buscada una unidad de datos que será unida con la unidad actual de datos. Asimismo, de entre las unidades vecinas de datos que hacen contacto con una esquina izquierda superior, una esquina superior derecha superior, y una esquina izquierda inferior de la unidad actual de datos, podría ser buscada la unidad de datos que será unida con la unidad actual de datos .
En la operación 173, la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción son determinadas en función de la ocurrencia de la fusión con la unidad vecina de datos de acuerdo con las unidades de datos, y la información de codificación que incluye la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción es codificada.' La información relacionada de fusión de una unidad de datos cuyo modo de predicción es un modo de salto y un modo directo podría ser codificada. En consecuencia, la información relacionada de fusión de una unidad de datos que es determinada para que sea unida con una unidad predeterminada vecina de datos podría ser codificada después de la información de modo de salto o la información de modo directo es codificada. La información relacionada de fusión podría incluir la información de fusión que indica si es realizada la fusión o unión entre una unidad actual de datos y una unidad vecina de datos, y la información de índice de fusión que indica la unidad vecina de datos.
Si ambas de la información de modo de salto y la información relacionada de fusión de una unidad de predicción son codificadas, la información de modo de predicción y la información de tipo de partición de la unidad de predicción podría ser codificada una vez que son codificadas la información de modo de salto y la información relacionada de fusión.
Si es codificada la información de modo de salto de una unidad de predicción es codificada y la información relacionada de fusión de una partición, la información relacionada de fusión podría ser codificada de acuerdo con las particiones después de que sea codificada la información de modo de salto, la información de modo de predicción, y la información de tipo de partición de la unidad de predicción.
La Figura 18 es un diagrama de flujo que ilustra un método de decodificación de un video utilizando la fusión de unidad de datos, de acuerdo con una modalidad de ejemplo.
En la operación 181, un flujo recibido de bits es analizado, los datos codificados de video y la información de codificación son extraídas del flujo de bits, y la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción son extraídas de la información de codificación.
La información relacionada de fusión podría ser extraída en función del resultado de la lectura de la información de modo de salto o la información de modo directo de una unidad actual de datos. Por ejemplo, la información relacionada de fusión de una unidad de datos cuyo modo de predicción no es un modo de salto podría ser extraída. En forma alterna, la información relacionada de fusión de una unidad de datos cuyo modo de predicción es un inter-modo, no un modo de salto y un modo directo podría ser extraída. La información de fusión que indica ser realizada la unión entre una unidad actual de datos y una unidad vecina de datos, y la información de índice de fusión que indica que la unidad vecina de datos podría ser leída a partir de la información relacionada de fusión.
Si la información de modo de salto y la información relacionada de fusión son extraídas para cada unidad de predicción, la información de modo de predicción y la información de tipo de partición de la unidad de predicción podrían ser , extraídas después que sean extraídas la información de modo de salto y la información relacionada de fusión.
Si la información de modo de salto es extraída en un nivel de unidad de predicción y la información relacionada de fusión es extraída en un nivel de partición, la información relacionada de fusión podría ser extraída de acuerdo con las particiones después que sean extraídas la información de modo de "salto, la información de modo de predicción, y la información de tipo de partición de la unidad de predicción.
En la operación 182, es analizada la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y. un modo de codificación de acuerdo con las unidades de datos basadas en la información de modo de predicción y la información relacionada de fusión. La inter-predicción y la compensación de movimiento son realizadas en una unidad de datos unida con una unidad vecina de datos utilizando la información relacionada de predicción de la unidad vecina de datos, y los datos codificados de video son decodificados de acuerdo con las unidades determinadas de datos en función de la información de codificación.
De entre una pluralidad de las unidades superiores vecinas de datos que hace contacto con un límite superior y una pluralidad de . unidades izquierdas vecinas de datos que hace contacto con un límite izquierdo, podría determinarse una unidad de datos que será unida con una unidad actual de datos basada en la información de fusión y la información de índice de fusión. Asimismo, de entre las unidades vecinas de datos que hace contacto con una esquina izquierda superior, una esquina derecha superior, y podría determinarse una esquina izquierda inferior de la unidad actual de datos, una unidad de datos que será unida con la unidad actual de datos .
La información relacionada de movimiento de una unidad actual de datos podría ser reconstruida utilizando la información relacionada de movimiento de una unidad de datos unida con la unidad actual de datos . La unidad actual de datos podría ser restaurada y una imagen podría ser restaurada a través de la compensación de movimiento realizada en la unidad actual de datos utilizando la información relacionada de movimiento.
Un aparato y método de codificación de un video y un aparato y método de decodificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tienen una estructura de árbol de acuerdo con una o más modalidades de ejemplo serán explicados a continuación con referencia a las Figuras 19-33.
La Figura 19 es un diagrama de bloque de un aparato 100 para la codificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tiene una estructura de árbol, de acuerdo con una modalidad de ejemplo.
El aparato 100 incluye un divisor de unidad de codificación máxima 110, un determinador de unidad de codificación 120 y una unidad de salida 130. Por conveniencia de explicación, el aparato 100 para la codificación de un video utilizando la fusión de unidad de · datos en función de las unidades de codificación que ¦ tiene una estructura de árbol es referido como 'el aparato 100 para la codificación de un video ' .
El divisor de unidad de codificación máxima 110 podría dividir una imagen actual en función de una unidad de codificación máxima para una imagen actual de una imagen. Si la imagen actual es más grande que la unidad de codificación máxima, los datos de imagen de la imagen actual podrían ser divididos al menos en una unidad de codificación máxima. La unidad de codificación máxima podría ser una unidad de datos que tiene un tamaño de 32x32, 64x64, 128x128, 256x256, etc., donde la forma de la unidad de datos es un cuadrado que tiene un ancho y una longitud en cuadros de 2. Los datos de imagen podrían ser salidos hacia el determinador de unidad de codificación 120 de acuerdo al menos con una unidad de codificación máxima.
Una unidad de codificación podría ser caracterizada por el tamaño y profundidad máximos . La profundidad denota el número de veces que la unidad de codificación es dividida, en forma espacial, de la unidad de codificación máxima, y a medida que la profundidad se profundiza, las unidades más profundas de codificación de acuerdo con las profundidades podrían ser divididas de la unidad de codificación máxima en una unidad de codificación mínima. Una profundidad de la unidad de codificación máxima es la profundidad más superior y una profundidad de la unidad de codificación mínima es la profundidad más inferior. Debido a que el tamaño de una unidad de codificación que corresponde con cada profundidad disminuye a medida que se profundiza la profundidad de la unidad de codificación máxima, una unidad de codificación que corresponde con una profundidad más alta podría incluir una pluralidad de las unidades de codificación que corresponde con profundidades más bajas.
Como se describe con anterioridad, los datos de imagen de la imagen actual son divididos en las unidades de codificación máxima de acuerdo con el tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máxima podría incluir las unidades más profundas de codificación que son divididas de acuerdo, con las profundidades. Debido a que la unidad de codificación máxima es dividida de acuerdo con las profundidades, los datos de imagen de un dominio espacial incluido en la unidad de codificación máxima podrían ser clasificados, en forma jerárquica, de acuerdo con las profundidades.
Podrían ser predeterminados la profundidad máxima y el tamaño máximo de una unidad de codificación, que limitan el número total de veces que una altura y el ancho de la unidad de codificación máxima son divididos, en forma j erárquica .
El determinador de unidad de codificación 120 codifica al menos una región dividida que es obtenida dividiendo una región de la unidad de codificación máxima de acuerdo con las profundidades, y determina una profundidad para dar salida a los datos de imagen finalmente codificados de acuerdo al menos con una región dividida. En otras palabras, el determinador de unidad de codificación 120 determina una profundidad codificada mediante la codificación de los datos de imagen en las unidades más profundas de codificación de acuerdo con las profundidades, de acuerdo con la unidad de codificación máxima de la imagen actual, y la selección de la profundidad que tiene el menor error de codificación. De esta manera, los datos codificados de imagen de la unidad de codificación que corresponde con la profundidad codificada determinada son finalmente salidos. Asimismo, las unidades de codificación que corresponden con la profundidad codificada podrían ser consideradas como las unidades codificadas de codificación. La profundidad codificada determinada y los datos codificados de imagen de acuerdo con la profundidad codificada determinada son salidos hacia la unidad de salida 130.
Los datos de imagen en la unidad de codificación máxima son codificados basados en las unidades más profundas de codificación que corresponden al menos con una profundidad igual o por debajo de la profundidad máxima, y los resultados de la codificación de los datos de imagen son comparados en función de cada una de las unidades, más profundas de codificación. Una profundidad que tiene el menor error de codificación podría ser seleccionada después de la comparación de los errores de codificación de las unidades más profundas de codificación. Al menos una profundidad codificada podría ser seleccionada para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima es dividido a -medida que una unidad de codificación es jerárquicamente dividida de acuerdo con las profundidades, y a medida que se incrementa el número de las unidades de codificación. Asimismo, incluso si las unidades de codificación que corresponden con la misma profundidad en una unidad de codificación máxima, cada una de las unidades de codificación que corresponde con la misma profundidad podría ser dividida en una profundidad más baja midiendo un error de codificación de los datos de imagen de cada unidad de codificación, en forma separada. En consecuencia, aun cuando los datos de imagen son incluidos en una unidad de codificación máxima, los datos de imagen son divididos en regiones de acuerdo con las profundidades, los errores de codificación podrían diferir de acuerdo con las regiones en la unidad de codificación máxima, y de esta manera las profundidades codificadas podrían diferir de acuerdo con las regiones en los datos de imagen. De esta manera, una o más profundidades codificadas podrían determinarse en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima podrían ser divididos de acuerdo con las unidades de codificación al menos de una profundidad codificada.
En consecuencia, el deterrainador de unidad de codificación 120 podría determinar las unidades de codificación que tiene una estructura de árbol incluida en la unidad de codificación máxima. Las 'unidades de codificación que tiene una estructura de árbol' incluyen las unidades de codificación que corresponden con una profundidad determinada para que sea la profundidad codificada, de entre todas las unidades más. profundas de codificación incluidas en la unidad de codificación máxima. Una unidad de codificación de una profundidad codificada podría ser determinada, en forma jerárquica, de acuerdo con las profundidades en la misma región de la unidad de codificación máxima, y podría ser determinada, de manera independiente, en diferentes regiones. En forma similar, una profundidad codificada en una región actual podría ser determinada, de manera independiente, de una profundidad codificada en otra región.
Una profundidad máxima es un índice relacionado con el número de veces de división de una unidad de codificación máxima en una unidad de codificación mínima. Una primera profundidad máxima podría denotar el número total de veces de división de la unidad de codificación máxima en la unidad de codificación mínima. La segunda profundidad máxima podría denotar el número total de niveles de profundidad de la unidad de codificación máxima a la unidad de codificación mínima. Por ejemplo, cuando una profundidad de la unidad de codificación máxima es 0, una profundidad de una unidad de codificación, en la cual es dividida una vez la unidad de codificación máxima, podría ser establecida en 1, y una profundidad de una unidad de codificación, en la cual es dividida dos veces la unidad de codificación máxima, podría ser establecida en 2. Aquí, si la unidad de. codificación mínima es una unidad de codificación en la cual es dividida cuatro veces la unidad de codificación máxima, existen 5 niveles de profundidad de las profundidades 0, 1, 2, 3 y 4, y de esta manera la primera profundidad máxima podría ser establecida en 4 , y la segunda profundidad máxima podría ser establecida en 5.
La codificación de predicción y la transformación podrían realizarse de acuerdo con la unidad de codificación máxima. La codificación de predicción y la transformación también son realizadas en función de las unidades más profundas de codificación de acuerdo con una profundidad igual o las profundidades menores que la profundidad máxima, de acuerdo con la unidad de codificación máxima. La transformación realizada para codificar un video podría incluir la transformación de frecuencia, la transformación ortogonal, la transformación de entero y así sucesivamente.
Debido a que el número de las unidades más profundas de codificación se incrementa cada vez que es dividida la unidad de codificación máxima de acuerdo con las profundidades, es realizada la codificación que incluye la codificación de predicción y la transformación en todas de las unidades más profundas de codificación que son generadas a medida que la profundidad se profundiza. Por conveniencia de la descripción, la codificación de predicción y la transformación serán descritas a continuación en función de una unidad de codificación de una profundidad actual, en una unidad de codificación máxima.
El aparato 100 podría seleccionar, en forma variable, el tamaño o la forma de una unidad de datos para la codificación de los datos' de imagen. Con el objeto de codificar los datos de imagen, son realizadas las operaciones tales como la codificación de predicción, la transformación, y la codificación de entropía, y en este momento, podría ser utilizada la misma unidad de datos para todas las operaciones o podrían ser utilizadas diferentes unidades de datos para cada operación.
Por ejemplo, el aparato 100 podría seleccionar no sólo una unidad de codificación para la codificación de los datos de imagen, sino también una unidad de datos diferente de la unidad de codificación para así realizar la codificación de predicción en los datos de imagen en la unidad de codificación.
Con el objeto de realizar la codificación de predicción en la unidad de codificación máxima, la codificación de predicción podría realizarse basada en una unidad de codificación que corresponde con una profundidad codificada, es decir, basada en una unidad de codificación que ya no es más dividida en las unidades de codificación que corresponden con una profundidad más baja. De aquí en adelante, la unidad de codificación que ya no es más dividida y se convierte en- una unidad de base para la codificación de predicción ahora será referida como una unidad de predicción' . Una partición obtenida dividiendo la unidad de predicción podría incluir una unidad de datos obtenida dividiendo al menos uno de la altura y el ancho de la unidad de predicción.
Por ejemplo, cuando una unidad de codificación de 2Nx2N .,(en donde N es un entero positivo) ya no es más dividida y se convierte en una unidad de predicción de 2Nx2N, y el tamaño de la partición podría ser 2Nx2N, 2NxN, Nx2N, o NxN. Los ejemplos de un tipo de partición incluyen las particiones simétricas que son obtenidas al dividir, en forma simétrica, la altura o el ancho de la unidad de predicción, las particiones obtenidas al dividir, en forma asimétrica la altura o el ancho de la unidad de predicción, tal como l:n o n:l, las particiones que son obtenidas . al dividir, en forma geométrica, la unidad de predicción, y las particiones que tienen formas arbitrarias.
Un modo de predicción de la unidad de predicción podría ser al menos uno de un intra-modo, un inter-modo, y un modo de salto. Por ejemplo, el intra-modo o el inter-modo podría realizarse en la partición de 2Nx2N, 2NxN, Nx2N, o NxN. Asimismo, el modo de salto podría realizarse sólo en la partición de 2Nx2N. La codificación es realizada, de manera independiente, en una unidad de predicción en una unidad de codificación, con lo cual, se selecciona un modo de predicción que tiene el menor error de codificación.
El aparato 100 también podría realizar la transformación en los datos de imagen en una unidad de codificación basada no sólo en la unidad de codificación para la codificación de los datos de imagen, sino también basada en una unidad de datos que es diferente de la unidad de codificación.
Con el objeto de realizar la transformación en la unidad de codificación, la transformación podría realizarse basada en una unidad de transformación que tiene un tamaño más pequeño o igual a la unidad de codificación. Por ejemplo, la unidad de transformación podría incluir una unidad de datos para un intra-modo y una unidad de transformación para un inter-modo.
En forma similar a las unidades de codificación que tienen una estructura de árbol, la unidad de transformación en la unidad de codificación podría ser dividida, en forma recursiva, en regiones de tamaño más pequeño, de modo que la unidad de transformación podría determinarse en forma independiente en unidades de regiones. De esta manera, los datos residuales en la unidad de codificación podrían ser divididos de acuerdo con la transformación que tiene la estructura de árbol de acuerdo con las profundidades de transformación.
Una unidad de datos usada como una base de la transformación será referida a continuación como una 'unidad de transformación1. La profundidad de transformación que indica el número de veces de división para alcanzar la unidad de transformación dividiendo la altura y el ancho de la unidad de codificación también podría ser establecida o colocada en la unidad de transformación. Por ejemplo, en la unidad actual de codificación de 2Nx2N, la profundidad de transformación podría ser 0 cuando el tamaño de una unidad de transformación también sea 2Nx2N, podría ser 1 cuando cada uno de la altura y el ancho de la unidad actual de codificación se ha dividido en dos partes iguales, sea totalmente dividido en 4A1 unidades de transformación, y cuando el tamaño de la unidad de transformación sea de esta manera NxN, y podría ser 2 cuando cada uno de la altura y el ancho de la unidad actual de codificación se ha dividido en cuatro partes iguales, cuando sea totalmente dividido en 4A2 unidades de transformación y cuando el tamaño de la unidad de transformación sea de esta manera N/2xN/2. Por ejemplo, la unidad de transformación podría ser establecida de acuerdo con una estructura jerárquica de árbol, en la cual una unidad de transformación de una profundidad de transformación más alta es dividida en cuatro unidades de transformación de una profundidad de transformación más baja de acuerdo con las características jerárquicas de una. profundidad de transformación.
La información de codificación de acuerdo con las unidades de codificación que corresponde con una profundidad codificada requiere no sólo de la información acerca de la profundidad codificada, sino también de la información relacionada con la codificación de predicción y la transformación. En consecuencia, el determinador de unidad de codificación 120 no sólo determina una profundidad codificada que tiene el menor error de codificación, sino también determina el tipo de partición en una unidad de predicción, el modo de predicción de acuerdo con las unidades de predicción, y el tamaño de una unidad de transformación para la transformación.
Las unidades de codificación que tienen una estructura de árbol en una unidad de codificación máxima y un método determinación de una partición, de acuerdo con las modalidades de ejemplo, serán descritas en detalle más adelante con referencia a las Figuras 21-31.
El determinador de unidad de codificación 120 podría medir un error de codificación de las unidades más profundas de codificación de acuerdo con las profundidades utilizando la Optimización de Relación-Distorsión en función de los multiplicadores de LaGrange.
La unidad de salida 130 da salida a los datos de imagen de la unidad de codificación máxima, los cuales son codificados en función al menos de una profundidad codificada determinada por el determinador de unidad de codificación 120, y la información acerca del modo de codificación de acuerdo con la profundidad codificada, en flujos de bits.
Los datos codificados de imagen podrían ser obtenidos codificando los datos residuales de una imagen.
La información acerca del modo de codificación de acuerdo con profundidad codificada podría incluir la información acerca de la profundidad codificada, la información acerca del tipo de partición en la unidad de predicción, del modo de predicción y del tamaño de la unidad de transformación.
La información acerca de la profundidad codificada podría ser definida utilizando la información dividida de acuerdo con las profundidades, que indica si es realizada la codificación en las unidades de t codificación de una profundidad más baja en lugar de una profundidad actual. Si la profundidad actual de la unidad actual de codificación es la profundidad codificada, los datos de imagen en la unidad actual de codificación son codificados y salidos, y de esta manera, la información dividida podría ser definida no para dividir la unidad actual de codificación en una profundidad más baja. En forma alterna, si la profundidad actual de la unidad actual de codificación no es la profundidad codificada, la codificación es realizada en la unidad de codificación de' la profundidad más baja, y de esta manera, la información dividida podría ser definida para dividir la unidad actual de codificación para obtener las unidades de codificación de la profundidad más baja.
Si la profundidad actual no es la profundidad codificada, la codificación es realizada en la unidad de codificación que es dividida en la unidad de codificación de la profundidad más baja. Debido a que existe al menos una unidad de codificación de la profundidad más baja en una unidad de codificación de la profundidad actual, la codificación es realizada, en forma repetida, en cada unidad de codificación de la profundidad más baja, y de esta manera la codificación podría ser realizada, en forma recursiva, para las unidades de codificación que tienen la misma, profundidad.
Debido a que son determinadas las unidades de codificación que tienen una estructura de árbol para una unidad de codificación máxima, y a que es determinada la información acerca al menos de un modo dé codificación para una unidad de codificación de una profundidad codificada, podría determinarse la información acerca de al menos un modo de codificación para una unidad de codificación máxima. Asimismo, una profundidad codificada de los datos de imagen de la unidad de codificación máxima podría ser diferente de acuerdo con las ubicaciones debido a que los datos de imagen son divididos, en forma jerárquica, de acuerdo con las profundidades, y de esta manera, la información acerca de la profundidad codificada y el modo de codificación podrían ser establecidos para los datos de imagen.
En consecuencia, la unidad de salida 130 podría asignar la información de codificación acerca de una correspondiente profundidad codificada y un modo de codificación al menos en una de la unidad de codificación, la unidad de predicción, y una unidad mínima incluida en la unidad de codificación máxima.
La unidad mínima es una unidad rectangular de datos obtenida al dividir la unidad de codificación mínima que constituye la profundidad más baja entre 4. En forma alterna, la unidad mínima podría ser una unidad rectangular máxima de datos que podría ser incluida en todas las unidades de codificación, las unidades de predicción, las unidades de partición, y las unidades de transformación incluidas en la unidad de codificación máxima.
Por ejemplo, la información de codificación salida a través de la unidad de salida 130 podría ser clasificada en la información de codificación de acuerdo con las unidades de codificación, y la información de codificación de acuerdo con las unidades de predicción. La información de codificación de acuerdo con las unidades de codificación podría incluir la información acerca del modo de predicción y acerca del tamaño de las particiones. La información de codificación de acuerdo con las unidades de predicción podría incluir la información acerca de la dirección estimada de un inter-modo, acerca de un índice de imagen de referencia del inter-modo, acerca de un vector de movimiento, acerca de un componente croma de un intra-modo, y acerca de un método de interpolación del intra-modo. Asimismo, la información acerca de un tamaño máximo de la unidad de codificación definida de acuerdo con imágenes, rebanadas, o GOP, y la información acerca de una profundidad máxima podría ser insertada en SPS (siglas en inglés para Conjunto de Parámetros de Secuencia) o un encabezado de un flujo de bits.
En el aparato 100, la unidad de codificación más profunda podría ser una unidad de codificación obtenida dividiendo la altura o el ancho de una unidad de codificación de una profundidad más alta entre dos. En otras palabras, cuando el tamaño de la unidad de codificación de la profundidad actual es 2Nx2N, el tamaño de la unidad de codificación de la profundidad más baja es NxN. Asimismo, la unidad de codificación de la profundidad actual que tiene el tamaño de 2Nx2N podría incluir máximo 4 de la unidad de codificación de la profundidad más baja.
En consecuencia, el aparato 100 podría formar las unidades de codificación que tienen la estructura de árbol determinando las unidades de codificación que tienen una forma óptima y un tamaño óptimo para cada unidad de codificación máxima, en función del tamaño de la unidad de codificación máxima y la profundidad máxima determinada considerando las características de la imagen actual. Asimismo, debido a que la codificación podría realizarse en cada unidad de codificación máxima utilizando cualquiera uno de los varios modos de predicción y las transformaciones, podría determinarse el modo óptimo de codificación considerando las características de la unidad de codificación de varios tamaños de imagen.
El aparato 100 podría realizar, de manera adicional, un método de fusión de unidad de datos con el objeto de compartir la información relacionada de predicción entre las unidades de datos adyacentes entre sí y tener la información similar relacionada de predicción. El determinador de unidad de codificación 120 del aparato 100 podría incluir el determinador de unidad de codificación 11 y el determinador de fusión de datos 13 del aparato 10 y la unidad de salida 130 del aparato 100 podría incluir el determinador de información de codificación 15 del aparato 10.
En consecuencia, el determinador de. unidad de codificación 120 del aparato 100 podría determinar si la fusión de la unidad de datos entre las unidades vecinas de datos es realizada en las unidades de codificación, las unidades de predicción, y las particiones que tiene una estructura de árbol y la unidad de salida 130 podría realizar la codificación que incluye la información relacionada de fusión en la información de codificación acerca de una unidad de codificación.
La unidad de salida 130 podría insertar la información relacionada de fusión con la información de codificación acerca de una unidad de codificación y la información acerca del tamaño máximo de una unidad de codificación de una imagen actual, en un encabezado acerca de la imagen actual, PPS o SPS.
El determinador de unidad de codificación 120 podría analizar la posibilidad de la fusión de la unidad de datos para compartir la información relacionada de predicción con una unidad vecina de datos, incluso si un modo de predicción de una unidad actual de predicción o una partición actual de las unidades de codificación que tiene una estructura de árbol es un modo de salto o un modo directo.
El determinador de unidad de codificación 120 podría incluir todas de una pluralidad de unidades izquierdas vecinas de datos que rodean un limite izquierdo de una unidad actual de predicción o una partición actual y todas de una pluralidad de las unidades superiores vecinas de datos que rodean un límite superior en un grupo candidato de las unidades vecinas de datos que serán unidas con la unidad actual de datos o la partición actual .
La unidad vecina izquierda inferior de datos que rodea una- esquina izquierda inferior de la unidad actual de predicción o la partición actual' tambié , podría ser referida de acuerdo con un orden de exploración o un orden de decodificación en función de las unidades de codificación que tiene la estructura de árbol. En consecuencia, el determinador de unidad de codificación 120 además podría incluir las unidades de datos que rodea una esquina izquierda superior, una esquina derecha superior, y una esquina izquierda inferior en adición a todas de una pluralidad de las unidades izquierdas vecinas de datos y las unidades superiores vecinas de datos del grupo candidato de fusión de la unidad actual de predicción o la partición actual.
Asimismo, debido a que la posibilidad de' la fusión de la unidad de datos es determinada en función de un modo de predicción de la unidad actual de predicción o la partición actual, las "codificaciones de la información de modo de predicción y la información de fusión se encuentran estrechamente relacionadas. Por ejemplo, la unidad de salida 130 podría codificar la información de codificación, de manera que la información relacionada de fusión es establecida en función de ,1a información de salto o la información de dirección para la unidad actual de predicción o la partición actual de las unidades de codificación que tiene la estructura de árbol.
Debido a que las unidades de codificación que tienen una estructura de árbol constituida por el aparato 100 incluyen las unidades de predicción y las particiones que tienen varios modos de predicción y varias formas, las unidades de predicción o las particiones que tienen varios modos de predicción y varias formas podrían hacer contacto con un límite superior y un límite izquierdo de la unidad actual de predicción o la partición actual . El determinador de unidad de codificación 120 podría buscar la posibilidad de que sea realizada la fusión de la unidad de datos entre una unidad actual de datos y una pluralidad" de varias unidades vecinas de predicción o particiones vecinas que hace contacto con un límite superior y un límite izquierdo de la unidad actual de predicción o la partición actual y podría determinar el objeto que será unido.
En consecuencia, debido a que una unidad actual de predicción o una partición actual comparte la información relacionada de predicción con las unidades vecinas de datos que tienen varios tamaños, formas, y positions en función de las unidades de codificación que tiene una estructura de árbol, los datos redundantes podrían ser removidos utilizando la información periférica en un intervalo más ancho, y podría ser mejorada la eficiencia de la codificación del video.
La Figura 20 es un diagrama de bloque de un aparato 200 para la decodificación de video utilizando una fusión de unidad de datos basada en las unidades de codificación que tienen una estructura de árbol, de acuerdo con una modalidad de ejemplo.
El aparato 200 incluye un receptor 210, un extractor de información de codificación y datos de imagen 220 y un decodificador de datos de imagen 230. Por conveniencia de la explicación, el aparato 200 para la decodificación de un video que utiliza una fusión de unidad de datos basada en las unidades de codificación que tienen una estructura de árbol 200 es referido como el 'aparato 200 para la decodificación de un video ' .
Las definiciones de varios términos, tales como la unidad de codificación, la profundidad, la unidad de predicción, y la unidad de transformación, y la información acerca de varios modos de codificación, ' para varias operaciones del aparato 200 son idénticas a las descritas con anterioridad con referencia a la Figura 19 y el aparato 100.
El receptor 210 recibe y analiza un flujo de bits de un video codificado. El extractor de información de codificación y datos de imagen 220 extrae los datos codificados de imagen para cada unidad de codificación del flujo analizado de bits, en donde las unidades de codificación tienen una estructura de árbol de acuerdo con las unidades de codificación máxima, y da salida a los datos extraídos de imagen hacia el decodificador de datos de imagen 230. El extractor de información de codificación y datos de imagen 220 podría extraer la información acerca del tamaño de una unidad de codificación de una imagen actual de un encabezado acerca de la imagen actual, un PPS o SPS .
Asimismo, el extractor de información de codificación y datos de imagen 220 extrae la información acerca de la profundidad codificada y el modo de codificación para las unidades de codificación que tienen una estructura de árbol de acuerdo con las unidades de codificación máxima, del flujo analizado de bits. La información extraída acerca de la profundidad codificada y el modo de codificación es salida hacia el decodificador de datos de imagen 230. En otras palabras, los datos de imagen en un flujo- de bits son divididos en una unidad de codificación máxima, de modo que el decodificador de datos de imagen 230 decodificar los datos de imagen para cada unidad de codificación máxima.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con la unidad de codificación máxima podría ser establecida para la información al menos acerca de la unidad de codificación que corresponde con la profundidad codificada, y la información acerca de un modo de codificación podría incluir la información al menos acerca de un tipo de partición de una correspondiente unidad de codificación que corresponde con la profundidad codificada, acerca del modo de predicción y el tamaño de una unidad de transformación. Asimismo, la información de codificación acerca de la profundidad codificada y el modo de codificación además podría incluir la información relacionada con la fusión acerca de una unidad de predicción actual o una partición actual.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima extraída por el extractor de información de codificación y datos de imagen 220 es la información acerca de la profundidad codificada y el modo de codificación determinados para generar un error de codificación mínima cuando un codificador, tal como el aparato 100, realiza, en forma repetida, la codificación para cada unidad de codificación más profunda de acuerdo con de las profundidades de acuerdo con las unidades de codificación máxima. En consecuencia, el aparato 200 podría restaurar la imagen decodificando los datos de imagen de acuerdo con la profundidad codificada y el modo de codificación que genera, el error de codificación mínima.
Debido a que la información de codificación acerca de la profundidad codificada y el modo de codificación podría ser asignada a una unidad predeterminada de datos de entre una correspondiente unidad de codificación, una unidad de predicción, y una unidad mínima, el extractor de información de codificación y datos de imagen 220 podría extraer la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades predeterminadas de datos. Las unidades predeterminadas de datos en las cuales la misma información acerca de la profundidad codificada y el modo de codificación es asignada, podrían ser inferidas para que sean las unidades de datos incluidas en la misma unidad de codificación máxima.
El decodificador de datos de imagen 230 restaura la imagen actual decodificando los datos de imagen en cada unidad de codificación máxima en función de la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima. En otras palabras, el decodificador de datos de imagen 230 podría decodificar los datos codificados de imagen en función de la información extraída acerca del tipo de partición, el modo de predicción, y la unidad de transformación para cada unidad de codificación de entre las unidades de codificación que tienen la estructura de árbol incluida en cada unidad de codificación máxima. El proceso de decodificación podría incluir una predicción que .a su vez incluye la intra-predicción y la compensación de movimiento y una transformación inversa.
El decodificador de datos de imagen 230 podría realizar la intra-predicción o la compensación de movimiento de acuerdo con una partición y un modo de predicción de cada unidad de codificación, en función de la información acerca del tipo de partición y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con las profundidades codificadas.
Asimismo, con el propósito de realizar la transformación inversa de acuerdo con las unidades de codificación máxima, el decodificador de datos de imagen 230 podría realizar la transformación inversa en función de una unidad de transformación para cada unidad de codificación mediante la lectura de la unidades de transformación que tienen una estructura de árbol que incluyen la información acerca de los tamaños de las unidades de transformación de las unidades de codificación de acuerdo con las profundidades codificadas.
El decodificador de datos de imagen 230 podría determinar al menos una profundidad codificada de una unidad de codificación máxima actual utilizando la información dividida de acuerdo con las profundidades. Si la información dividida indica que los datos de imagen ya no son más divididos en la profundidad actual, la profundidad actual es una profundidad codificada.
En consecuencia, el decodificador de datos de imagen 230 podría decodificar los datos codificados por lo menos de una unidad de codificación que . corresponde con cada profundidad codificada en la unidad de codificación máxima actual utilizando la información acerca del tipo de partición de la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformación para cada unidad de codificación que corresponde con la profundidad codificada, y da salida a los datos de imagen de la unidad de codificación máxima actual .
En otras palabras, las unidades de datos que contienen la información de codificación que incluye la misma la información dividida podrían ser reunidas observando la información de codificación establecida que es asignada para la unidad predeterminada de datos de entre la unidad de codificación, la unidad de predicción, y la unidad mínima, y las unidades reunidas de datos podrían ser consideradas que so ' una unidad de datos que será decodificada por el decodificador de datos de imagen 230 en el mismo modo de codificación.
Asimismo, el aparato 200 podría restaurar una unidad actual de predicción o una partición actual utilizando la información relacionada de predicción de una unidad periférica de datos de la unidad actual de predicción o la partición actual utilizando un método de fusión de unidad de datos. Para este fin, el receptor 210 y los datos de imagen y la información de codificación extractor 220 del aparato 200 podrían incluir el analizador/extractor 21 del aparato 20, y el decodificador de datos de imagen 230 del aparato 200 podría incluir el determinador de fusión de unidad de datos 23 del aparato 20.
Los datos de imagen y la información de codificación extractor 220 podrían extraer la información de modo de predicción y la información relacionada de fusión de la información acerca de un modo de codificación. Los datos de imagen y la información de codificación extractor 220 podría determinar la posibilidad de extraer y leer la información relacionada de fusión de acuerdo con la información de modo de predicción en la información acerca de un modo de codificación en función de una relación estrecha o cercana entre la información de modo de predicción y la información relacionada de fusión. Por ejemplo, los datos de imagen y la información de codificación extractor 220 podrían extraer la información relacionada de fusión en función de la información de modo de salto o la información directa para una unidad actual de predicción o una partición actual de las unidades de codificación que tiene una estructura de árbol.
Asimismo, la información de fusión y la información de índice de fusión podrían ser extraídas como la información relacionada de fusión.
El decodificador de datos de imagen 230 del aparato 200 podría formar las unidades de codificación que tiene una estructura de árbol basada en la información acerca de un modo de codificación y una profundidad codificada, y cada unidad de codificación de entre las unidades de codificación que tiene la estructura de árbol incluye las unidades de predicción y las particiones que tienen varios modos de predicción y varias formas.
El decodificador de datos de imagen 230 del aparato 200 podría buscar si la fusión o unión podría realizarse entre una unidad actual de datos y varias unidades vecinas de predicción o particiones vecinas que hace contacto con un límite superior y un límite izquierdo de una unidad actual de predicción o una partición actual y podría determinar el objeto que será, unido. La información relacionada de predicción de la unidad actual de predicción o la partición actual podría ser determinada o inferida con referencia a la información relacionada de predicción de la unidad o partición vecina unidad de predicción.
El aparato 200 podría obtener la información de codificación acerca por lo menos de una unidad de codificación que genera el error de codificación mínima cuando la codificación es realizada, en forma recursiva, para cada unidad de codificación máxima, y podría utilizar la información para decodificar la imagen actual. En otras palabras, podrían ser de codificadas las unidades de codificación que tienen la estructura de árbol determinada para ser las unidades óptimas de codificación en cada unidad de codificación máxima.
Los datos codificados al compartir la información relacionada de predicción de las unidades vecinas de datos que tienen varios tamaños y formas en función de las unidades de codificación de acuerdo con una estructura de árbol podría ser decodificados , en forma precisa, con referencia a la información relacionada de predicción de una unidad vecina de datos en función de la información relacionada de predicción y la información relacionada de fusión establecida basada en una relación estrecha.
El método de déterminación de las unidades de codificación que tienen una estructura de árbol, una unidad de predicción, y una unidad de transformación, de acuerdo con una modalidad de ejemplo, será descrito con referencia a las Figuras 21-31.
La Figura 21 es un diagrama que explica un concepto de las unidades de codificación de acuerdo con una modalidad de ejemplo.
El tamaño de una unidad de codificación podría ser expresado en ancho x altura y podría ser de 64x64, 32x32, 16x16 y 8x8.
Una unidad de codificación de 64x64 podría ser dividida en particiones de 64x64, 64x32, 32x64 ó 32x32, y una unidad de codificación de 32x32 podría ser dividida en particiones de 32x32, 32x16, 16x32 ó 16x16, una unidad de codificación de 16x16 podría ser dividida en particiones de 16x16, 16x8, 8x16 ó 8x8, y una unidad de codificación de 8x8 podría ser dividida en particiones de 8x8, 8x4, 4x8 o de 4x4.
En los datos de video 310, la resolución es de 1920x1080 y el tamaño máximo de la unidad de codificación es de 64 y la profundidad máxima es de 2. En los datos de video 320, la resolución es de 1920x1080 y el tamaño máximo de la unidad de codificación es de 64 y la profundidad máxima es de 3. En los datos de video 330, la resolución es de 352x288, y el tamaño máximo de la unidad de codificación es de 166 y la profundidad máxima es de 1.
La profundidad máxima mostrada en la Figura 11 denota un número total de divisiones de una unidad de codificación máxima a una unidad de decodificación mínima.
Si la resolución es alta o es grande la cantidad de datos, podría ser grande el tamaño máximo de una unidad de codificación de modo que no solo se incrementa la eficiencia de la codificación sino también refleja, de manera exacta, las características de una imagen. En consecuencia, el tamaño máximo de la unidad de codificación de los datos de video 310 y 320 que tienen la resolución más alta que los datos de video 330 podría ser de 64.
Debido a que la profundidad máxima de los datos de video 310 es 2, las unidades de codificación 315 de los datos de video 310 podrían incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y las unidades de codificación que tienen tamaños de eje largo de 32 y 16 debido a que las profundidades son profundizadas en dos capas dividiendo la unidad de codificación máxima dos veces. Mientras tanto, debido a que la profundidad máxima de los datos de video 330 es 1, las unidades de codificación 335 de los- datos de video 330 podrían incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 16, y las unidades de codificación que tienen un tamaño de eje largo de 8 debido a que las profundidades son profundizadas en un nivel dividiendo la unidad de codificación máxima una vez .
Debido a que la profundidad máxima de los datos de video 320 es 3, las ünidades de codificación 325 de los datos de video 320 podrían incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y las unidades de codificación que tienen tamaños de eje largo de 32, 16, y 8 debido a que las profundidades son profundizadas en 3 niveles dividiendo la unidad de codificación máxima tres veces. A medida que se profundiza la profundidad, la información detallada podría ser expresada, de manera precisa.
La Figura 22 es un diagrama de bloque de un codificador de imagen 400 basado en las unidades de codificación, de acuerdo con una modalidad de ejemplo.
El codificador de imagen 400 realiza las operaciones del determinador de unidad de codificación 120 del 100 para codificar los datos de imagen. En otras palabras, un intra-predictor 410 realiza la intra-predicción en las unidades de codificación en un intra-modo, de entre un cuadro actual 405, y un estimador de movimiento 420 y un compensador de movimiento 425 realiza la inter-estimación y la compensación de movimiento en las unidades de codificación en un inter-modo de entre el cuadro actual 405, utilizando el cuadro actual 405 y un cuadro de referencia 495.
Los datos salidos a partir del intra-predictor 410, del estimador de movimiento 420 y del compensador de movimiento 425 son salidos como un coeficiente cuantificado de transformación a través de un transformador 430 y un cuantificador 440. El coeficiente cuantificado de transformación es restaurado como los datos en un dominio espacial a través de un cuantificador inverso 460 y un transformador inverso 470, y los datos restaurados en el dominio espacial son salidos como el cuadro de referencia 495 después de ser posteriormente procesados a través de una unidad de desbloqueo 480 y una unidad de filtrado de circuito 490. El coeficiente cuantificado de transformación podría ser salido como un flujo de bits 455 a través de un codificador de entropía 450.
Con el propósito que el codificador de imagen 400 sea aplicado . en el aparato 100, todos los elementos del codificador de imagen 400, es decir, el intra-predictor 410, el estimador de movimiento 420, el compensador de movimiento 425, el transformador 430, el cuantificador 440, el codificador de entropía 450, el cuantificador inverso 460, el transformador inverso 470, la unidad de desbloqueo 480 y la unidad de filtrado de circuito 490, realizan las operaciones basadas en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol mientras se considera la profundidad máxima de cada unidad de codificación máxima.
De manera específica, el intra-predictor 410, el estimador de movimiento 420 y el compensador de movimiento 425 determinan las particiones y el modo de predicción de cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol mientras se considera un tamaño máximo y una profundidad máxima de una unidad de codificación máxima actual, y el transformador 430 determina el tamaño de la unidad de transformación en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol .
La Figura 23 es un diagrama de bloque de un decodificador de imagen 500 basado en las unidades de codificación, de acuerdo con una modalidad de ejemplo.
Un analizador 510 analiza los datos codificados de imagen que serán decodificados y la información acerca de la codificación requerida para la decodificación de un flujo de bits 505. Los datos codificados de imagen son salidos como los datos cuantificados inversos a través de un decodificador de entropía 520 y un cuantificador inverso 530, y los datos cuantificados inversos son restaurados en los datos de imagen en un dominio espacial a través de un transformador inverso 540.
Un intra-predictor 550 realiza la intra-predicción en las unidades de codificación en un intra-modo con respecto a los datos de imagen en el dominio espacial, y un compensador de movimiento 560 realiza la compensación de movimiento en las unidades de codificación en un inter-modo utilizando un cuadro de referencia 585.
Los datos de imagen en el dominio espacial, que pasaron a través del intra-predictor 550 y el compensador de movimiento 560, podrían ser salidos como un cuadro restaurado 595 después de ser posteriormente procesados a través de una unidad de desbloqueo 570 y una unidad de filtrado de circuito 580. Asimismo, los datos de imagen que son posteriormente procesados a través de la unidad de desbloqueo 570 y la unidad de filtrado de circuito 580 podrían ser salidos como el cuadro de referencia 585.
Con el propósito de decodificar los datos de imagen en un decodificador de datos de imagen 230 del aparato 200, el decodificador de imagen 500 podría realizar las operaciones que son efectuadas después del analizador 510.
Con el propósito que el decodificador de imagen 500 sea aplicado en el aparato 200, todos los elementos del decodificador de imagen 500, es decir, el analizador 510, el decodificador de entropía 520, el cuantificador inverso 530, el transformador inverso 540, el intra-predictor 550, el compensador de movimiento 560, la unidad de desbloqueo 570 y la unidad de filtrado de circuito 580, realizan las operaciones basadas en las unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
De manera específica, el intra-predictor 550 y el compensador de movimiento 560 realizan las operaciones basadas en las particiones y un modo de predicción para cada una de las unidades de codificación que tiene una estructura de árbol, y el transformador inverso 540 realiza las operaciones basadas en un tamaño de una unidad de transformación para cada unidad de codificación.
La Figura 24 es un diagrama que ilustra las unidades de codificación más profunda de acuerdo con las profundidades, y las particiones, de acuerdo con una modalidad de ejemplo.
El aparato 100 y el aparato 200 utilizan las unidades de codificación jerárquica a fin de considerar las características de una imagen. La altura máxima, el ancho máximo y la profundidad máxima de las unidades de codificación podrían ser determinados, de manera adaptiva, de acuerdo con las características de la imagen, . o podrían ser diferentemente establecidos por el usuario. Los tamaños de unidades de codificación más profunda de acuerdo con las profundidades podrían ser determinados de acuerdo con el tamaño máximo predeterminado de la unidad de codificación En la estructura jerárquica 600 de las unidades de codificación, de acuerdo con una modalidad de ejemplo, la altura máxima y el ancho máximo de las unidades de codificación son cada uno 64, y la profundidad máxima es 3. En este caso, la profundidad máxima denota el número total de divisiones de una unidad de codificación máxima a una unidad de decodificación mínima. Debido a que una profundidad se profundiza a lo largo del eje vertical de la estructura jerárquica 600, la altura y el ancho de una unidad de codificación más profunda son divididos cada uno. Asimismo, una unidad de predicción y las particiones, que son las bases para la codificación de predicción de cada unidad de codificación más profunda, son mostradas a lo largo del eje horizontal de la estructura jerárquica 600.
En otras palabras, una unidad de codificación 610 es una unidad de codificación máxima en la estructura jerárquica 600, en donde una profundidad es 0 y el tamaño, es' decir, la altura por el ancho, es de 64x64. ta profundidad se profundiza a lo largo del eje vertical, y existen una unidad de codificación 620 que tiene un tamaño de 32x32 y una profundidad de 1, una unidad de codificáción 630 que tiene un tamaño de 16x16 y una profundidad de 2 y una unidad de codificación 640 que tiene un tamaño de 8x8 y una profundidad de 3. La unidad de codificación 640 que tiene el tamaño de 8x8 y la profundidad de 3 es una unidad de codificación mínima.
La unidad de . predicción y las particiones de una unidad de codificación son colocadas a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad de codificación 610 que tiene el tamaño de 64x64 y la profundidad de 0 es una unidad de predicción, la unidad de predicción podría ser dividida en las particiones incluidas en la unidad de codificación 610, es decir, una partición 610 que tiene un tamaño de 64x64, las particiones 612 que tienen un tamaño de 64x32 y las particiones 614 que tienen un tamaño de 32x64 o . las particiones 616 que tienen un tamaño de 32x32.
En forma similar, una unidad de predicción de la unidad de codificación 620 que tiene el tamaño de 32x32 y la profundidad de 1 podría ser dividida en particiones incluidas en la unidad de codificación 620, es decir, una partición 620 que tiene un tamaño de 32x32, las particiones 622 que tienen un tamaño de 32x16, las particiones 624 que tienen un tamaño de 16x32 y las particiones 626 que tienen un tamaño de 16x16.
En forma similar, una unidad de predicción de la unidad de codificación 630 que tiene el tamaño de 16x16 y la profundidad de 2 podría ser dividida en las particiones incluidas en la unidad de codificación 630, es decir, una partición que tiene un tamaño de 16x16 incluida en la unidad de codificación 630, las particiones 632 que tienen un tamaño de 16x8, las particiones 634 que tienen un tamaño de 8x16 y las particiones 634 que tienen un tamaño de 8x8.
En forma similar, una unidad de predicción de la unidad de codificación 640 que .tiene el tamaño de 8x8 y la profundidad de 3 es una unidad de codificación mínima y tiene una profundidad más baja y de esta manera, podría ser dividida en las particiones incluidas en la unidad de codificación 640, es decir,, una partición que tiene un tamaño de 8x8 incluida en la unidad de codificación 640, las particiones 642 que tiene un tamaño de 8x4, las particiones 644 que tienen un tamaño de 4x8, y las particiones 646 que tienen un tamaño de 4x4.
Con el propósito de determinar al menos una profundidad codificada de las unidades de codificación que constituyen la unidad de codificación máxima 610, el determinador de unidad de codificación 120 del aparato 100 realiza la codificación para las unidades de codificación que corresponden con cada profundidad incluida en la unidad de codificación máxima 610.
El número de unidades de codificación más profunda de acuerdo con las profundidades que incluye los datos en el mismo intervalo y el mismo tamaño se incrementa a medida que se profundiza la profundidad. Por ejemplo, cuatro unidades de codificación que corresponden con una profundidad de 2 son requeridas para cubrir los datos que son incluidos en una unidad de codificación que corresponde con una profundidad de 1. En consecuencia, con el propósito de comparar los resultados de la codificación de los mismos datos de acuerdo con las profundidades, la unidad de · codificación que corresponde con la profundidad de 1 y es codificada cada una de las cuatro unidades de codificación que corresponden con la profundidad de 2.
Con el propósito de realizar la codificación para una profundidad actual de entre las profundidades, un error final de codificación podría ser seleccionado para la profundidad actual realizando la codificación para cada unidad de predicción en las unidades de codificación que corresponden con la profundidad actual, a lo largo del eje horizontal de la estructura jerárquica 600. En forma alterna, el error de codificación mínima podría ser buscado comparando los errores últimos de codificación de acuerdo con las profundidades, al realizar la codificación para cada profundidad a medida que se profundiza la profundidad a lo largo del eje vertical de la estructura jerárquica 600. Una profundidad y una partición que tienen el error de codificación mínima en la unidad de codificación 610 podrían ser seleccionadas como la profundidad codificada y el tipo de partición de la unidad de codificación 610.
La Figura 25 es un diagrama que explica la relación entre una unidad de codificación 710 y las unidades de transformación 720, de acuerdo con una modalidad de ejemplo.
El aparato 100 ó 200 codifica o decodifica una imagen de acuerdo con las unidades de codificación que tienen tamaños más pequeños o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de las unidades de transformación para la transformación durante la codificación podrían ser seleccionados en función de las unidades de datos que no son más grandes que una correspondiente unidad de codificación.
Por ejemplo, en el aparato 100 o 200, si el tamaño de la unidad de codificación 710 es 64x64, la transformación podría ser realizada utilizando las unidades de transformación 720 que tienen un tamaño de 32x32.
Asimismo, los datos de la unidad de codificación 710 que tienen el tamaño de 64x64 podrían ser codificados al realizar la transformación en cada una de las unidades de transformación que tiene el tamaño de 32x32, 16x16, 8x8 y 4x4, que son más pequeños que 64x64, y entonces, podría ser seleccionada la unidad de transformación que tiene el último error de decodificación.
La Figura 26 es un diagrama que explica la información de codificación de las unidades de codificación que corresponden con la profundidad codificada, de acuerdo con una modalidad de ejemplo.
La unidad de salida 130 del aparato 100 podría codificar y transmitir la información 800 acerca del tipo de partición, la información 810 acerca del modo de predicción, y la información 820 acerca del tamaño de una unidad de transformación para cada unidad de codificación que corresponde con una profundidad codificada, como la información acerca del modo de codificación.
La información 800 indica la información acerca de la forma de la partición obtenida mediante la división de una unidad de predicción de una unidad de codificación actual, en donde la partición es una unidad de datos para la codificación de predicción de la unidad de codificación actual. Por ejemplo, una unidad de codificación actual CU_0 que tiene un tamaño de 2Nx2N podría ser dividida en cualquiera una de una partición 802 que tiene un tamaño de 2Nx2N, una partición 804 que tiene un tamaño de 2NxN, una partición 806 que tiene un tamaño de Nx2N, y una partición 808 que tiene un tamaño de NxN. Aquí, la información 800 acerca del tipo de partición es establecida para indicar una de la partición 804 que tiene un tamaño de 2NxN, la partición 806 que tiene un tamaño de Nx2N y la partición 808 que tiene un tamaño de NxN.
La información 810 indica el modo de predicción de cada partición. Por ejemplo, la información 810 podría indicar el modo de la codificación de predicción realizado en una partición indicada por la información 800, es decir, un intra-modo 812, un inter-modo 814, o un modo de salto 816.
La información 820 indica una unidad de transformación que estará basada en el momento cuando sea realizada la transformación de una unidad de codificación actual. Por ejemplo, la unidad de transformación podría ser una primera unidad de intra-transformación 822, una segunda unidad de intra-transformación 824, una primera unidad de inter-transformación 826, o una segunda unidad de intra-transformación 828.
El extractor de información de codificación y datos de imagen 220 del aparato 200 podría extraer y utilizar la información 800, 810, y 820 para la decodificación.
Aunque no se muestra en la Figura 26, la información acerca del modo de codificación podría incluir la información relacionada con la fusión, y la información relacionada con la fusión podría ser establecida en función de la información 810 acerca del modo de predicción, tal como el inter-modo, el intra-modo, el modo de salto, o un modo directo. Por ejemplo, si la información 810 acerca del modo de predicción es la información acerca del modo de salto, podría ser establecida, de manera selectiva, la información relacionada con la fusión. Sólo cuando la información 810 acerca del modo de predicción sea la información acerca de un inter-modo, no de un modo de salto y un modo directo, podría ser establecida la información relacionada con la fusión.
La Figura 27 es un diagrama que ilustra las unidades de codificación más profunda de acuerdo con las profundidades, de acuerdo con una modalidad de ejemplo.
La información dividida podría ser utilizada para indicar el cambio de la profundidad. La información dividida indica si una unidad de codificación de una profundidad actual es dividida en unidades de codificación de una profundidad más baja.
Una unidad de predicción 910 para la codificación de predicción de una unidad de codificación 900 que tiene una profundidad de 0 y un tamaño de 2N_0x2N_0 podría incluir las particiones de un tipo de partición 912 que tiene un tamaño de 2N_0x2N_0, un tipo de partición 914 que tiene un tamaño de 2N_0xN_0, un tipo de partición 916 que tiene un tamaño de N_0x2N_0 y un tipo de partición 918 que tiene un tamaño de N_0xN_o .
La Figura 29 sólo ilustra los tipos de partición 912-918 que son obtenidos al dividir, en forma simétrica, la unidad de predicción 910, aunque el tipo de partición no es limitado a los mismos, y las particiones de la unidad de predicción 910 podrían incluir las particiones asimétricas, las particiones . que tienen una forma predeterminada y las particiones que tienen una forma geométrica.
La codificación de predicción es realizada, en forma repetida, en una partición que tiene un tamaño de 2N_0x2N_0 , en dos particiones que tienen un tamaño de 2N_0xN_0, en dos particiones que tienen un tamaño de N_0x2N_0, y en cuatro particiones que tienen un tamaño de N_0xN_0 , de acuerdo con cada tipo de partición. La codificación de predicción en un intra-modo y un inter-modo podría ser realizada en las particiones que tienen los tamaños de 2N_0x2N_0, N_0x2N_0, 2N_0xN_0, y N_0xN_0. La codificación de predicción en un modo de salto sólo es realizada en la partición que tiene el tamaño de 2N_0x2N_0.
Los errores de codificación que incluyen la codificación de predicción en los tipos de partición 912-918 son comparados, y el último error de codificación es determinado entre los tipos de partición.
Si el error de codificación es el más pequeño en uno de los tipos de partición 912-916, que tiene los tamaños de 2N_0x2N_0, N_0x2N_0, y 2N_0xN_0 , la unidad de predicción 910 no podría ser dividida en una profundidad más baja.
Si el error de codificación es el más pequeño en uno de los tipos de partición 912-916, la unidad de predicción 910 no podría ser dividida en una profundidad más baja.
Si el error de codificación es el más pequeño en el tipo de partición -918, la profundidad es cambiada de 0 a 1 para dividir el tipo de partición 918 en la operación 920, y la codificación es realizada, en forma repetida, en las unidades de codificación 930 que tienen una profundidad de 1 y un tamaño de N_0xN_0 para buscar el error mínimo de codificación.
Una unidad de predicción 940 para la codificación de predicción de la unidad de codificación 930 que tiene una profundidad de 1 y un tamaño de 2N_lx2N_l (=N_0xN_0) podría incluir las particiones de un tipo de partición 942 que tiene un tamaño de 2N_lx2N_l, un tipo de partición 944 que tiene un tamaño de 2N_lxN_l, un tipo de partición 946. que tiene un tamaño de N_lx2N_l y un tipo de partición 948 que tiene un tamaño de N_lxN_l .
Si un error de codificación es el más pequeño en el tipo de partición 948, la profundidad es cambiada de 1 a 2 para dividir el tipo de partición 948 en la operación 950, y la codificación es realizada, en forma repetida, en las unidades de codificación 960, que tienen una profundidad de 2 y un tamaño de N_2xN_2 para buscar un error de codificación mínima .
Cuando una profundidad máxima es d-1, podría ser realizada la operación dividida de acuerdo con las profundidades hasta cuando la profundidad se convierta en d-1, y la información dividida podría ser codificada hasta cuando la profundidad es uno de 0 a d-2. En otras palabras, cuando la codificación es realizada hasta cuando la profundidad es d-1 una vez que una unidad de codificación que corresponde con una profundidad de d-2 es dividida en la operación 970, la unidad de predicción 990 para la codificación de predicción de una unidad de codificación 980 que tiene una profundidad de d-1 y un tamaño de 2N_(d-l)x2N_(d-l) podría incluir las particiones de un tipo de partición 992 que tiene un tamaño de 2N_ (d-1) 2N_(d-l) , un tipo de partición 994 que tiene un tamaño de 2N_ (d-1) N_ (d-1), un tipo de partición 996 que tiene un tamaño de N_(d-l)x2N_(d-l), y un tipo de partición 998 que tiene un tamaño de N_(d-l)xN_(d-l) .
La codificación de predicción podría ser realizada, en forma repetida, en una partición que. tiene un tamaño de 2N_ (d-1) x2N_ (d-1) , en dos particiones que tienen un tamaño de 2N_(d-l)xN_(d-l) , en dos particiones que tienen un tamaño de N_ (d-1) x2N_ (d-1) , en cuatro particiones que tienen un tamaño de N_(d-l)xN_(d-l) de entre los tipos de partición 992-998 para buscar un tipo de partición que tiene un error de codificación mínima.
Aun cuando el tipo de partición 998 tiene el error de codificación mínima, debido a que la profundidad máxima es d-1, la unidad de codificación CU_(d-l) que tiene una profundidad de d-1 ya no es más dividida en una profundidad más baja, y una profundidad codificada para las unidades de codificación que constituyen una unidad de codificación máxima actual 900 es determinada para que sea d-1 y un tipo de partición de la unidad de codificación máxima actual 900 podría ser determinado para que sea N_(d-1) xN_(d-l) . Asimismo, debido a que la profundidad máxima es d-1 y la unidad de codificación mínima 980 que tiene la profundidad más baja de d-1 ya no es más dividida en una profundidad más baja, la información dividida para la unidad de codificación mínima 980 no es establecida.
La unidad de datos 999 podría ser la 'unidad mínima' para la unidad de codificación máxima actual. La unidad mínima podría ser una unidad rectangular de datos obtenida mediante la división de una unidad de codificación mínima 980 entre 4. Al realizar la codificación en forma repetida, el aparato 100 podría seleccionar una profundidad que tiene el error menor de codificación comparando los errores de codificación de acuerdo con las profundidades de la unidad de codificación 900 para determinar la profundidad codificada, y establecer el tipo correspondiente de partición y el modo de predicción como un modo de codificación de la profundidad codificada .
Como tal, los errores de codificación mínima de acuerdo con las profundidades son comparados en todas . las profundidades de 1 a d, y una profundidad que tiene el error último de codificación podría ser determinada como una profundidad codificada. La profundidad codificada, el tipo de partición de la unidad de predicción, y el modo de predicción podrían ser codificados y transmitidos como la información acerca del modo de codificación. Asimismo, debido a que una unidad de codificación es dividida de una profundidad de 0 a una profundidad codificada, sólo la información dividida de la profundidad codificada es establecida en 0, y ¦ la información dividida de las profundidades que excluye la profundidad codificada es establecida en 1.
El extractor de información de codificación y datos de imagen 220 del aparato 200 podría extraer y utilizar la información acerca de la profundidad codificada y la unidad de predicción de la unidad de codificación 900 para decodificar la partición 912. El aparato 200 podría determinar la profundidad, en la cual la información dividida es 0, como la profundidad codificada utilizando la información dividida de acuerdo con las profundidades, y podría utilizar la información acerca de un modo de codificación de la profundidad correspondiente para la decodificación.
Las Figuras 28-30 son diagramas que explican la relación entre las unidades de codificación 1010, las unidades de predicción 1060 y las unidades de transformación 1070, de acuerdo con una modalidad de ejemplo.
Las unidades de codificación 1010 son unidades de codificación que tienen una estructura de árbol, que corresponden con las ' profundidades codificadas que son determinadas por el aparato 100, en una. unidad de codificación máxima. Las unidades de predicción 1060 son particiones de las unidades de predicción de cada una de las unidades de codificación 1010 y las unidades de transformación 1070 son unidades de transformación de cada una de las unidades de codificación 1010.
Cuando la profundidad de una unidad de codificación máxima es 0 en las unidades de codificación 1010, las profundidades de las unidades de codificación 1012 y 1054 son 1, las profundidades de las unidades de codificación 1014, 1016, 1018, 1028, 1050 y 1052 son 2, las profundidades de las unidades de codificación 1020, 1022, 1024, 1026, 1030, 1032 y 1048 son 3, y las profundidades de las unidades de codificación 1040, 1042, 1044 y 1046 son 4.
En las unidades de predicción 1060, algunas unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, 1052 y 1054 son divididas en particiones para la codificación de predicción.
En otras palabras, los tipos de partición en las unidades de codificación 1014, 1022, 1050 y 1054 tienen un tamaño de 2NxN, los tipos de partición en las unidades de codificación 1016, 1048 y 1052 tienen un tamaño de Nx2N, y el tipo de partición de la unidad de codificación 1032 tiene un tamaño de NxN. Las unidades de predicción y las particiones de las unidades de codificación 1010 son más pequeñas o iguales a cada unidad de codificación.
La transformación o la transformación inversa son realizadas en los -datos de imagen de la unidad de codificación 1052 en las unidades de transformación 1070 en una unidad de datos que es más pequeña que la unidad de codificación 1052. Asimismo, las unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050 y 1052 en las unidades de transformación 1070 son diferentes de aquellas de las unidades de predicción 1060 en términos de tamaños y formas. En otras palabras, los aparatos 100 y 200 podrían realizar la intra-predicción, la estimación de movimiento, la compensación de movimiento, la transformación y la transformación inversa, de manera individual, en una unidad de datos en la misma unidad de codificación.
En consecuencia, la codificación es realizada, de manera recursiva, en cada una de las unidades de codificación que tiene una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima, y de esta manera, podrían ser obtenidas las unidades de codificación que tienen una estructura recursiva de árbol. La información de codificación podría incluir la información dividida acerca de la unidad de codificación, la información acerca del tipo de partición, la información acerca del modo de predicción, y la información acerca de un tamaño de una unidad de transformación. La Tabla 2 muestra la información de codificación que podría ser establecida por los aparatos 100 y 200.
Tabla 2 La unidad de salida 130 del aparato. 100 podría dar salida a la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol, y el extractor de información de codificación y datos de imagen 220 del aparato 200 podría extraer la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol de un flujo recibido de bits.
La información dividida indica si una unidad de codificación actual es dividida en unidades de codificación de una profundidad más baja. Si la información dividida de una profundidad actual d es 0, la profundidad, en la cual una unidad de codificación actual ya no es más dividida en una profundidad más baja, es la profundidad codificada y de esta manera, la información acerca del tipo de partición, el modo de predicción, y el tamaño de la unidad de transformación podría ser definida para la profundidad codificada. Si la unidad de codificación actual además es dividida de acuerdo con la información dividida, la codificación es independientemente realizada en cuatro unidades divididas de codificación de una profundidad más baja.
Un modo de predicción podría ser uno de un intra-modo, un inter-modo y un modo de salto. El intra-modo y el inter-modo podrían ser definidos en todos los tipos de partición, y el modo de salto sólo podría ser definido en un tipo de partición que tiene un tamaño de 2Nx2N.
La información acerca del tipo de partición podría indicar los tipos de partición simétrica que tienen tamaños de 2Nx2N, 2NxN, Nx2N, y NxN, los cuales son obtenidos al dividir en forma simétrica la altura o el ancho de una unidad de predicción, y los tipos de partición asimétrica que tienen tamaños de 2NxnU, 2NxnD, nLx2N, y nRx2N, los cuales son obtenidos al dividir en forma asimétrica la altura o el ancho de la unidad de predicción. Los tipos de partición asimétrica que tienen los tamaños de 2NxnU y 2NxnD podrían ser respectivamente obtenidos al dividir la altura de la unidad de predicción en relaciones de 1:3 y 3:1, y los tipos de partición asimétrica que tienen los tamaños de nLx2N y nRx2N podrían ser respectivamente obtenidos al dividir el ancho de la unidad de predicción en relaciones de 1:3 y 3:1.
El tamaño de la unidad de transformación podría ser establecido para que sea de dos tipos en el intra-modo y de dos tipos en el inter-modo. En otras palabras, si la información dividida de la unidad de transformación es 0, el tamaño de la unidad de transformación podría ser de 2Nx2N, que es el tamaño de la unidad de codificación actual. Si la información dividida. de la unidad de transformación es 1, las unidades de transformación podrían ser obtenidas dividiendo la unidad de codificación actual. Asimismo, si el tipo de partición de la unidad de codificación actual que tiene el tamaño de 2Nx2N es un tipo de partición simétrica, el tamaño de una unidad de transformación podría ser de NxN, y si el tipo de partición de la unidad de codificación actual es un tipo de partición asimétrica, el tamaño de la unidad de transformación podría ser de N/2xN/2.
La información de codificación acerca de las unidades de codificación que tienen una estructura de árbol podría incluir al menos una de una unidad de codificación que corresponde con una profundidad codificada, una unidad de predicción, y una unidad mínima. La unidad de codificación que corresponde con l profundidad codificada podría incluir al menos una de una unidad de predicción y una unidad mínima que contiene la misma información de codificación.
En consecuencia, se determina si las unidades adyacentes de datos- son incluidas en la misma unidad de codificación que corresponde con la profundidad codificada comparando la información de codificación de las unidades adyacentes de datos. Asimismo, una correspondiente unidad de codificación que corresponde con una profundidad codificada es determinada utilizando la información de codificación de una unidad de datos, y de esta manera, podría ser determinada la distribución de las profundidades codificadas en una unidad de codificación máxima.
En consecuencia, si una unidad de codificación actual es prevista en función de la información de codificación de las unidades adyacentes de datos, la información de codificación de las unidades de datos en las unidades de codificación más profunda adyacentes a la unidad de codificación actual podría ser directamente referida y utilizada.
En forma alterna, si la unidad de codificación actual es prevista en función de la información de codificación de las unidades adyacentes, de datos, las unidades de datos adyacentes a la unidad de codificación actual son buscadas utilizando la información codificada de las unidades de datos, y las unidades adyacentes buscadas de codificación podrían ser referidas para la predicción de la unidad de codificación actual.
La Figura 31 es un diagrama que explica la relación entre una unidad de codificación, una unidad de predicción o una partición y una unidad de transformación, de acuerdo con la información de modo de codificación de la Tabla 2.
La unidad de codificación máxima 1300 incluye las unidades de codificación 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de profundidades codificadas. Aquí, debido a que la unidad de codificación 1318 es una unidad de codificación de una profundidad codificada, la información dividida podría ser establecida en 0. La información acerca de un tipo de partición de la unidad de codificación 1318 que tiene un tamaño de 2Nx2N podría ser establecida para que sea una de un tipo de partición 1322 que tiene un tamaño de 2Nx2N, un tipo de partición 1324 que tiene un tamaño de 2NxN, un tipo de partición 1326 que tiene un tamaño de Nx2N, un tipo de partición 1328 que tiene un tamaño de NxN, un tipo de partición 1332 que tiene un tamaño de 2NxnU, un tipo de partición 1334 que tiene un tamaño de 2NxnD, un tipo de partición 1336 que tiene un tamaño de nLx2N, y un tipo de partición 1338 que tiene un tamaño de nRx2N.
La información dividida (el aviso de tamaño TU) de la unidad de transformación es un tipo de un índice de transformación, y un tamaño de una unidad de transformación que corresponde con el índice de transformación podría ser cambiado de acuerdo con un tipo de unidad de predicción o un tipo de partición de la unidad de codificación.
Por ejemplo, cuando el tipo de partición es establecido para que sea simétrico, es decir, el tipo de partición 1322, 1324, 1326 ó 1328, la unidad de transformación 1342 que tiene el tamaño de 2Nx2N es establecida si la información dividida de la unidad de transformación es 0, y la unidad de transformación 1344 que tiene el tamaño de NxN es establecida si un aviso de tamaño TU es 1.
Por otro lado, cuando el tipo de partición es establecido par que sea asimétrico, es decir, el tipo de partición 1332, 1334, 1336, o 1338, la unidad de transformación 1352 que tiene el tamaño de 2Nx2N es establecida si un aviso de tamaño TU es 0, y la unidad de transformación 1354 que tiene el tamaño de N/2xN/2 es establecida si un aviso de tamaño TU es 1.
Con referencia a la Figura 18, el aviso de tamaño TU es un aviso que tiene un valor de 0 ó 1, aunque el aviso de tamaño TU no es limitado a 1 bitio, y la unidad de transformación podría ser jerárquicamente dividida teniendo una estructura de árbol mientras el aviso de tamaño TU se incrementa a partir de 0. El aviso de tamaño TU podría ser utilizada como un ejemplo del índice de transformación.
En este caso, el tamaño de la unidad de transformación que ha sido utilizado podría ser expresado utilizando un aviso de tamaño TU de una unidad de transformación junto con el tamaño máximo y el tamaño mínimo de la unidad de transformación.
El aparato 100 podría codificar la información de tamaño máximo de la unidad de transformación, la información de tamaño mínimo de la unidad de transformación, y el aviso de tamaño TU máximo. El resultado de la codificación de la información de tamaño máximo de la unidad de transformación, la información de tamaño mínimo de la unidad de transformación, y el aviso de tamaño TU máximo podría ser insertado en un SPS .
El aparato 200 podría decodificar un video utilizando la información de tamaño máximo de la unidad de transformación, la información de tamaño mínimo de la unidad de transformación, y la información dividida máxima de la unidad de transformación y el aviso de tamaño TU máximo.
Por ejemplo, si el tamaño de una unidad actual de codificación es 64x64, y, el tamaño máximo de la unidad de. transformación es 32x32, entonces, el tamaño de la unidad de transformación podría ser de 32x32, cuando el aviso de tamaño TU máximo sea 0, podría ser de 16x16 cuando el aviso de tamaño TU máximo sea 1, y podría ser de 8x8 cuando el aviso de tamaño TU máximo sea 2.
Como otro ejemplo, si el tamaño de la unidad actual de codificación es 32x32, y el tamaño mínimo de la unidad de transformación es 32x32, entonces, el tamaño de la unidad de transformación podría ser de 32x32 cuando el aviso de tamaño TU máximo sea 0. Aquí, el aviso de tamaño TU máximo no puede ser establecido en un valor diferente de 0, debido a que el tamaño de la unidad de transformación no podría ser menor de 32x32.
Como otro ejemplo, si el tamaño de la unidad actual de codificación es 64x64, y el aviso de tamaño TU máximo es 1, entonces, el aviso de tamaño TU máximo podría ser de 0 ó 1. Aquí, el aviso de tamaño TU no puede ser establecido en un valor diferente de 0 ó 1.
De esta manera, si se define que el aviso, de tamaño TU máximo es 'MaxTransformSizelndex' , el tamaño de unidad de transformación mínima es 'MinTransformSize' , y el tamaño de unidad de transformación es 'RootTuSize' cuando el aviso de tamaño TU es 0, entonces, el tamaño de unidad, de transformación mínima actual 'CurrMinTuSize' que puede determinarse en una unidad de codificación actual, podría ser definido por la Ecuación (1) : CurrMinTuSize = max (MinTransformSize , RootTuSize/ (2AMaxTransformSizelndex) ) ... (1) .
Comparado con el tamaño de unidad de transformación mínima actual 'CurrMinTuSize' que puede determinarse en la unidad de codificación actual, el tamaño de unidad de transformación 'RootTuSize' cuando el aviso de tamaño TU es 0 podría denotar un tamaño de unidad de transformación máxima que puede ser seleccionado en el sistema. En la Ecuación (1) , 'RootTuSize/ ( 2 AMaxTransformSizelndex) ' denota el tamaño de unidad de transformación cuando el tamaño de unidad de transformación 'RootTuSize' , cuando el aviso de tamaño TU es 0, es dividido un número de veces que corresponde con el aviso de tamaño TU máximo, y 'MinTransformSize' denota el tamaño de transformación mínima. De esta manera, el valor más pequeño de entre 'RootTuSize/ (2 AMaxTransformSizelndex) ' y 'MinTransformSize' podría ser el tamaño de unidad de transformación mínima actual 'CurrMinTuSize' que puede determinarse en la unidad de codificación actual.
El tamaño de unidad de transformación máxima 'RootTuSize' podría variar de acuerdo con el tipo del modo de predicción.
Por ejemplo, si el modo de predicción actual es un inter-modo, entonces, 'RootTuSize' podría ser determinado utilizando la siguiente Ecuación (2) . En la Ecuación (2) , 'MaxTransformSize' denota el tamaño de unidad de transformación máxima, y 'PUSize' denota el tamaño de unidad de predicción actual.
RootTuSize = min(MaxTransformSize, PUSize) ... (2) .
Es decir, si el modo de predicción actual es el inter-modo, el tamaño de unidad de transformación 'RootTuSize' cuando el aviso de tamaño TU es 0, podría ser un valor más pequeño de entre el tamaño de unidad de transformación máxima y el tamaño de unidad de predicción actual .
Si el modo de predicción de una unidad de partición actual es un intra-modo, 'RootTuSize' podría ser determinado utilizando la siguiente Ecuación (3). En la Ecuación (3), 1 artitionSize ' . denota el tamaño de la unidad de partición actual .
RootTuSize = min (MaxTransformSize, PartitionSize) ... (3) .
Es decir, si el modo de predicción actual es el intra-modo, el tamaño de unidad de transformación 'RootTuSize' cuando el aviso de tamaño TU es 0 podría ser un valor más pequeño de entre el tamaño de unidad de transformación máxima y el tamaño de la unidad de partición actual .
Sin embargo, el tamaño de unidad de transformación máxima actual 'RootTuSize' , que varía de acuerdo con el tipo del modo de predicción en la unidad de partición, es simplemente de ejemplo, y no es limitado a la misma.
La Figura 32 es un diagrama de flujo que ilustra un método de codificación de video utilizando una unidad de datos de fusión en función de las unidades de codificación que tienen una estructura de árbol, de acuerdo con una modalidad de la presente invención ejemplo.
En la operación 1210, una imagen actual de un video es dividida en unidades de codificación máxima.
En la operación 1220, los datos de imagen podrían ser codificados como las unidades de codificación de acuerdo con las profundidades para cada unidad de codificación máxima de la imagen actual, una profundidad que genera el error de codificación más pequeño podría ser seleccionada . y determinada de acuerdo con una profundidad codificada, y podrían determinarse las unidades de codificación que tiene una estructura de árbol comprendidas de las unidades de codificación de la profundidad determinada para que sea la profundidad codificada. Los datos de imagen de acuerdo con las unidades codificadas de codificación máxima de acuerdo con la unidad determinada . de codificación podrían ser salidos .
En la operación 1230, podría determinarse si la fusión de la unidad de datos entre las unidades vecinas de datos es realizada en las unidades de predicción o las particiones de las unidades de codificación que tienen una estructura de árbol. La información relacionada de predicción podría ser compartida entre las unidades unidas de datos. La necesidad de la fusión de la unidad de datos . para compartir la información relacionada de predicción con una unidad vecina de datos podría ser analizada aun cuando un modo de predicción de una unidad actual de predicción o una partición actual de las unidades de codificación que tiene una estructura de árbol es un modo de salto o un modo directo.
En la operación 1230, la información acerca de un modo de codificación de las unidades de codificación que tienen la estructura de árbol podría ser codificada para incluir la información relacionada de fusión que incluye la información de fusión y la información de índice de fusión. La información acerca del modo de codificación y los datos de imagen de la unidad de codificación máxima codificada en función de las unidades de codificación que tienen la estructura de árbol podría ser salida en flujos de bits.
La Figura 33 es un diagrama de flujo que ilustra un método de decodificación de un video utilizando la fusión de unidad de datos en función de las unidades de codificación que tienen una estructura de árbol de acuerdo con una modalidad de ejemplo.
En la operación 1310, un flujo.de bits de un video codificado es recibido y analizado. En la operación 1320, son extraídos los datos codificados de imagen de los datos de imagen de imagen actual codificados para cada unidad de codificación de acuerdo con las unidades de codificación que tienen una estructura de árbol es extraída del flujo analizado de bits de acuerdo con las unidades de codificación máxima, y la información acerca de una profundidad codificada y un modo de codificación. A partir de la información acerca de la profundidad codificada y el modo de codificación, la información relacionada de fusión podría ser extraída. La posibilidad de extraer y leer la información relacionada de fusión podría determinarse en función de la información de modo de predicción. Por ejemplo, la información relacionada de fusión podría ser extraída en función de la información de modo de salto o la información directa para una unidad actual de predicción o una partición actual de las unidades de codificación que tienen la estructura de árbol. Asimismo, la información de fusión y la información de índice de fusión podrían ser extraídas como la información relacionada de fusión.
En la operación 1330, la información acerca de un tipo de partición, un modo de predicción, y una unidad de transformación de una unidad de predicción de las unidades de codificación que tienen la estructura de árbol podría ser leída en función de la información acerca del modo de codificación y la profundidad codificada de la unidad de codificación máxima, y podría ser utilizada para decodificar los datos de imagen de la unidad de codificación máxima.
Asimismo, el objeto que será urdido podría ser buscado de entre una pluralidad de las unidades vecinas de datos que rodean una unidad actual de datos y la fusión de la unidad de datos podría determinarse en función de la información relacionada de fusión. La estimación y compensación de movimiento de la unidad actual de predicción o una partición actual podría realizarse al inferir la información relacionada de predicción de la unidad actual de predicción o la partición actual compartiendo o con referencia a la información relacionada de predicción de una unidad o partición de predicción designa unida. Los datos de imagen de la unidad de codificación máxima podrían ser restaurados y una imagen actual podría ser restaurada a través de la de codificación que incluye la estimación y compensación de movimiento de acuerdo con las unidades de codificación que tienen la estructura de árbol .
En el aparato 100 y el aparato 200,. debido a que es examinada la posibilidad que la fusión de la unidad de datos para el compartimiento mutuo de la información relacionada de predicción pudiera realizarse en los modos de predicción y las particiones que tienen varios modos de predicción, varios tamaños y formas de acuerdo con una estructura de árbol, la audio es realizada entre las unidades vecinas de datos que tiene varias posiciones copa con lo cual, es posible compartir la información relacionada de predicción. En consecuencia, debido a que los datos redundantes podrían ser removidos utilizando la información periférica en un intervalo más ancho, podría ser mejorado la eficiencia de la codificación de los datos de imagen.
Asimismo, debido a que la información de modo de predicción y la información relacionada de fusión que son codificadas y decodificadas , de manera jerárquica, y continuamente en consideración de una relación estrecha entre la posibilidad de unión y varios modos de predicción, podría ser mejorada la eficiencia de la información de codificación.
Una o más modalidades de ejemplo podrían ser escritas como programas de computadora y podrían ser implementadas computadoras digitales de uso general que ejecutan los programas utilizando un medio de grabación susceptible de ser leído por computadora. Los ejemplos del medio de grabación susceptible de ser leído por computadora incluyen medios magnéticos de almacenamiento (por ejemplo, ROM, discos flexibles, discos duros, etc.) y medios ópticos de grabación (por ejemplo, CD-ROMs, o DVDs) .
Mientras las modalidades de ejemplo han sido particularmente mostradas y descritas con anterioridad, será entendido por aquellas personas de experiencia ordinaria en la técnica que podrían realizarse varios cambios en la forma y los detalles en la misma sin apartarse del espíritu y alcance del concepto inventivo como es definido por las reivindicaciones adjuntas. Las modalidades de ejemplo tienen que ser consideradas solo en un sentido descriptivo y sin propósitos de limitación. Por lo tanto, . el alcance del concepto inventivo es definido no pór la descripción detallada de las modalidades de ejemplo, sino por las reivindicaciones adjuntas, y todas las diferencias dentro del alcance serán interpretadas que son incluidas en la presente invención.
' Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un método de decodificación de un video utilizando la fusión de unidad de datos, caracterizado porque comprende : analizar un flujo recibido de bits para extraer los datos codificados de video y codificar la información y extraer la información de modo de predicción, la información relacionada de fusión y la información relacionada de predicción en la información de codificación; y analizar la ocurrencia de fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos basadas en la información extraída de modo de predicción y la información extraída relacionada de fusión, y realizar la inter-predicción y la compensación de movimiento utilizando la información relacionada de predicción al menos de una unidad vecina de datos en una unidad actual de datos unida al menos con una unidad vecina de datos, para decodificar los datos codificados de video de acuerdo con las unidades de datos determinadas en función de la información de codificación.
2. El método de conformidad con la reivindicación 1, caracterizado porque: la unidad actual de datos comprende al menos una de una unidad de codificación obtenida dividiendo la imagen con el objeto de decodificar la imagen, y una unidad de predicción obtenida dividiendo la imagen para la decodificación de predicción de la imagen; la extracción y la lectura comprenden extraer y leer, para cada unidad de datos, la información de modo de salto que indica si un modo de predicción de la unidad actual de datos es un modo de salto, y determinar, para cada unidad de datos, si la información de fusión, que indica si la unidad actual de datos y al menos una unidad vecina de datos están unidas entre sí, es extraída en función de la lectura de la información de modo de salto; y la decodificación comprende determinar la ocurrencia de la fusión al menos con una unidad vecina de datos en función de la información de fusión para cada unidad de datos .
3. El método de conformidad con la reivindicación 2, caracterizado porque la extracción y la lectura además comprenden : extraer la información de diferencial de vector de movimiento de la unidad actual de datos en función de la información de fusión y determinar si la información auxiliar de predicción de la unidad actual de datos es extraída; y extraer la información de índice de fusión que indica la unidad de datos que será unida con la unidad actual de datos de la información relacionada de fusión.
4. El método de conformidad con la reivindicación 1, caracterizado porque si la unidad actual de datos es unida al menos con una unidad vecina de datos basada en la información de fusión de la información extraída relacionada de fusión, el análisis comprende: determinar al menos un grupo candidato de unidad de datos que comprende unidades de datos que son candidatas de fusión con la unidad actual de datos en regiones circundantes a la unidad actual.de datos en función de la información de índice de fusión en la información relacionada de fusión; y determinar una unidad de datos que será unida con la unidad actual de datos de entre las unidades de datos al menos en el grupo determinado candidato de unidad de datos .
5. El método de conformidad con la reivindicación 1, caracterizado porque si la unidad actual de datos comprende una partición que es obtenida dividiendo una unidad de predicción, para la inter-predicción de una imagen, el análisis y la extracción comprenden extraer la información de modo de salto de la información de modo de predicción para cada modo de predicción, y si la unidad de predicción es dividida en particiones, extraer la información relacionada de fusión para cada partición; la extracción además comprende extraer, de manera secuencial, la información de modo de salto, la información de unidad de predicción, la información de partición, y la información de fusión acerca de la unidad de predicción; la fusión mutua no es realizada entre las particiones vecinas obtenidas dividiendo una unidad de datos para ía inter-predicción; y la información de partición comprende la información acerca de si la unidad de predicción es dividida en particiones y la información acerca de un tipo de partición.
6. El método de conformidad con la reivindicación 1, caracterizado porque: en el proceso de codificación de una imagen, con respecto a una unidad de codificación máxima obtenida dividiendo la imagen en unidades de codificación con tamaños máximos predeterminados, de acuerdo con las regiones obtenidas dividiendo, en forma jerárquica, una unidad de codificación máxima a medida que la profundidad se profundiza, si una profundidad codificada que es una profundidad que genera un error más pequeño de codificación al realizar la intra-predicción, la inter-predicción, la transformación, y la cuantificación al menos para cada una unidad de datos de acuerdo con las profundidades es determinada para formar unidades de codificación que tienen una estructura de árbol de acuerdo con la unidad de codificación máxima, el análisis y la extracción comprenden extraer la información de codificación que indica un método de codificación que incluye una partición o una unidad de predicción para la intra-predicción o la inter-predicción y los datos codificados que son codificados en función del modo de codificación para cada unidad de codificación de la profundidad codificada, en donde la unidad actual de datos es una unidad de predicción o una partición de la unidad de codificación de la profundidad codificada.
7. Un método de codificación de un video utilizando la fusión de unidad de datos, caracterizado porque comprende: determinar un modo de codificación que indica una unidad actual de datos para la codificación de una imagen y un método de codificación para la codificación de predicción que es realizada para la unidad actual de datos; determinar la ocurrencia de la fusión al menos con una unidad vecina de datos, la unidad vecina actual de datos, basada al menos en uno de un modo de predicción y el modo de codificación; y determinar la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción en función de la ocurrencia determinada de la fusión al menos con una unidad vecina de datos y determinar la información de codificación de la unidad actual de datos que incluye la información determinada de modo de predicción, la información determinada relacionada de fusión, y la información determinada relacionada de predicción.
8. El método de conformidad con la reivindicación 7, caracterizado porque: la unidad actual de datos comprende al menos una de una unidad de codificación obtenida dividiendo la imagen con el objeto de codificar la imagen, y una unidad de predicción obtenida dividiendo la imagen para la codificación de predicción de la imagen; la determinación de la información de codificación comprende determinar, para cada unidad de datos, la información de modo de salto que indica si el modo de predicción de la unidad actual de datos es un modo de salto, y determinar, para cada unidad de datos, si la información de fusión indica si la unidad actual de datos y al menos una unidad vecina de datos están unidas entre sí, será codificada en función de la información determinada de modo de saltó; la información de modo de salto y la información de fusión son determinadas para cada unidad de datos; y la unidad actual de datos comprende · al menos una de una unidad de codificación y una unidad de predicción, cada una de las cuales es obtenida dividiendo la imagen con el objeto de codificar la imagen.
9. El método de conformidad con la reivindicación 8, caracterizado porque la determinación de la información de codificación además comprende: determinar y codificar la información de fusión acerca de la unidad actual de datos y la información de índice de fusión que indica la unidad de datos que será unida como la información relacionada de fusión; y codificar la información de diferencial de vector de movimiento de la unidad de datos en función de la información de fusión y determinar si la información auxiliar de predicción de la unidad actual de datos será codificada.
10. El método de conformidad con la reivindicación 8, caracterizado porque la determinación de la ocurrencia de la fusión comprende: determinar al menos un grupo candidato de unidad de datos que incluyen unidades de datos que son candidatas de fusión con la unidad actual de datos en regiones circundantes a la unidad actual de datos; y buscar y determinar una unidad de datos que será unida con la unidad actual de datos de entre las unidades de datos al menos en el grupo determinado candidato de unidad de datos .
11. El método de conformidad con la reivindicación 8, caracterizado porque, si la unidad actual de datos además comprende una partición que es obtenida dividiendo la unidad de predicción para la inter-predicción de la imagen, la determinación de la información de codificación comprende: codificar la información de modo de salto en la información de modo de predicción para cada unidad de predicción, y si la unidad de predicción es dividida en particiones determinar la información relacionada de fusión para cada partición; y codificar, de manera secuencial, la información de modo de salto, la información de unidad de predicción, la información de partición, y la información de fusión para cada unidad de predicción; la fusión mutua no es realizada entre las particiones vecinas obtenida dividiendo una unidad de datos para la inter-predicción; y la información de partición comprende la información acerca de si la unidad de predicción es dividida en particiones y la información acerca de un tipo de partición.
12. El método de conformidad con la reivindicación 7, caracterizado porque la determinación del modo de codificación comprende: determinar el modo de codificación con respecto a una unidad de codificación máxima obtenida dividiendo la imagen en unidades de codificación con tamaños máximos predeterminados, de acuerdo con las regiones obtenidas dividiendo, en forma jerárquica, la unidad de codificación máxima a medida que la profundidad se profundiza, determinar una profundidad codificada que es una profundidad que genera un error más pequeño de codificación al realizar la intra-predicción, la inter-predicción, la transformación, y la cuantificación al menos para cada una unidad de codificación de acuerdo con las profundidades, determinar un modo de codificación que indica un método de codificación que incluye una partición o una unidad de predicción para la intra-predicción o la inter-predicción para cada unidad de codificación de la profundidad codificada, y determinar las unidades de codificación que tienen una estructura de árbol de acuerdo con la unidad de codificación máxima, en donde la unidad actual de datos es una unidad de predicción o una partición de la unidad de codificación de la profundidad codificada.
13. Un aparato para la decodificación de un video utilizando la fusión de unidad de datos, caracterizado porque comprende : un analizador y extractor que analiza un flujo recibido de bits para extraer los datos codificados de video y la información de codificación y para extraer la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción en la información de codificación; y un fusionador y decodificador de unidad de datos que realiza la ocurrencia de la fusión al menos con una unidad vecina de datos basada al menos en uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos basadas en la información extraída de modo de predicción y la información extraída relacionada de fusión y realiza la inter-predicción y la compensación de movimiento utilizando la información relacionada de predicción al menos de una unidad vecina de datos en una unidad actual de datos unida con la unidad vecina de datos, para decodificar los datos codificados de video de acuerdo con las unidades de datos determinadas en función de la información de codificación.
14. Un aparato para la codificación de un video utilizando la fusión de unidad de datos, caracterizado porque comprende: un determinador de modo de codificación que determina el modo de codificación que indica una unidad actual de datos para la codificación de una imagen y un método de codificación que incluye la codificación de predicción para la unidad actual de datos; un determinador de fusión de unidad de datos que determina la ocurrencia de la fusión al menos con una unidad vecina de datos, la unidad vecina actual de datos, basada al menos en uno de un modo de predicción y el modo de codificación; y un determinador de información de codificación que determina la información de modo de predicción, la información relacionada de -fusión, y la información relacionada de predicción en función de la ocurrencia determinada de la fusión con la unidad vecina de datos y determina la información de codificación de la unidad actual de datos que incluye la información de modo de predicción, la información relacionada de fusión, y la información relacionada de predicción.
15. El medio de grabación susceptible de ser leído por computadora, caracterizado porque tiene incluido en el mismo un programa para la ejecución de uno de los métodos de conformidad con las reivindicaciones 1 y 7.
MX2013000345A 2010-07-09 2011-07-07 Metodo y aparato de codifcacion de video utilizando fusion de bloque, y metodo y aparato de decodificacion de video utilizando fusion de bloque. MX2013000345A (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US36282910P 2010-07-09 2010-07-09
US36795210P 2010-07-27 2010-07-27
KR20110006486A KR101484281B1 (ko) 2010-07-09 2011-01-21 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
PCT/KR2011/004969 WO2012005520A2 (en) 2010-07-09 2011-07-07 Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging

Publications (1)

Publication Number Publication Date
MX2013000345A true MX2013000345A (es) 2013-03-20

Family

ID=45611872

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013000345A MX2013000345A (es) 2010-07-09 2011-07-07 Metodo y aparato de codifcacion de video utilizando fusion de bloque, y metodo y aparato de decodificacion de video utilizando fusion de bloque.

Country Status (24)

Country Link
EP (2) EP2924996B1 (es)
JP (5) JP5738991B2 (es)
KR (7) KR101484281B1 (es)
CN (6) CN104869404B (es)
AU (1) AU2011274722B2 (es)
BR (5) BR112013000555B1 (es)
CA (5) CA2886721C (es)
CY (1) CY1118484T1 (es)
DK (1) DK2580912T3 (es)
ES (5) ES2688033T3 (es)
HR (5) HRP20170129T1 (es)
HU (5) HUE031789T2 (es)
LT (5) LT2924996T (es)
MX (1) MX2013000345A (es)
MY (5) MY178329A (es)
PH (4) PH12015500916B1 (es)
PL (4) PL2897365T3 (es)
PT (5) PT2924995T (es)
RS (4) RS55650B1 (es)
RU (6) RU2013105501A (es)
SG (6) SG196797A1 (es)
SI (4) SI2858366T1 (es)
TR (1) TR201813132T4 (es)
ZA (1) ZA201300578B (es)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT3567852T (pt) 2009-03-23 2023-01-11 Ntt Docomo Inc Dispositivo de descodificação de previsão de imagem e método de descodificação de previsão de imagem
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
SI2924995T1 (sl) 2010-07-09 2018-10-30 Samsung Electronics Co., Ltd. Postopek za dekodiranje videa z uporabo združevanja blokov
RU2619202C1 (ru) * 2010-07-20 2017-05-12 Нтт Докомо, Инк. Устройство кодирования изображений с предсказанием, способ кодирования изображений с предсказанием, программа кодирования изображений с предсказанием, устройство декодирования изображений с предсказанием, способ декодирования изображений с предсказанием и программа декодирования изображений с предсказанием
EP2636218B1 (en) * 2010-11-04 2021-06-30 GE Video Compression, LLC Picture coding supporting block merging and skip mode
US11284081B2 (en) 2010-11-25 2022-03-22 Lg Electronics Inc. Method for signaling image information, and method for decoding image information using same
KR102367972B1 (ko) * 2010-11-25 2022-02-25 엘지전자 주식회사 영상 정보의 시그널링 방법 및 이를 이용한 영상 정보의 복호화 방법
JP2012209911A (ja) * 2010-12-20 2012-10-25 Sony Corp 画像処理装置および方法
US10171813B2 (en) 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
CN107197272B (zh) * 2011-08-29 2019-12-06 苗太平洋控股有限公司 以合并模式对图像编码的方法
KR102070431B1 (ko) * 2012-01-19 2020-01-28 삼성전자주식회사 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
AU2012200345B2 (en) * 2012-01-20 2014-05-01 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the significance map residual coefficients of a transform unit
KR101895389B1 (ko) * 2012-11-27 2018-10-18 연세대학교 산학협력단 영상 부호화 방법 및 장치
CN104104964B (zh) * 2013-04-09 2019-03-12 乐金电子(中国)研究开发中心有限公司 一种深度图像帧间编码、解码方法、编码器及解码器
US9497485B2 (en) 2013-04-12 2016-11-15 Intel Corporation Coding unit size dependent simplified depth coding for 3D video coding
CN105659602B (zh) * 2013-10-14 2019-10-08 微软技术许可有限责任公司 用于视频和图像编码的帧内块复制预测模式的编码器侧选项
WO2015054812A1 (en) 2013-10-14 2015-04-23 Microsoft Technology Licensing, Llc Features of base color index map mode for video and image coding and decoding
WO2015054811A1 (en) 2013-10-14 2015-04-23 Microsoft Corporation Features of intra block copy prediction mode for video and image coding and decoding
MX360926B (es) 2014-01-03 2018-11-22 Microsoft Technology Licensing Llc Prediccion de vector de bloque en codificacion/descodificacion de video e imagen.
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
EP3253059A1 (en) 2014-03-04 2017-12-06 Microsoft Technology Licensing, LLC Block flipping and skip mode in intra block copy prediction
CN106031170B (zh) * 2014-04-01 2019-04-26 联发科技股份有限公司 运动信息编码的方法
EP3158734A4 (en) 2014-06-19 2017-04-26 Microsoft Technology Licensing, LLC Unified intra block copy and inter prediction modes
US20160029022A1 (en) * 2014-07-25 2016-01-28 Mediatek Inc. Video processing apparatus with adaptive coding unit splitting/merging and related video processing method
KR102330740B1 (ko) 2014-09-30 2021-11-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 파면 병렬 프로세싱이 인에이블되는 경우의 인트라 픽쳐 예측 모드에 대한 규칙
CN107113440B (zh) * 2014-10-31 2020-10-13 三星电子株式会社 一种由视频解码装置执行的视频解码方法
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
WO2016178485A1 (ko) * 2015-05-05 2016-11-10 엘지전자 주식회사 영상 코딩 시스템에서 코딩 유닛 처리 방법 및 장치
US10659783B2 (en) 2015-06-09 2020-05-19 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
EP3355579A4 (en) * 2015-11-24 2018-08-01 Samsung Electronics Co., Ltd. Method for encoding/decoding image and device therefor
US11095892B2 (en) 2016-09-20 2021-08-17 Kt Corporation Method and apparatus for processing video signal
WO2018070742A1 (ko) * 2016-10-11 2018-04-19 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20180045530A (ko) * 2016-10-26 2018-05-04 디지털인사이트 주식회사 임의의 블록 분할을 사용하는 비디오 코딩 방법 및 장치
WO2018128380A1 (ko) * 2017-01-03 2018-07-12 엘지전자(주) 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
CN116886898A (zh) 2017-01-16 2023-10-13 世宗大学校产学协力团 影像解码/编码方法以及传送比特流的方法
KR102390413B1 (ko) * 2017-03-03 2022-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
WO2019066574A1 (ko) 2017-09-28 2019-04-04 삼성전자 주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
WO2019194514A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN117834910A (zh) 2018-07-02 2024-04-05 英迪股份有限公司 对视频进行解码的方法和对视频进行编码的方法
CN112889289A (zh) * 2018-10-10 2021-06-01 三星电子株式会社 通过使用运动矢量差分值对视频进行编码和解码的方法以及用于对运动信息进行编码和解码的设备
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
WO2020085953A1 (en) * 2018-10-25 2020-04-30 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for inter prediction
WO2020094051A1 (en) * 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Signaling of side information for inter prediction with geometric partitioning
CN117459722A (zh) 2018-11-12 2024-01-26 北京字节跳动网络技术有限公司 组合帧间-帧内预测的简化
EP3861742A4 (en) 2018-11-20 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. DIFFERENCE CALCULATION BASED ON SPATIAL POSITION
WO2020103870A1 (en) * 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
US20200169757A1 (en) * 2018-11-23 2020-05-28 Mediatek Inc. Signaling For Multi-Reference Line Prediction And Multi-Hypothesis Prediction
GB2580084B (en) * 2018-12-20 2022-12-28 Canon Kk Video coding and decoding
CN115442616A (zh) * 2018-12-21 2022-12-06 华为技术有限公司 视频解码方法及装置
WO2020177755A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Usage of converted uni-prediction candidate
EP3922014A4 (en) 2019-04-02 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. DECODER SIDE MOTION VECTOR BYPASS
US11616966B2 (en) * 2019-04-03 2023-03-28 Mediatek Inc. Interaction between core transform and secondary transform
CN113647102A (zh) * 2019-04-09 2021-11-12 北京达佳互联信息技术有限公司 用于在视频编解码中用信号发送合并模式的方法和装置
JP6931038B2 (ja) * 2019-12-26 2021-09-01 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
CN115955565B (zh) * 2023-03-15 2023-07-04 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
KR100223170B1 (ko) * 1996-07-22 1999-10-15 윤종용 영역기반 동영상부호화시스템의 영역분할 및움직임추정을 동시에최적화하기 위한 방법 및 장치
US6043846A (en) * 1996-11-15 2000-03-28 Matsushita Electric Industrial Co., Ltd. Prediction apparatus and method for improving coding efficiency in scalable video coding
EP0945001B1 (en) * 1996-12-18 2003-04-23 Thomson Consumer Electronics, Inc. A multiple format video signal processor
JP2004208259A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
US7720154B2 (en) * 2004-11-12 2010-05-18 Industrial Technology Research Institute System and method for fast variable-size motion estimation
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
WO2008084423A1 (en) 2007-01-08 2008-07-17 Nokia Corporation Improved inter-layer prediction for extended spatial scalability in video coding
EP2123042A4 (en) * 2007-01-24 2010-03-10 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
WO2008102805A1 (ja) * 2007-02-23 2008-08-28 Nippon Telegraph And Telephone Corporation 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
CN101682769B (zh) * 2007-04-12 2016-11-09 汤姆森特许公司 用于视频编码和解码的跳过-直接模式的取决于环境的合并的方法和装置
JP5801054B2 (ja) * 2007-06-12 2015-10-28 トムソン ライセンシングThomson Licensing スライスデータ用のマルチパスビデオのシンタックス構造をサポートする方法及び装置
KR102231772B1 (ko) * 2007-10-16 2021-03-23 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
JP2009239852A (ja) * 2008-03-28 2009-10-15 Fujifilm Corp 画像処理装置及び画像処理方法
JP2012504925A (ja) * 2008-10-06 2012-02-23 エルジー エレクトロニクス インコーポレイティド ビデオ信号の処理方法及び装置
KR100930744B1 (ko) * 2009-03-04 2009-12-09 엘지전자 주식회사 모션 벡터 예측 방법
JP5368631B2 (ja) * 2010-04-08 2013-12-18 株式会社東芝 画像符号化方法、装置、及びプログラム
KR102166520B1 (ko) * 2010-04-13 2020-10-16 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치

Also Published As

Publication number Publication date
BR122020014021B1 (pt) 2022-05-31
CA2804780C (en) 2018-01-09
KR101529995B1 (ko) 2015-06-19
CN104869406B (zh) 2017-10-17
LT2924996T (lt) 2018-10-10
CA2886964A1 (en) 2012-01-12
HUE031789T2 (en) 2017-07-28
BR112013000555B1 (pt) 2022-02-15
MY189716A (en) 2022-02-28
EP2924996B1 (en) 2018-09-12
HRP20181469T1 (hr) 2018-11-16
MY178332A (en) 2020-10-08
JP2015136146A (ja) 2015-07-27
LT2924995T (lt) 2018-10-10
CY1118484T1 (el) 2017-07-12
JP2015100137A (ja) 2015-05-28
CN104869406A (zh) 2015-08-26
EP3442230B1 (en) 2021-04-21
CA2886721C (en) 2016-10-18
BR122020014021A2 (pt) 2020-10-20
EP2924996A1 (en) 2015-09-30
BR122020014015A2 (pt) 2020-10-13
SG186970A1 (en) 2013-02-28
HRP20170169T1 (hr) 2017-03-24
BR122020014007A2 (pt) 2020-10-13
SG10201503381WA (en) 2015-06-29
CN104869407B (zh) 2017-04-12
SG196797A1 (en) 2014-02-13
CA2886960C (en) 2017-05-02
PT2924996T (pt) 2018-10-24
SI2897365T1 (sl) 2017-03-31
KR101529996B1 (ko) 2015-06-19
CA2886721A1 (en) 2012-01-12
KR101484281B1 (ko) 2015-01-21
JP5873195B2 (ja) 2016-03-01
ES2688031T3 (es) 2018-10-30
JP2015136145A (ja) 2015-07-27
ES2613610T3 (es) 2017-05-24
BR122020014015B1 (pt) 2022-02-01
JP5945022B2 (ja) 2016-07-05
AU2011274722B2 (en) 2015-05-21
LT2580912T (lt) 2017-02-10
CN103155563A (zh) 2013-06-12
BR122020014018A2 (pt) 2020-10-13
RU2013105501A (ru) 2014-10-20
RU2575990C1 (ru) 2016-02-27
PH12015500919B1 (en) 2015-06-29
EP3442230A1 (en) 2019-02-13
JP2015100136A (ja) 2015-05-28
AU2011274722A1 (en) 2013-01-31
RS55650B1 (sr) 2017-06-30
PT2924995T (pt) 2018-10-19
CN104869407A (zh) 2015-08-26
PT2897365T (pt) 2017-02-13
SI2924996T1 (sl) 2018-10-30
PL2580912T3 (pl) 2017-06-30
ES2614203T3 (es) 2017-05-30
KR20140066146A (ko) 2014-05-30
HUE033265T2 (en) 2017-11-28
BR122020014018B1 (pt) 2022-02-01
ES2631031T3 (es) 2017-08-25
KR101653274B1 (ko) 2016-09-01
CN104869404A (zh) 2015-08-26
HUE033266T2 (en) 2017-11-28
PL2924996T3 (pl) 2018-12-31
RS57674B1 (sr) 2018-11-30
CN104869408A (zh) 2015-08-26
LT2858366T (lt) 2017-02-27
SG10201503378VA (en) 2015-06-29
RU2586035C2 (ru) 2016-06-10
MY178325A (en) 2020-10-08
ZA201300578B (en) 2015-11-25
KR20140100928A (ko) 2014-08-18
DK2580912T3 (da) 2017-02-13
RU2575983C1 (ru) 2016-02-27
PH12015500919A1 (en) 2015-06-29
SG10201503383PA (en) 2015-06-29
CN104869405A (zh) 2015-08-26
CA2804780A1 (en) 2012-01-12
PL2897365T3 (pl) 2017-04-28
CA2886964C (en) 2016-10-25
RU2577182C1 (ru) 2016-03-10
MY156223A (en) 2016-01-29
RU2014119390A (ru) 2015-11-20
KR101559876B1 (ko) 2015-10-13
TR201813132T4 (tr) 2018-09-21
CN104869404B (zh) 2017-06-23
HRP20181468T1 (hr) 2018-11-16
PH12015500918A1 (en) 2015-06-29
BR122020014007B1 (pt) 2022-02-01
PT2858366T (pt) 2017-02-13
HRP20170129T1 (hr) 2017-03-24
KR101559875B1 (ko) 2015-10-13
CN104869408B (zh) 2019-12-10
HUE041712T2 (hu) 2019-05-28
KR20140100929A (ko) 2014-08-18
RS55677B1 (sr) 2017-06-30
CN104869405B (zh) 2018-04-27
JP5945021B2 (ja) 2016-07-05
JP5873196B2 (ja) 2016-03-01
RU2575982C1 (ru) 2016-02-27
JP5738991B2 (ja) 2015-06-24
KR20140101713A (ko) 2014-08-20
KR20140101327A (ko) 2014-08-19
LT2897365T (lt) 2017-02-27
HRP20170168T1 (hr) 2017-03-24
CN103155563B (zh) 2016-09-21
MY178329A (en) 2020-10-08
JP2013530658A (ja) 2013-07-25
HUE041270T2 (hu) 2019-05-28
SI2580912T1 (sl) 2017-03-31
PH12015500917A1 (en) 2015-06-29
PH12015500918B1 (en) 2015-06-29
PH12015500916A1 (en) 2015-06-29
RS55668B1 (sr) 2017-06-30
KR20120005932A (ko) 2012-01-17
KR20140099855A (ko) 2014-08-13
CA2886724A1 (en) 2012-01-12
CA2886724C (en) 2016-05-03
ES2688033T3 (es) 2018-10-30
SG10201503379SA (en) 2015-06-29
PH12015500916B1 (en) 2015-06-29
SI2858366T1 (sl) 2017-03-31
PT2580912T (pt) 2017-02-06
PH12015500917B1 (en) 2015-06-29
KR101524643B1 (ko) 2015-06-03
PL2858366T3 (pl) 2017-04-28
CA2886960A1 (en) 2012-01-12
BR112013000555A2 (pt) 2020-09-24

Similar Documents

Publication Publication Date Title
MX2013000345A (es) Metodo y aparato de codifcacion de video utilizando fusion de bloque, y metodo y aparato de decodificacion de video utilizando fusion de bloque.
EP2858366B1 (en) Method for decoding video by using block merging
PH12016501353B1 (en) Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image
AU2010328813A1 (en) Method and apparatus for encoding video by motion prediction using arbitrary partition, and method and apparatus for decoding video by motion prediction using arbitrary partition
MX2014000160A (es) Metodo y aparato para codificar informacion de movimento y metodo y aparato para decodificar la misma.
AU2015201607B2 (en) Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
AU2014218479B2 (en) Method and apparatus for encoding video by motion prediction using arbitrary partition, and method and apparatus for decoding video by motion prediction using arbitrary partition
AU2013202015B2 (en) Method and apparatus for encoding video, and method and apparatus for decoding video

Legal Events

Date Code Title Description
FG Grant or registration