ES2631031T3 - Aparato de descodificación de vídeo mediante el uso de fusión de bloques - Google Patents

Aparato de descodificación de vídeo mediante el uso de fusión de bloques Download PDF

Info

Publication number
ES2631031T3
ES2631031T3 ES15154330.3T ES15154330T ES2631031T3 ES 2631031 T3 ES2631031 T3 ES 2631031T3 ES 15154330 T ES15154330 T ES 15154330T ES 2631031 T3 ES2631031 T3 ES 2631031T3
Authority
ES
Spain
Prior art keywords
unit
information
partition
data
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15154330.3T
Other languages
English (en)
Inventor
Tammy Lee
Woo-Jin Han
Il-Koo Kim
Sun-Il Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2631031T3 publication Critical patent/ES2631031T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

Un aparato de descodificación de un vídeo, comprendiendo el aparato: un analizador sintáctico que obtiene, de un flujo de bits recibido, un indicador de omisión para una unidad de codificación que indica si un modo de codificación para la unidad de codificación es un modo de omisión y, cuando el indicador de omisión indica un modo no de omisión, obtiene, del flujo de bits, una información acerca de un tipo de partición para la predicción y la determinación de al menos una partición a partir de la unidad de codificación usando la información acerca de un tipo de partición y obtiene, del flujo de bits recibido, un indicador de fusión para la partición; y una unidad de obtención de información de movimiento que, cuando el indicador de fusión para la partición indica un modo de fusión, obtiene un índice de fusión para la partición y la determinación de información de movimiento para la partición usando información de movimiento de un bloque que indica el índice de fusión y, cuando el indicador de fusión para la partición indica un modo de no fusión, obtiene, del flujo de bits, información de movimiento para la partición; y un descodificador de datos que, cuando el indicador de fusión para la partición indica un modo de fusión, realiza una compensación de movimiento sobre la partición usando la información de movimiento determinada del bloque que indica el índice de fusión y, cuando el indicador de fusión para la partición indica un modo de no fusión, realiza una compensación de movimiento sobre la partición usando la información de movimiento obtenida, caracterizado porque el índice de fusión indica un bloque de entre un grupo de bloques candidatos de fusión que comprende uno o más bloques de entre los siguientes tres bloques colindantes de la partición: un bloque inferior izquierdo ubicado en un lado izquierdo de un bloque lo más a la izquierda de entre los bloques inferiores directamente por debajo de un límite inferior de la partición, un bloque superior izquierdo ubicado en un lado izquierdo de un bloque lo más a la izquierda de entre los bloques superiores directamente por encima de un límite superior de la partición, estando ubicado el bloque superior izquierdo por encima de un bloque lo más superior de entre los bloques izquierdos adyacentes al límite izquierdo de la partición, y un bloque superior derecho ubicado en un lado derecho de un bloque lo más a la derecha de entre los bloques superiores directamente por encima del límite superior de la partición.

Description

10
15
20
25
30
35
40
45
DESCRIPCION
Aparato de descodificacion de v^deo mediante el uso de fusion de bloques Campo tecnico
Los aparatos y procedimientos consistentes con realizaciones a modo de ejemplo se refieren a la codificacion y la descodificacion de un video mediante el uso de fusion de bloques para codificacion de prediccion.
Antecedentes de la tecnica
Con el fin de codificar bloques en una imagen actual, las tecnologfas de compresion de video usan, en general, un procedimiento de estimacion / compensacion de movimiento que usa informacion de prediccion de un bloque lo mas similar de entre bloques colindantes, y un procedimiento de compresion que reduce un tamano de datos de video mediante la retirada de los datos redundantes mediante la codificacion de una senal diferencial entre una imagen previa y una imagen actual a traves de una transformada discreta del coseno (DCT, discrete cosine transform).
A medida que se ha desarrollado y suministrado soporte ffsico para reproducir y almacenar contenido de video de alta resolucion o de alta calidad, ha aumentado la demanda de un codec de video para codificar o descodificar de forma eficaz el contenido de video de alta resolucion o de alta calidad. En un codec de video de la tecnica relacionada, un video se codifica de acuerdo con un procedimiento de codificacion limitada sobre la base de un macrobloque que tiene un tamano previamente determinado. Asimismo, el codec de video de la tecnica relacionada codifica y descodifica datos de video mediante la realizacion de una transformacion y una transformacion inversa sobre macrobloques mediante el uso de bloques que tienen, cada uno, el mismo tamano.
Se considera que el documento WO 2008/127597 A2 (THOMSON LICENSING [FR]; DIVORRA ESCODA OSCAR [US]; YIN PEnG [US]), publicado el 23 de octubre de 2008, (), es tecnica anterior relevante.
Divulgacion de la invencion
Problema tecnico
Se proporciona un aparato para descodificar un video mediante el uso de fusion de bloques.
Solucion al problema
La invencion se define mediante un aparato para descodificar un video segun se enuncia mediante la reivindicacion. Breve descripcion de los dibujos
La figura 1 es un diagrama de bloques de un aparato para codificar un video mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo;
la figura 2 es un diagrama de bloques de un aparato para descodificar un video mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo;
la figura 3 es un diagrama que ilustra unos bloques colindantes que se pueden fusionar con un macrobloque actual de acuerdo con una tecnica relacionada;
las figuras 4 y 5 son unos diagramas para explicar procedimientos de seleccion de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes de la unidad de datos actual, de acuerdo con una tecnica relacionada y una realizacion a modo de ejemplo, respectivamente; las figuras 6 y 7 son unos diagramas de bloques para explicar ordenes de codificacion y de descodificacion de una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion, de acuerdo con realizaciones a modo de ejemplo;
las figuras 8 y 9 son unos diagramas para explicar procedimientos de seleccion de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes ampliadas de la unidad de datos actual, de acuerdo con una tecnica relacionada y una realizacion a modo de ejemplo, respectivamente; las figuras 10, 11 y 12 son unos diagramas de bloques para explicar ordenes de codificacion y de descodificacion de una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion, de acuerdo con diversas realizaciones a modo de ejemplo;
la figura 13 es un diagrama que ilustra unas unidades de datos colindantes que no se fusionan con una particion actual, de acuerdo con una realizacion a modo de ejemplo;
la figura 14 es un diagrama que ilustra una unidad de datos candidata que vana de acuerdo con una forma y una posicion de una particion actual, de acuerdo con una realizacion a modo de ejemplo;
la figura 15 es un diagrama que ilustra unas unidades de datos colindantes que pueden no fusionarse con una particion actual que es una particion que tiene una forma geometrica, de acuerdo con una realizacion a modo de ejemplo;
la figura 16 es un diagrama que ilustra un ejemplo en el que se usa una unidad de datos colindante que se determina que se va a fusionar con una unidad de datos actual, de acuerdo con una realizacion a modo de ejemplo;
5
10
15
20
25
30
35
40
45
50
55
60
la figura 17 es un diagrama de flujo que ilustra un procedimiento de codificacion de un v^deo mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo;
la figura 18 es un diagrama de flujo que ilustra un procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos de acuerdo con una realizacion a modo de ejemplo;
la figura 19 es un diagrama de bloques de un aparato para codificar un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una realizacion a modo de ejemplo;
la figura 20 es un diagrama de bloques de un aparato para descodificar un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una realizacion a modo de ejemplo;
la figura 21 es un diagrama para explicar un concepto de unidades de codificacion, de acuerdo con una realizacion a modo de ejemplo;
la figura 22 es un diagrama de bloques de una unidad de codificacion de imagen sobre la base de unidades de codificacion, de acuerdo con una realizacion a modo de ejemplo;
la figura 23 es un diagrama de bloques de un descodificador de imagen sobre la base de unidades de codificacion, de acuerdo con una realizacion a modo de ejemplo;
la figura 24 es un diagrama que ilustra unas unidades de codificacion de acuerdo con las profundidades y las particiones, de acuerdo con una realizacion a modo de ejemplo;
la figura 25 es un diagrama para explicar una relacion entre una unidad de codificacion y unas unidades de transformacion, de acuerdo con una realizacion a modo de ejemplo;
la figura 26 es un diagrama para explicar informacion de codificacion de unas unidades de codificacion que se corresponden con una profundidad codificada, de acuerdo con una realizacion a modo de ejemplo; la figura 27 es un diagrama que ilustra unas unidades de codificacion de acuerdo con las profundidades, de acuerdo con una realizacion a modo de ejemplo;
las figuras 28 a 30 son unos diagramas para explicar una relacion entre las unidades de codificacion, las unidades de prediccion y las unidades de transformacion, de acuerdo con una realizacion a modo de ejemplo; la figura 31 es un diagrama para explicar una relacion entre una unidad de codificacion, una unidad de prediccion, y una unidad de transformacion, de acuerdo con una informacion de modo de codificacion de la tabla
2;
la figura 32 es un diagrama de flujo que ilustra un procedimiento de codificacion de un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una realizacion a modo de ejemplo; y
la figura 33 es un diagrama de flujo que ilustra un procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una realizacion a modo de ejemplo.
Mejor modo para llevar a cabo la divulgacion
De acuerdo con un aspecto de una realizacion a modo de ejemplo, se proporciona un procedimiento de codificacion de un video mediante el uso de una fusion de unidades de datos, incluyendo el procedimiento: determinar un modo de codificacion que indica una unidad de datos para la codificacion de una imagen y un procedimiento de codificacion que incluye una codificacion de prediccion que se realiza para cada unidad de datos; determinar una aparicion de fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y el modo de codificacion de acuerdo con las unidades de datos; y determinar una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion sobre la base de la aparicion de fusion con la al menos una unidad de datos colindante de acuerdo con las unidades de datos y determinar una informacion de codificacion de la unidad de datos que incluye la informacion de modo de prediccion, la informacion relacionada con la fusion, y la informacion relacionada con la prediccion.
La determinacion de la informacion de codificacion puede incluir: determinar una informacion de modo de omision que indica si un modo de prediccion de la unidad de datos es un modo de omision y determinar si se codifica una informacion de fusion que indica si se fusionan entre sf la unidad de datos y la al menos una unidad de datos colindante sobre la base de la informacion de modo de omision.
De acuerdo con un aspecto de otra realizacion a modo de ejemplo, se proporciona un procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos, incluyendo el procedimiento: analizar sintacticamente un flujo de bits recibido para extraer unos datos de video codificados y una informacion de codificacion y extraer una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion en la informacion de codificacion; y analizar una aparicion de fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y un modo de codificacion de acuerdo con las unidades de datos sobre la base de la informacion de modo de prediccion y la informacion relacionada con la fusion, y realizar una inter prediccion y una compensacion de movimiento mediante el uso de una informacion relacionada con la prediccion de la al menos una unidad de datos colindante sobre una unidad de datos que se fusiona con la al menos una unidad de datos colindante, para descodificar los datos de video codificados de acuerdo con las unidades de datos que se determinan sobre la base de la informacion de codificacion.
5
10
15
20
25
30
35
40
45
50
55
La extraccion y lectura puede incluir: extraer y leer una informacion de modo de omision que indica si un modo de prediccion de la unidad de datos es un modo de omision; y determinar si se extrae una informacion de fusion que indica si se fusionan entre sf la unidad de datos y la al menos una unidad de datos colindante sobre la base de la informacion de modo de omision.
De acuerdo con un aspecto de otra realizacion a modo de ejemplo, se proporciona un aparato para codificar un video mediante el uso de una fusion de unidades de datos, incluyendo el aparato: una unidad de determinacion de modos de codificacion que determina un modo de codificacion que indica una unidad de datos para codificar una imagen y un procedimiento de codificacion que incluye una codificacion de prediccion para cada unidad de datos; una unidad de determinacion de fusion de unidades de datos que determina una aparicion de fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y el modo de codificacion de acuerdo con las unidades de datos; y una unidad de determinacion de informacion de codificacion que determina una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion sobre la base de la aparicion de fusion con la unidad de datos colindante de acuerdo con las unidades de datos y determina una informacion de codificacion de la unidad de datos que incluye la informacion de modo de prediccion, la informacion relacionada con la fusion, y la informacion relacionada con la prediccion.
De acuerdo con un aspecto de otra realizacion a modo de ejemplo, se proporciona un aparato para descodificar un video mediante el uso de una fusion de unidades de datos, incluyendo el aparato: un analizador sintactico y unidad de extraccion que analiza sintacticamente un flujo de bits recibido para extraer unos datos de video codificados y una informacion de codificacion y para extraer una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion en la informacion de codificacion; y una unidad de fusion y descodificador de unidades de datos que analiza una aparicion de fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y un modo de codificacion de acuerdo con las unidades de datos sobre la base de la informacion de modo de prediccion y la informacion relacionada con la fusion y realiza una inter prediccion y una compensacion de movimiento mediante el uso de una informacion relacionada con la prediccion de la al menos una unidad de datos colindante sobre una unidad de datos que se fusiona con la unidad de datos colindante, para descodificar los datos de video codificados de acuerdo con las unidades de datos que se determinan sobre la base de la informacion de codificacion.
De acuerdo con un aspecto de otra realizacion a modo de ejemplo, se proporciona un medio de registro legible por ordenador que tiene, incorporado en el mismo, un programa para ejecutar el procedimiento de codificacion del video.
De acuerdo con un aspecto de otra realizacion a modo de ejemplo, se proporciona un medio de registro legible por ordenador que tiene, incorporado en el mismo, un programa para ejecutar el procedimiento de descodificacion del video.
Modo para la invencion
En lo sucesivo en el presente documento, 'una imagen' puede hacer referencia no solo a una imagen fija sino tambien a una imagen en movimiento tal como un video. Ademas, 'una unidad de datos' se refiere a un grupo de datos en un intervalo previamente determinado de entre los datos que constituyen un video. Asimismo, en lo sucesivo en el presente documento, expresiones tales como “al menos uno de”, cuando preceden a una lista de elementos, modifican la totalidad de la lista de elementos y no modifican los elementos individuales de la lista.
La codificacion y la descodificacion de un video usando una fusion de unidades de datos, de acuerdo con una o mas realizaciones a modo de ejemplo, se explicaran en lo sucesivo con referencia a las figuras 1 a 18. La codificacion y la descodificacion de un video usando una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una o mas realizaciones a modo de ejemplo, se explicaran en lo sucesivo con referencia a las figuras 19 a 33.
Un aparato para codificar un video, un aparato para descodificar un video, un procedimiento de codificacion de un video, y un procedimiento de descodificacion de un video, mediante el uso de una fusion de unidades de datos, de acuerdo con una o mas realizaciones a modo de ejemplo, se explicaran en lo sucesivo con referencia a las figuras 1 a 18.
La figura 1 es un diagrama de bloques de un aparato 10 para codificar un video mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo.
El aparato 10 incluye una unidad de determinacion de modos de codificacion 11, una unidad de determinacion de fusion de unidades de datos 13, y una unidad de determinacion de informacion de codificacion 15. Para facilitar la explicacion, se hace referencia al aparato 10 para codificar un video mediante el uso de una fusion de unidades de datos como un aparato 10 para codificar un video.
El aparato 10 recibe unos datos de video, codifica los datos de video mediante la realizacion de una inter prediccion entre imagenes, una intra prediccion en una imagen, una transformacion, una cuantificacion y una codificacion por entropfa para las imagenes del video, y emite una informacion de codificacion que incluye una informacion acerca de datos de video codificados y un modo de codificacion.
5
10
15
20
25
30
35
40
45
50
55
La unidad de determinacion de modos de codificacion 11 puede determinar una unidad de datos para la codificacion de una imagen y puede determinar un procedimiento de codificacion a realizar para cada unidad de datos. En un procedimiento de codificacion de compresion de video, con el fin de reducir un tamano de los datos mediante la retirada de una parte redundante en los datos de video, se realiza un procedimiento de codificacion de prediccion usando datos colindantes. La unidad de determinacion de modos de codificacion 11 puede determinar un bloque cuadrado regular o una particion en un bloque cuadrado regular como una unidad de datos para la codificacion de prediccion.
La unidad de determinacion de modos de codificacion 11 puede determinar un modo de prediccion que indica un procedimiento de codificacion de prediccion tal como un inter modo, un intra modo, un modo de omision, o un modo directo, para cada unidad de datos. Asimismo, la unidad de determinacion de modos de codificacion 11 puede determinar artmulos adicionales tales como una direccion de prediccion o un mdice de referencia util para la codificacion de prediccion de acuerdo con el modo de prediccion de la unidad de datos.
La unidad de determinacion de modos de codificacion 11 puede determinar diversos modos de codificacion que incluyen el modo de prediccion para la codificacion de prediccion y artmulos adicionales relacionados y, por consiguiente, puede codificar los datos de video.
La unidad de determinacion de fusion de unidades de datos 13 puede determinar si no solo una unidad de datos cuyo modo de prediccion es un inter modo sino tambien una unidad de datos cuyo modo de prediccion es un modo de omision o un modo directo de entre las unidades de datos que son determinadas por la unidad de determinacion de modos de codificacion 11 se fusiona con al menos una unidad de datos colindante.
Si una unidad de datos actual se fusiona con una unidad de datos colindante, la unidad de datos actual puede compartir la informacion de vector de movimiento de la unidad de datos colindante. A pesar de que la informacion diferencial de vector de movimiento de la unidad de datos actual se codifica de forma independiente, debido a que una informacion de prediccion auxiliar de la unidad de datos actual se puede obtener al seguir o al hacer referencia a una informacion de prediccion auxiliar de la unidad de datos colindante que se fusiona con la unidad de datos actual, la informacion de prediccion auxiliar de la unidad de datos actual no se codifica por separado.
La unidad de determinacion de fusion de unidades de datos 13 puede determinar al menos un grupo de unidades de datos candidatas que incluye una unidad de datos que se puede fusionar con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual. La unidad de determinacion de fusion de unidades de datos 13 puede buscar una unidad de datos a fusionar con la unidad de datos actual en el al menos un grupo de unidades de datos candidatas. En este caso, en cada region se puede determinar un grupo de unidades candidatas que incluye una unidad de datos que se puede fusionar con la unidad de datos actual.
De acuerdo con una regla previamente determinada que esta preestablecida entre sistemas de codificacion y de descodificacion, se pueden establecer un procedimiento de determinacion de un grupo de unidades de datos candidatas en al menos una region que colinda con una unidad de datos actual y un procedimiento de determinacion de una unidad de datos en el grupo de unidades de datos candidatas.
Asimismo, el aparato 10 puede codificar y emitir al menos una de una informacion acerca del procedimiento de determinacion del grupo de unidades de datos candidatas en la al menos una region que colinda con la unidad de datos actual y una informacion acerca del procedimiento de determinacion de una unidad de datos en el grupo de unidades de datos candidatas.
Por ejemplo, la unidad de determinacion de fusion de unidades de datos 13 puede buscar una unidad de datos que tiene el mismo mdice de referencia que la unidad de datos actual en el grupo de unidades de datos candidatas y puede seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual.
Como alternativa, la unidad de determinacion de fusion de unidades de datos 13 puede buscar una unidad de datos cuyo modo de prediccion es un inter modo en el grupo de unidades de datos candidatas y puede seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual. Una unidad de datos se puede determinar finalmente de entre las unidades de datos candidatas que se seleccionan de esta forma como una unidad de datos candidata a fusionar con la unidad de datos actual.
La unidad de determinacion de fusion de unidades de datos 13 puede determinar una unidad de datos candidata a fusionar con la unidad de datos actual mediante el uso de un procedimiento general de una prediccion de vector de movimiento en un inter modo. Con detalle, de acuerdo con el procedimiento general de una prediccion de vector de movimiento en un inter modo, se determina una pluralidad de vectores candidatos a predecir con un vector de movimiento de la unidad de datos actual de entre unidades de datos colindantes en contacto con todas las fronteras de la unidad de datos actual. Es decir, se seleccionan una de entre las unidades de datos colindantes en contacto con una frontera izquierda de la unidad de datos actual, una de entre las unidades de datos colindantes en contacto con una frontera superior de la unidad de datos actual, y una de entre las unidades de datos colindantes en contacto con las esquinas de la unidad de datos actual, y uno de los vectores de movimiento de las tres unidades de datos se determina como un vector candidato.
5
10
15
20
25
30
35
40
45
50
55
De acuerdo con el procedimiento general de una prediccion de vector de movimiento en un inter modo, la unidad de determinacion de fusion de unidades de datos 13 puede buscar y determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de unidades de datos candidatas izquierdas que incluye la totalidad de una pluralidad de unidades de datos colindantes en contacto con una frontera izquierda de la unidad de datos actual y en un grupo de unidades de datos candidatas superiores que incluye la totalidad de una pluralidad de unidades de datos colindantes en contacto con una frontera superior de la unidad de datos actual.
Asimismo, la unidad de determinacion de fusion de unidades de datos 13 puede buscar y determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de unidades de datos candidatas de esquina que incluye una unidad de datos colindante superior izquierda, una unidad de datos colindante superior derecha, y una unidad de datos colindante inferior izquierda en contacto con las esquinas de la unidad de datos actual ademas del grupo de unidades de datos candidatas izquierdas y el grupo de unidades de datos candidatas superiores de la unidad de datos actual.
En este caso, un procedimiento de determinacion de una unidad de datos candidata en el grupo de unidades de datos candidatas izquierdas, un procedimiento de determinacion de una unidad de datos candidata en el grupo de unidades de datos candidatas superiores, y se puede preestablecer un procedimiento de determinacion de una unidad de datos candidata en el grupo de unidades de datos candidatas de esquina. Debido a que se puede preestablecer cada procedimiento de determinacion de una unidad de datos candidata de entre un grupo de unidades de datos candidatas correspondiente, el procedimiento se puede senalizar de forma implfcita.
Asimismo, se puede preestablecer un procedimiento de determinar finalmente una unidad de datos colindante a fusionar con la unidad de datos actual de entre una unidad de datos candidata que se determina en el grupo de unidades de datos candidatas izquierdas, una unidad de datos candidata que se determina en el grupo de unidades de datos candidatas superiores, y una unidad de datos candidata que se determina en el grupo de unidades de datos candidatas de esquina, es decir, tres unidades de datos candidatas. Es decir, debido a que se puede preestablecer cada procedimiento de determinacion de una unidad de datos colindante a fusionar con la unidad de datos candidata, el procedimiento se puede senalizar de forma implfcita.
Por ejemplo, la unidad de determinacion de fusion de unidades de datos 13 puede buscar una unidad de datos cuyo modo de prediccion es un inter modo de entre las unidades de datos candidatas y puede seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual. Como alternativa, la unidad de determinacion de fusion de unidades de datos 13 puede buscar una unidad de datos que tiene el mismo mdice de referencia que la unidad de datos actual de entre las unidades de datos candidatas y seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual.
A pesar de que las particiones que se dividen para el fin de una inter prediccion mas precisa de una unidad de datos colindan unas con otras, las particiones pueden no fusionarse entre sn
Debido a que las unidades de datos a las que se puede acceder de entre las unidades de datos que colindan con una particion actual pueden variar de acuerdo con una forma y una posicion de la particion actual, se puede cambiar un grupo de candidatas de fusion que incluye unas unidades de datos colindantes que se pueden fusionar. Por consiguiente, la unidad de determinacion de fusion de unidades de datos 13 puede buscar una unidad de datos colindante que se puede fusionar sobre la base de una forma y una posicion de una particion actual.
La unidad de determinacion de informacion de codificacion 15 puede determinar una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion de acuerdo con las unidades de datos. La unidad de determinacion de informacion de codificacion 15 puede actualizar la informacion relacionada con la prediccion en la informacion de codificacion que es determinada por la unidad de determinacion de modos de codificacion 11 de acuerdo con una fusion de unidades de datos de la unidad de determinacion de fusion de unidades de datos 13. La unidad de determinacion de informacion de codificacion 15 puede codificar la informacion de codificacion para incluir la informacion relacionada con la fusion de acuerdo con la fusion de unidades de datos de la unidad de determinacion de fusion de unidades de datos 13. La unidad de determinacion de informacion de codificacion 15 puede emitir los datos de video que se codifican mediante la unidad de determinacion de modos de codificacion 11 y la informacion de codificacion.
La informacion de modo de prediccion en la informacion relacionada con la prediccion es una informacion que indica si un modo de prediccion de una unidad de datos actual es un inter modo, un intra modo, un modo de omision, o un modo directo. Por ejemplo, la informacion de modo de prediccion puede incluir una informacion de modo de omision que indica si el modo de prediccion de la unidad de datos actual es un modo de omision y una informacion de modo directo que indica si el modo de prediccion de la unidad de datos actual es un modo directo.
La informacion relacionada con la fusion incluye una informacion que se usa para realizar una fusion de unidades de datos o para determinar si se realiza una fusion de unidades de datos. Por ejemplo, la informacion relacionada con la fusion puede incluir una informacion de fusion que indica si una unidad de datos actual se va a fusionar con una unidad de datos colindante y una informacion de mdice de fusion que indica una unidad de datos a fusionar. La unidad de determinacion de informacion de codificacion 15 puede codificar la informacion de fusion a traves de un
5
10
15
20
25
30
35
40
45
50
55
modelado de contexto con respecto a una combinacion de 'un modo de prediccion y un tipo de particion de una unidad de datos colindante' y con respecto a 'si se fusionan una unidad de datos actual y una unidad de datos colindante'.
La informacion relacionada con la prediccion puede incluir adicionalmente una informacion de prediccion auxiliar y una informacion de movimiento que se usa para la codificacion de prediccion de una unidad de datos. Por ejemplo, tal como se ha descrito en lo que antecede, la informacion relacionada con la prediccion puede incluir una informacion de prediccion auxiliar que hace referencia a una informacion adicional en relacion con una codificacion de prediccion que incluye un mdice de referencia que indica una unidad de datos a la que se va a hacer referencia y similares, y la informacion de vector de movimiento o diferencial de vector de movimiento.
La unidad de determinacion de informacion de codificacion 15 puede determinar si la informacion relacionada con la fusion se establece de acuerdo con la informacion de modo de prediccion sobre la base de una relacion cercana entre un modo de prediccion de una unidad de datos y una posibilidad de que se fusione la unidad de datos.
En una primera realizacion a modo de ejemplo en la que una fusion de unidades de datos se puede realizar sobre una unidad de datos que no sea un modo de omision, la unidad de determinacion de informacion de codificacion 15 puede codificar una informacion de modo de omision que indica si un modo de prediccion de una unidad de datos actual es un modo de omision, y puede determinar si una informacion de fusion que indica si la unidad de datos actual y una unidad de datos colindante se fusionan entre sf sobre la base de la informacion de modo de omision.
Con detalle, en la primera realizacion a modo de ejemplo, si un modo de prediccion de la unidad de datos actual es un modo de omision, la unidad de determinacion de informacion de codificacion 15 puede establecer una informacion de modo de omision para indicar que el modo de prediccion de la unidad de datos actual es un modo de omision y puede no codificar la informacion de fusion de la unidad de datos actual.
Si un modo de prediccion de la unidad de datos actual no es un modo de omision, la unidad de determinacion de informacion de codificacion 15 puede establecer una informacion de modo de omision para indicar que el modo de prediccion de la unidad de datos actual no es un modo de omision y puede codificar la informacion de fusion de la unidad de datos actual.
La unidad de determinacion de informacion de codificacion 15 puede codificar una informacion diferencial de vector de movimiento de una unidad de datos sobre la base de la informacion de fusion, y puede determinar si se codifica la informacion de prediccion auxiliar de la unidad de datos.
Es decir, si una unidad de datos actual se fusiona con una unidad de datos colindante, la unidad de determinacion de informacion de codificacion 15 puede establecer la informacion de fusion de la unidad de datos actual para indicar que la unidad de datos actual se fusiona con la unidad de datos colindante, y puede no codificar la informacion de prediccion auxiliar de la unidad de datos actual. Por otro lado, si la unidad de datos actual no se fusiona con la unidad de datos colindante, la unidad de determinacion de informacion de codificacion 15 puede establecer la informacion de fusion de la unidad de datos actual para indicar que la unidad de datos actual no se fusiona con la unidad de datos colindante, y puede codificar la informacion de prediccion auxiliar de la unidad de datos actual.
Con independencia de si la unidad de datos actual se fusiona, o no, con la unidad de datos colindante, la unidad de determinacion de informacion de codificacion 15 puede codificar una informacion diferencial de vector de movimiento de la unidad de datos actual.
Asimismo, en una segunda realizacion a modo de ejemplo en la que se determina si se realiza una fusion de unidades de datos sobre una unidad de datos que no sea un modo de omision y un modo directo, la unidad de determinacion de informacion de codificacion 15 puede codificar una informacion relacionada con la fusion para indicar si se realiza una fusion de unidades de datos sobre una unidad de datos cuyo modo de prediccion es un modo directo.
Con detalle, en la segunda realizacion a modo de ejemplo, la unidad de determinacion de informacion de codificacion 15 puede establecer una informacion de modo de omision para indicar que el modo de prediccion de una unidad de datos no es un modo de omision, y puede codificar una informacion de modo directo. Asimismo, la unidad de determinacion de informacion de codificacion 15 puede determinar si se codifica la informacion de fusion sobre la base de la informacion de modo directo.
Es decir, si un modo de prediccion de una unidad de datos actual es un modo directo, la unidad de determinacion de informacion de codificacion 15 puede establecer una informacion de modo directo para indicar que un modo de prediccion de la unidad de datos actual es un modo directo y puede no codificar la informacion de fusion de la unidad de datos actual. Si un modo de prediccion de una unidad de datos actual no es un modo directo, la unidad de determinacion de informacion de codificacion 15 puede establecer una informacion de modo directo para indicar que un modo de prediccion de la unidad de datos actual no es un modo directo y puede codificar la informacion de fusion de la unidad de datos actual.
5
10
15
20
25
30
35
40
45
50
55
Si se codifica la informacion de fusion, se determina si la informacion de prediccion auxiliar de la unidad de datos actual se codifica sobre la base de la informacion de fusion, y la informacion diferencial de vector de movimiento de la unidad de datos actual se codifica tal como se ha descrito en lo que antecede en la primera realizacion a modo de ejemplo.
Una unidad de datos que se obtiene mediante la division de una imagen puede incluir 'una unidad de codificacion' que es una unidad de datos para codificar una imagen, 'una unidad de prediccion' para la codificacion de prediccion, y 'una particion' para la inter prediccion. La unidad de determinacion de fusion de unidades de datos 13 puede determinar si se realiza una fusion con una unidad de datos colindante para cada unidad de codificacion, y la unidad de determinacion de informacion de codificacion 15 puede determinar una informacion de modo de omision y una informacion de fusion para cada unidad de codificacion. Asimismo, la unidad de determinacion de fusion de unidades de datos 13 puede determinar si se realiza una fusion con una unidad de datos colindante para cada unidad de prediccion, y la unidad de determinacion de informacion de codificacion 105 puede determinar una informacion de modo de omision y una informacion de fusion para cada unidad de prediccion.
Si se usan tanto una informacion de modo de omision como una informacion de fusion, debido a que una informacion de prediccion unica de una unidad de datos actual no se codifica en el caso tanto de un modo de omision como de fusion de datos, el aparato 10 puede distinguir un procedimiento de prediccion de acuerdo con un modo de omision de un procedimiento de prediccion de acuerdo con la fusion de datos. Por ejemplo, un mdice de referencia y una direccion de referencia de una unidad de datos que tiene un modo de omision se pueden determinar de acuerdo con una regla preestablecida, y una unidad de datos que se fusiona con una unidad de datos colindante puede seguir un mdice de referencia y una direccion de referencia de informacion de movimiento de la unidad de datos colindante. Debido a que se puede preestablecer la regla para determinar un mdice de referencia y una direccion de referencia de una unidad de datos que tiene un modo de omision, la regla se puede senalizar de forma implfcita.
La unidad de determinacion de informacion de codificacion 15 puede codificar una informacion de modo de omision para cada modo de prediccion y puede codificar una informacion relacionada con la fusion para cada particion. Asimismo, la unidad de determinacion de informacion de codificacion 15 puede codificar tanto una informacion relacionada con la fusion como una informacion de modo de omision para cada unidad de datos. Como alternativa, la unidad de determinacion de informacion de codificacion 15 puede establecer una informacion relacionada con la fusion que se va a codificar solo para una unidad de datos que tiene un modo de prediccion previamente determinado preestablecido.
El aparato 10 puede determinar una fusion de unidades de datos entre unidades de codificacion o determinar una fusion de unidades de datos entre unidades de prediccion. Asimismo, el aparato 10 puede codificar de forma selectiva una informacion de modo de omision y una informacion de modo directo. Por consiguiente, si un modo de prediccion de una unidad de datos no es un modo de omision sobre la base de una informacion de modo de omision de la unidad de datos, la unidad de determinacion de informacion de codificacion 15 puede codificar al menos una de informacion de codificacion de modo de omision / directo que indica si se codifica una informacion de modo directo de la unidad de datos, una informacion de determinacion de fusion de unidad de codificacion que indica si se determina una aparicion de fusion entre unidades de codificacion, y una informacion de determinacion de fusion de unidad de prediccion que indica si se determina una aparicion de fusion entre unidades de prediccion.
La figura 2 es un diagrama de bloques de un aparato 20 para descodificar un video mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo.
El aparato 20 incluye un analizador sintactico / unidad de extraccion 21 y una unidad de fusion / descodificador de unidades de datos 23. Para facilitar la explicacion, se hace referencia al aparato 20 para descodificar un video mediante el uso de una fusion de unidades de datos como 'un aparato 20 para descodificar un video’.
El aparato 20 recibe un flujo de bits de datos de video codificados, extrae una informacion de codificacion que incluye una informacion acerca de un procedimiento de codificacion y los datos de video codificados, y realiza la descodificacion a traves de descodificacion por entropfa, cuantificacion inversa, transformacion inversa e inter prediccion / compensacion entre imagenes para restablecer datos de video.
El analizador sintactico / unidad de extraccion 21 analiza sintacticamente el flujo de bits recibido para extraer los datos de video codificados y la informacion de codificacion y para extraer una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion en la informacion de codificacion. El analizador sintactico / unidad de extraccion 21 puede extraer una informacion de modo de omision, una informacion de modo directo, y similares como la informacion de modo de prediccion. El analizador sintactico / unidad de extraccion 21 puede extraer una informacion de prediccion auxiliar que incluye una direccion de referencia y un mdice de referencia, y una informacion diferencial de vector de movimiento como la informacion relacionada con la prediccion.
El analizador sintactico / unidad de extraccion 21 puede extraer una informacion de fusion, una informacion de mdice de fusion, y similares como la informacion relacionada con la fusion. El analizador sintactico / unidad de extraccion
5
10
15
20
25
30
35
40
45
50
55
21 puede leer una informacion de fusion que se codifica a traves de un modelado de contexto con respecto a una combinacion de 'un modo de prediccion y un tipo de particion de una unidad de datos colindante' y 'si se fusionan entre sf una unidad de datos actual y la unidad de datos colindante', y puede analizar el modo de prediccion y el tipo de particion de la unidad de datos colindante que se fusiona con la unidad de datos actual.
En primer lugar, en una primera realizacion a modo de ejemplo en la que se determina si se realiza una fusion de unidades de datos sobre una unidad de datos que no sea un modo de omision, el analizador sintactico / unidad de extraccion 21 puede extraer y leer una informacion de modo de omision de la unidad de datos a partir de un flujo de bits recibido, y puede determinar si se extrae la informacion de fusion de la unidad de datos sobre la base de la informacion de modo de omision. Es decir, si se lee que un modo de prediccion de una unidad de datos actual no es un modo de omision sobre la base de una informacion de modo de omision, el analizador sintactico / unidad de extraccion 21 puede extraer la informacion de fusion de la unidad de datos actual a partir del flujo de bits recibido.
El analizador sintactico / unidad de extraccion 21 puede extraer una informacion diferencial de vector de movimiento de una unidad de datos sobre la base de la informacion de fusion, y puede determinar si se extrae una informacion de prediccion auxiliar inter de la unidad de datos. Es decir, si se lee que una unidad de datos actual no se fusiona con una unidad de datos colindante sobre la base de la informacion de fusion, el analizador sintactico / unidad de extraccion 21 puede extraer una informacion diferencial de vector de movimiento a partir de un flujo de bits recibido y puede extraer una informacion de prediccion auxiliar de la unidad de datos actual. Por otro lado, si se lee que una unidad de datos actual se fusiona con una unidad de datos colindante sobre la base de la informacion de fusion, el analizador sintactico / unidad de extraccion 21 puede extraer una informacion diferencial de vector de movimiento a partir de un flujo de bits recibido y puede no extraer una informacion de prediccion auxiliar de la unidad de datos actual.
A continuacion, en una segunda realizacion a modo de ejemplo en la que se determina si se realiza una fusion de unidades de datos sobre una unidad de datos que no sea un modo de omision y un modo directo, si un modo de prediccion de una unidad de datos no es un modo de omision, el analizador sintactico / unidad de extraccion 21 puede extraer una informacion de modo directo de la unidad de datos, y puede determinar si se extrae la informacion de fusion sobre la base de la informacion de modo directo.
Es decir, si se lee que un modo de prediccion de una unidad de datos actual es un modo directo de acuerdo con una informacion de modo directo, el analizador sintactico / unidad de extraccion 21 puede no extraer la informacion de fusion a partir de un flujo de bits recibido. Por otro lado, si se lee que un modo de prediccion de una unidad de datos actual no es un modo directo de acuerdo con una informacion de modo directo, el analizador sintactico / unidad de extraccion 21 puede extraer la informacion de fusion a partir de un flujo de bits recibido.
El analizador sintactico / unidad de extraccion 21 puede extraer una informacion diferencial de vector de movimiento de una unidad de datos sobre la base de la informacion de fusion y puede determinar si se extrae una informacion de prediccion auxiliar tal como se ha descrito en lo que antecede en la primera realizacion.
La unidad de fusion / descodificador de unidades de datos 23 analiza si se realiza una fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y un modo de codificacion de acuerdo con las unidades de datos sobre la base de una informacion de modo de prediccion y una informacion relacionada con la fusion. La unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos sobre la base de la informacion de codificacion y descodificar los datos de video codificados de acuerdo con la unidad de datos determinada para restablecer una imagen.
Por ejemplo, la unidad de fusion / descodificador de unidades de datos 23 puede realizar una inter prediccion y una compensacion de movimiento mediante el uso de la informacion relacionada con la prediccion de una unidad de datos colindante sobre una unidad de datos que se fusiona con la unidad de datos colindante para descodificar datos de video sobre la base de la informacion de codificacion.
El analizador sintactico / unidad de extraccion 21 puede extraer y leer una informacion de modo de omision y una informacion de fusion para cada unidad de codificacion, y la unidad de fusion / descodificador de unidades de datos 23 puede determinar si se realiza una fusion con una unidad de datos colindante sobre la base de la informacion de fusion para cada unidad de codificacion.
Asimismo, el analizador sintactico / unidad de extraccion 21 puede extraer y leer una informacion de modo de omision y una informacion de fusion para cada unidad de prediccion, y la unidad de fusion / descodificador de unidades de datos 23 puede determinar si la fusion con una unidad de datos colindante se genera sobre la base de la informacion de fusion para cada unidad de prediccion.
La unidad de fusion / descodificador de unidades de datos 23 puede leer si una unidad de datos actual se fusiona con una unidad de datos colindante sobre la base de una informacion relacionada con la fusion que es extrafda por el analizador sintactico / unidad de extraccion 21, y puede buscar una unidad de datos a fusionar de entre unidades de datos colindantes.
5
10
15
20
25
30
35
40
45
50
55
En primer lugar, la unidad de fusion / descodificador de unidades de datos 23 puede analizar si una unidad de datos actual se fusiona con una unidad de datos colindante sobre la base de la informacion de fusion en la informacion relacionada con la fusion. Si se lee que la unidad de datos actual se fusiona con la unidad de datos colindante, la unidad de fusion / descodificador de unidades de datos 23 puede determinar al menos un grupo de unidades de datos candidatas que incluye una unidad de datos que se puede fusionar con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual sobre la base de la informacion de mdice de fusion en la informacion relacionada con la fusion. La unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual en el al menos un grupo de unidades de datos candidatas. Un grupo de unidades de datos candidatas para la fusion de la unidad de datos actual se puede determinar para cada una de al menos una region que colinda con la unidad de datos actual.
Debido a que se puede preestablecer cada procedimiento de determinacion de una unidad de datos colindante a fusionar con la unidad de datos candidata, el procedimiento se puede senalizar de forma implfcita. La unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual sobre la base de al menos uno de un procedimiento de determinacion de un grupo de unidades de datos candidatas que se preestablece de acuerdo con una regla previamente determinada entre sistemas de codificacion / descodificacion y un procedimiento de determinacion de una unidad de datos en el grupo de unidades de datos candidatas.
El analizador sintactico / unidad de extraccion 21 puede extraer al menos una de una informacion acerca de un procedimiento de determinacion de un grupo de unidades de datos candidatas de entre al menos una region que colinda con la unidad de datos actual y una informacion acerca de un procedimiento de determinacion de una unidad de datos en el grupo de unidades de datos candidatas. La unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual sobre la base de al menos una de una informacion acerca de un procedimiento de determinacion de un grupo de unidades de datos candidatas extrafdas y una informacion acerca de un procedimiento de determinacion de una unidad de datos en el grupo de unidades de datos candidatas.
Por ejemplo, si la unidad de fusion / descodificador de unidades de datos 23 establece una primera unidad de datos candidata, una segunda unidad de datos candidata, o una tercera unidad de datos candidata de acuerdo con el procedimiento preestablecido, la unidad de fusion / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante que tiene el mismo mdice de referencia que la unidad de datos actual en un grupo de candidatas de fusion de unidades de datos colindantes de capa superior, y puede determinar la unidad de datos colindante como una unidad de datos a fusionar.
Como alternativa, si la unidad de fusion / descodificador de unidades de datos 23 determina una primera unidad de datos candidata, una segunda unidad de datos candidata, o una tercera unidad de datos candidata de acuerdo con el procedimiento preestablecido, la unidad de fusion / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante cuyo modo de prediccion es un inter modo en un grupo de candidatas de fusion de unidades de datos colindantes de capa superior y puede determinar la unidad de datos colindante como una unidad de datos a fusionar con la unidad de datos actual.
Debido a que se puede preestablecer cada procedimiento de determinacion de una unidad de datos candidata de entre un grupo de unidades de datos candidatas correspondiente, el procedimiento se puede senalizar de forma implfcita.
La unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos candidata a fusionar con la unidad de datos actual mediante el uso del procedimiento general de una prediccion de vector de movimiento en un inter modo. Con detalle, la unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de unidades de datos candidatas izquierdas que incluye la totalidad de una pluralidad de unidades de datos colindantes izquierdas en contacto con una frontera izquierda de la unidad de datos actual y un grupo de unidades de datos candidatas superiores que incluye la totalidad de una pluralidad de unidades de datos colindantes superiores en contacto con una frontera superior sobre la base de la informacion de mdice de fusion en la informacion relacionada con la fusion.
Asimismo, la unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual sobre la base de la informacion de mdice de fusion en un grupo de unidades de datos candidatas de esquina que incluye una unidad de datos colindante superior izquierda, una unidad de datos colindante superior derecha, y una unidad de datos colindante inferior izquierda en contacto con las esquinas de la unidad de datos actual, ademas del grupo de unidades de datos candidatas izquierdas y el grupo de unidades de datos candidatas superiores de la unidad de datos actual.
Con detalle, la unidad de fusion / descodificador de unidades de datos 23 puede leer una informacion de mdice de fusion y puede determinar una primera unidad de datos candidata que es una en el grupo de unidades de datos candidatas izquierdas, una segunda unidad de datos candidata que es una en el grupo de unidades de datos candidatas superiores, o una tercera unidad de datos candidata que es una en el grupo de unidades de datos candidatas de esquina como una unidad de datos colindante a fusionar con la unidad de datos actual.
5
10
15
20
25
30
35
40
45
50
55
Asimismo, la unidad de fusion / descodificador de unidades de datos 23 puede buscar y determinar una de entre las unidades de datos colindantes izquierdas si se determina la primera unidad de datos candidata, una de entre las unidades de datos colindantes superiores si se determina la segunda unidad de datos candidata, y una de entre las unidades de datos colindantes en contacto con las esquinas si se determina la tercera unidad de datos candidata como una unidad de datos a fusionar con la unidad de datos actual.
En este caso, se puede preestablecer un procedimiento de busqueda y determinacion de una unidad de datos a fusionar con la unidad de datos actual de entre las unidades de datos colindantes izquierdas, las unidades de datos colindantes superiores, y las unidades de datos colindantes en contacto con las esquinas. Por ejemplo, de acuerdo con un procedimiento preestablecido, la unidad de fusion / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante cuyo modo de prediccion es un inter modo de entre las unidades de datos candidatas y puede determinar la unidad de datos colindante como una unidad de datos a fusionar con la unidad de datos actual.
Como alternativa, de acuerdo con un procedimiento preestablecido, la unidad de fusion / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante que tiene el mismo mdice de referencia que la unidad de datos actual de entre las unidades de datos candidatas y puede determinar la unidad de datos colindante como una unidad de datos a fusionar.
Debido a que se puede preestablecer cada procedimiento de determinacion de una unidad de datos colindante a fusionar con la unidad de datos candidata, el procedimiento se puede senalizar de forma implfcita.
La unidad de fusion / descodificador de unidades de datos 23 puede no realizar una fusion mutua entre las particiones en una unidad de datos.
La unidad de fusion / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de candidatas de fusion de unidades de datos colindantes que vanan de acuerdo con una forma y una posicion de una particion actual.
El analizador sintactico / unidad de extraccion 21 puede extraer una informacion de modo de omision para cada unidad de prediccion y puede extraer una informacion relacionada con la fusion para cada particion. Como alternativa, el analizador sintactico / unidad de extraccion 21 puede extraer una informacion relacionada con la fusion y una informacion de modo de omision para cada unidad de datos. Asimismo, el analizador sintactico / unidad de extraccion 21 puede extraer una informacion relacionada con la fusion solo para una unidad de datos que tiene un modo de prediccion previamente determinado.
El analizador sintactico / unidad de extraccion 21 puede extraer de forma secuencial una informacion de modo de omision, una informacion de unidad de prediccion, una informacion de particion y una informacion de fusion de una unidad de prediccion. La informacion de particion puede incluir una informacion acerca de si la unidad de prediccion se divide en particiones y una informacion acerca de un tipo de particion.
El aparato 20 puede descodificar datos de video mediante la realizacion de una fusion de unidades de datos entre unidades de codificacion o entre unidades de prediccion. Asimismo, el aparato 20 puede descodificar de forma selectiva datos de video de acuerdo con una informacion de modo de omision codificada y una informacion de modo directo.
Por consiguiente, si un modo de prediccion de una unidad de datos no es un modo de omision sobre la base de una informacion de modo de omision de la unidad de datos, el analizador sintactico / unidad de extraccion 21 puede extraer al menos una de informacion de codificacion de modo de omision / directo que indica si se codifica una informacion de modo directo de la unidad de datos, una informacion de determinacion de fusion de unidad de codificacion que indica si se determina una aparicion de fusion de unidades de codificacion, y una informacion de determinacion de fusion de unidad de prediccion que indica si se determina una aparicion de fusion entre unidades de prediccion. Asimismo, la unidad de fusion / descodificador de unidades de datos 23 puede realizar la descodificacion mediante el uso tanto de un modo de omision como de un modo directo sobre la base de la informacion extrafda, o puede descodificar datos de video que se someten a una fusion de unidades de datos sobre la base de una unidad de codificacion o una unidad de prediccion.
La unidad de fusion / descodificador de unidades de datos 23 puede descodificar datos de video mediante la determinacion de un mdice de referencia y una direccion de referencia de una unidad de datos que tiene un modo de omision de acuerdo con una regla preestablecida y seguir un mdice de referencia y una direccion de referencia de informacion de movimiento de una unidad de datos colindante para la unidad de datos que se fusiona con la unidad de datos colindante. Debido a que se puede preestablecer la regla de determinacion de un mdice de referencia y una direccion de referencia de una unidad de datos que tiene un modo de omision, la regla se puede senalizar de forma implfcita.
A medida que aumenta la resolucion de un video, aumenta con rapidez la cantidad de datos, y aumenta un tamano de una unidad de datos, los datos redundantes aumentan y, por lo tanto, aumenta una unidad de datos que tiene un modo de omision o un modo directo. No obstante, debido a que un procedimiento de fusion de macrobloques
5
10
15
20
25
30
35
40
45
50
55
anterior determina si solo se fusiona un macrobloque cuyo modo de prediccion es un inter modo que no sea un modo de omision y un modo directo y fusiona el macrobloque con un macrobloque colindante que tiene un tamano fijo y una posicion fija, el procedimiento de fusion de macrobloques anterior se aplica a areas limitadas.
El aparato 10 y el aparato 20 pueden realizar una fusion de unidades de datos sobre unas unidades de datos que tienen diversos tamanos, diversas formas y diversos modos de prediccion, y pueden fusionar las unidades de datos con unidades de datos colindantes que tienen diversas posiciones. Por consiguiente, debido a que diversas unidades de datos comparten la informacion relacionada con la prediccion de mas unidades de datos colindantes diversas, los datos redundantes se pueden retirar al hacer referencia a una informacion periferica en un intervalo mas amplio, mejorando de ese modo la eficiencia de codificacion de video.
La figura 3 es un diagrama que ilustra unos bloques colindantes que se pueden fusionar con un macrobloque actual de acuerdo con una tecnica relacionada.
De acuerdo con un procedimiento de fusion de bloques de acuerdo con una tecnica relacionada, un bloque colindante que esta incluido en un grupo de candidatas de fusion de bloques colindantes a fusionar con el macrobloque actual debena ser un bloque colindante que tiene un inter modo y se codifica antes del macrobloque actual. Por consiguiente, solo los bloques que colindan con una frontera superior y una frontera derecha del macrobloque actual se pueden incluir en un grupo de candidatas de fusion.
Los bloques fusionados pueden constituir una region, y la informacion de codificacion y la informacion relacionada con la fusion se pueden codificar de acuerdo con las regiones de los bloques fusionados. Por ejemplo, se puede codificar una informacion de fusion acerca de si se realiza la fusion de bloques, y si se realiza la fusion de bloques, una informacion de posicion de bloques de fusion que indica que bloque se fusiona de entre un bloque colindante superior y un bloque colindante izquierdo del macrobloque actual.
De acuerdo con el procedimiento de fusion de bloques de acuerdo con una tecnica relacionada, a pesar de que una pluralidad de bloques estan en contacto con las fronteras del macrobloque actual, solo un bloque colindante en contacto con una muestra superior izquierda del bloque actual se puede seleccionar para fusionarse con el macrobloque actual.
Es decir, uno de un primer bloque colindante superior 32 que colinda con una frontera superior de un primer macrobloque actual 31 y en contacto con una muestra superior izquierda del primer macrobloque actual 31 y un segundo bloque colindante izquierdo 33 que colinda con una frontera izquierda del primer macrobloque actual 31 y en contacto con la muestra superior izquierda del primer macrobloque 31 se puede seleccionar para fusionarse con el primer macrobloque actual 31.
De forma similar, uno de un segundo bloque colindante superior 36 y un segundo bloque colindante izquierdo 37 en contacto con una muestra superior izquierda de un segundo macrobloque actual 35 se puede fusionar de forma selectiva con el segundo macrobloque actual 35.
Las figuras 4 y 5 son unos diagramas para explicar procedimientos de seleccion de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes de la unidad de datos actual, de acuerdo con una tecnica relacionada y una realizacion a modo de ejemplo, respectivamente.
Haciendo referencia a la figura 4, de acuerdo con un procedimiento de fusion de unidades de datos de acuerdo con una tecnica relacionada, a pesar de que las unidades de datos colindantes 42, 43 y 44 estan en contacto con una frontera superior de una unidad de datos actual 41 y las unidades de datos colindantes 45, 46, 47 y 48 estan en contacto con una frontera izquierda de la unidad de datos actual 41, una unidad de datos a fusionar con la unidad de datos actual 41 se limita a la unidad de datos 42 como una unidad de datos colindante superior o la unidad de datos 45 como una unidad de datos colindante izquierda. Asimismo, debido a que solo es posible la fusion con una unidad de datos colindante cuyo modo de prediccion es un inter modo, si los modos de prediccion de las unidades de datos colindantes 42 y 44 son modos de omision o modos directos, las unidades de datos colindantes 42 y 44 no se consideran como unidades de datos a fusionar.
De acuerdo con un procedimiento de fusion de unidades de datos del aparato 10 y el aparato 20 de la figura 5, un grupo de candidatas de fusion de unidades de datos colindantes que se pueden fusionar con la unidad de datos actual 41 puede incluir la totalidad de las unidades de datos colindantes superiores 42, 43 y 44 y las unidades de datos colindantes izquierdas 45, 46, 47 y 48. En este caso, incluso cuando un modo de prediccion de la unidad de datos actual 41 es un modo de omision o un modo directo asf como un inter modo, se puede determinar si la unidad de datos actual 41 se fusiona con una unidad de datos colindante.
Por ejemplo, una de un grupo de candidatas de fusion superiores 52 que incluye las unidades de datos colindantes superiores 42, 43 y 44 de la unidad de datos actual 41 se puede determinar como una candidata de fusion superior A'. De forma similar, una de un grupo de candidatas de fusion izquierdas 55 que incluye las unidades de datos colindantes izquierdas 45, 46, 47 y 48 de la unidad de datos actual 41 se puede determinar como una candidata de fusion izquierda L'. Se puede determinar finalmente que una de la candidata de fusion superior A' y la candidata de fusion izquierda L' es una unidad de datos colindante a fusionar con la unidad de datos actual 41.
5
10
15
20
25
30
35
40
45
50
55
El aparato 10 y el aparato 20 pueden determinar un procedimiento de determinacion de una del grupo de candidatas de fusion superiores 52 como la candidata de fusion superior A' y un procedimiento de determinacion de una del grupo de candidatas de fusion izquierdas 55 como la candidata de fusion izquierda L' de acuerdo con un procedimiento preestablecido. La informacion acerca del presente procedimiento se puede senalizar de forma implfcita. Incluso a pesar de que la informacion acerca del presente procedimiento no se codifica por separado para buscar la candidata de fusion superior A' en el grupo de candidatas de fusion superiores 52 o buscar la candidata de fusion izquierda L' en el grupo de candidatas de fusion izquierdas 55, el aparato 10 y el aparato 20 pueden percibir el procedimiento preestablecido en el que se buscan la candidata de fusion superior A' y la candidata de fusion izquierda L'.
Por ejemplo, unas unidades de datos colindantes que tienen la misma informacion de mdice de referencia que la unidad de datos actual 41 en el grupo de candidatas de fusion superiores 52 y el grupo de candidatas de fusion izquierdas 55 se puede determinar como la candidata de fusion superior A' y la candidata de fusion izquierda L'. Como alternativa, las unidades de datos colindantes mas cercanas a una muestra superior izquierda de la unidad de datos actual 41 cuyo modo de prediccion es un inter modo en el grupo de candidatas de fusion superiores 52 y el grupo de candidatas de fusion izquierdas 55 se pueden determinar como la candidata de fusion superior A' y la candidata de fusion izquierda L'.
De forma similar, el aparato 10 y el aparato 20 pueden determinar finalmente una de la candidata de fusion superior A' y la candidata de fusion izquierda L' como una unidad de datos colindante a fusionar con la unidad de datos actual 41 de acuerdo con un procedimiento preestablecido.
Las figuras 6 y 7 son unos diagramas de bloques para explicar ordenes de codificacion y de descodificacion de una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion, de acuerdo con realizaciones a modo de ejemplo.
En primer lugar, la figura 6 es un diagrama de bloques para explicar un procedimiento de codificacion y de descodificacion de una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion, de acuerdo con una primera realizacion a modo de ejemplo en la que se determina una aparicion de una fusion de unidades de datos en consideracion de si un modo de prediccion de una unidad de datos actual es un modo de omision.
En la operacion 61, el aparato 10 codifica una informacion de modo de omision 'indicador_omision' de una unidad de datos actual. Si un modo de prediccion de la unidad de datos actual es un modo de omision, la informacion de modo de omision 'indicador_omision' se puede establecer a 1, y si un modo de prediccion de la unidad de datos actual no es un modo de omision, la informacion de modo de omision 'indicador_omision' se puede establecer a 0.
Si se determina en la operacion 61 que el modo de prediccion de la unidad de datos actual es un modo de omision, el procedimiento avanza a la operacion 62. En la operacion 62, la informacion de fusion 'indicador_fusion' puede no codificarse. Si se determina en la operacion 61 que el modo de prediccion de la unidad de datos actual no es un modo de omision, el procedimiento avanza a la operacion 63. En la operacion 63, se codifica la informacion de fusion 'indicador_fusion'. La informacion de mdice de referencia y de direccion de prediccion de la unidad de datos actual cuyo modo de prediccion es un modo de omision se puede determinar de acuerdo con una regla preestablecida. Para la informacion de mdice de referencia y de direccion de prediccion de la unidad de datos actual a fusionar con una unidad de datos colindante, se puede seguir o hacer referencia a un mdice de referencia y una direccion de referencia de un vector de movimiento de la unidad de datos colindante.
Por ejemplo, si hay preestablecida una regla de que, si un sector actual es un sector de tipo P, una direccion de prediccion de una unidad de datos cuyo modo de prediccion es un modo de omision se establece a una direccion de List0, si un sector actual es un sector de tipo B, un modo de prediccion se establece a una direccion de Bi, y un mdice de referencia de la unidad de datos cuyo modo de prediccion es un modo de omision se establece a 0, una codificacion de prediccion de la unidad de datos cuyo modo de prediccion es un modo de omision puede ser posible de acuerdo con la regla.
Si la unidad de datos actual se fusiona con una unidad de datos colindante, la informacion de fusion 'indicador_fusion' de la unidad de datos actual se puede establecer a 1 y si la unidad de datos actual no se fusiona con una unidad de datos colindante, la informacion de fusion 'indicador_fusion' de la unidad de datos actual se puede establecer a 0. En la operacion 64, si la unidad de datos actual se fusiona con una unidad de datos colindante, debido a que una informacion de prediccion auxiliar para la codificacion de prediccion de la unidad de datos actual se puede seguir u obtener a partir de una informacion de la unidad de datos colindante, la informacion de mdice de referencia y de direccion de prediccion 'Inter direccion / mdice de Ref' de la unidad de datos actual puede no codificarse. En la operacion 65, a pesar de que la unidad de datos actual se fusiona con la unidad de datos colindante, se codifica la informacion diferencial de vector de movimiento 'mvd'.
En la operacion 66, si la unidad de datos actual no se fusiona con una unidad de datos colindante, se puede codificar la informacion de mdice de referencia y de direccion de prediccion 'Inter direccion / mdice de Ref' de la unidad de datos actual y, en la operacion 67, se puede codificar la informacion diferencial de vector de movimiento
5
10
15
20
25
30
35
40
45
50
55
'mvd'. Por ejemplo, una direccion de prediccion de la unidad de datos actual puede incluir una direccion de listO, una direccion de Listl, y una direccion de Bi.
El aparato 20 puede extraer y leer una informacion de modo de omision de una unidad de datos actual y puede extraer y leer la informacion de fusion y la informacion relacionada con la prediccion sobre la base de la informacion de modo de omision al igual que en el procedimiento de las operaciones 61 a 67.
La figura 7 es un diagrama de bloques para explicar un procedimiento de codificacion / descodificacion de una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion, de acuerdo con una segunda realizacion a modo de ejemplo en la que se determina una aparicion de una fusion de unidades de datos en consideracion de si un modo de prediccion de una unidad de datos actual es un modo de omision y un modo directo.
En la operacion 71, el aparato 10 codifica una informacion de modo de omision 'indicador_omision' de la unidad de datos actual. Si se determina en la operacion 71 que un modo de prediccion de la unidad de datos actual es un modo de omision, el procedimiento avanza a la operacion 72. En la operacion 72, la informacion de fusion 'indicador_fusion' puede no codificarse.
Si se determina en la operacion 71 que el modo de prediccion de la unidad de datos actual no es un modo de omision, el procedimiento avanza a la operacion 73. En la operacion 73, se codifica el modo directo 'indicador_directo'. Si el modo de prediccion de la unidad de datos actual es un modo directo, la informacion de modo directo 'indicador_directo' de la unidad de datos actual se puede establecer a 1 y si el modo de prediccion de la unidad de datos actual no es un modo directo, la informacion de modo directo 'indicador_directo' de la unidad de datos actual se puede establecer a 0. Si se determina en la operacion 73 que el modo de prediccion de la unidad de datos actual es un modo directo, el procedimiento avanza a la operacion 74. En la operacion 74, la informacion de fusion 'indicador_fusion' puede no codificarse.
Si se determina en la operacion 73 que el modo de prediccion de la unidad de datos actual no es un modo directo, el procedimiento avanza a la operacion 75. En la operacion 75, se codifica la informacion de fusion 'indicador_fusion'. En la operacion 76, si la unidad de datos actual se fusiona con una unidad de datos colindante, la informacion de mdice de referencia y de direccion de prediccion 'Inter direccion / mdice de Ref' de la unidad de datos actual puede no codificarse y, en la operacion 77, se codifica la informacion diferencial de vector de movimiento 'mvd'. En las operaciones 78 y 79, si la unidad de datos actual no se fusiona con una unidad de datos colindante, se pueden codificar la informacion de mdice de referencia y de direccion de prediccion 'Inter direccion / mdice de Ref' de la unidad de datos actual y la informacion diferencial de vector de movimiento 'mvd'.
El aparato 20 puede extraer y leer una informacion de modo de omision o una informacion de modo directo de una unidad de datos actual y puede extraer y leer la informacion de fusion y la informacion relacionada con la prediccion sobre la base de la informacion de modo de omision o la informacion de modo directo al igual que en el procedimiento de las operaciones 71 a 79.
Las figuras 8 y 9 son unos diagramas para explicar procedimientos de seleccion de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes ampliadas de la unidad de datos actual, de acuerdo con un procedimiento de la tecnica relacionada y una realizacion a modo de ejemplo, respectivamente.
De acuerdo con un procedimiento de fusion de unidades de datos de la tecnica relacionada de la figura 8, los objetos a fusionar con una unidad de datos actual 81 se limitan a una unidad de datos colindante superior 82 y una unidad de datos colindante izquierda 85 en contacto con una muestra superior izquierda de la unidad de datos actual 81. Es decir, las unidades de datos colindantes 89, 91 y 93 en contacto con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda de la unidad de datos actual 81 no estan incluidas en un grupo de candidatas de fusion de la unidad de datos actual 81.
Un procedimiento de fusion de unidades de datos de la figura 9 es similar a un procedimiento de prediccion de vector de movimiento de un inter modo. En la figura 9, un grupo de candidatas de fusion de unidades de datos colindantes que se pueden fusionar con la unidad de datos actual 81 puede incluir no solo las unidades de datos colindantes superiores 82, 83 y 84 y las unidades de datos colindantes izquierdas 85, 86, 87 y 88 sino tambien las unidades de datos colindantes 89, 91 y 93 en contacto con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda de la unidad de datos actual 81.
Por ejemplo, una de un grupo de candidatas de fusion superiores 92 que incluye las unidades de datos colindantes superiores 82, 83 y 84 de la unidad de datos actual 81 se puede determinar como una candidata de fusion superior A', y una de un grupo de candidatas de fusion izquierdas 95 que incluye las unidades de datos colindantes izquierdas 85, 86, 87 y 88 se puede determinar como una candidata de fusion izquierda L'. Asimismo, una de un grupo de candidatas de fusion de esquina 96 que incluye las unidades de datos colindantes 89, 91 y 93 en contacto con la esquina superior izquierda, la esquina superior derecha, y la esquina inferior izquierda de la unidad de datos actual 81 se puede determinar como una candidata de fusion de esquina C'. Una de la candidata de fusion superior A', la candidata de fusion izquierda L', y la candidata de fusion de esquina C' se puede determinar finalmente como una unidad de datos colindante a fusionar con la unidad de datos actual 81.
5
10
15
20
25
30
35
40
45
50
55
Un procedimiento de determinacion de una del grupo de candidatas de fusion superiores 92 como la candidata de fusion superior A' un procedimiento de determinacion de una del grupo de candidatas de fusion izquierdas 95 como la candidata de fusion izquierda L', un procedimiento de determinacion de una del grupo de candidatas de fusion de esquina 96 como la candidata de fusion de esquina C', y un procedimiento de determinar finalmente una de la candidata de fusion superior A', la candidata de fusion izquierda L', y la candidata de fusion de esquina C' puede seguir una regla preestablecida tal como se describe con referencia a la figura 5.
En la figura 9, debido a que las direcciones de las unidades de datos candidatas que se pueden fusionar con la unidad de datos actual 81 incluyen superior, inferior y esquina, la informacion de posiciones de fusion se puede expresar como un mdice de fusion, no un tipo de indicador de 0 o 1.
Las figuras 10, 11 y 12 son unos diagramas de bloques para explicar ordenes de codificacion y de descodificacion de una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion, de acuerdo con diversas realizaciones a modo de ejemplo.
Haciendo referencia a la figura 10, el aparato 10 puede codificar una informacion de modo de omision y una informacion de fusion para cada unidad de prediccion que es una unidad de datos para la codificacion de prediccion.
En la operacion 101, el aparato 10 puede codificar una informacion de modo de omision 'indicador_omision' de una unidad de prediccion y, en la operacion 102, el aparato 10 puede codificar la informacion de fusion 'indicador_fusion' de una unidad de prediccion que no sea un modo de omision. En las operaciones 103 y 104, el aparato 10 puede codificar una informacion de modo de prediccion 'Info de prediccion' y una informacion de particion 'Info de particion' unicas de una unidad de prediccion cuyo modo de prediccion no es un modo de omision y que no se fusiona con una unidad de datos colindante.
Por consiguiente, el aparato 20 puede extraer y leer una informacion de modo de omision y una informacion de fusion para cada unidad de prediccion. El aparato 20 puede extraer una informacion de modo de prediccion y una informacion de particion unicas de una unidad de prediccion cuyo modo de prediccion no es un modo de omision y que no se fusiona con una unidad de datos colindante.
Haciendo referencia a la figura 11, el aparato 10 puede codificar una informacion de modo de omision para cada unidad de prediccion, y puede codificar la informacion de fusion de cada particion que se obtiene mediante la division de una unidad de prediccion para el fin de una codificacion de prediccion mas precisa.
En la operacion 111, el aparato 10 puede codificar una informacion de modo de omision 'indicador_omision' de una unidad de prediccion, en la operacion 112, el aparato 10 puede codificar una informacion de modo de prediccion 'Info de prediccion' de una unidad de prediccion cuyo modo de prediccion no es un modo de omision y, en la operacion 113, el aparato 10 puede codificar una informacion de particion 'Info de particion'.
En la operacion 114, el aparato 10 puede codificar la informacion de fusion 'indicador_fusion' para cada particion de la unidad de prediccion cuyo modo de prediccion no es un modo de omision. En la operacion 115, el aparato 10 puede codificar una informacion de movimiento unica 'Info de movimiento' de una particion que no se fusiona con una unidad de datos colindante de entre las particiones de la unidad de prediccion cuyo modo de prediccion no es un modo de omision.
Por consiguiente, el aparato 20 puede extraer y leer una informacion de modo de omision para cada unidad de prediccion, y puede extraer y leer una informacion de fusion para cada particion. El aparato 20 puede extraer una informacion de movimiento unica de una particion cuyo modo de prediccion no es un modo de omision y que no se fusiona con una unidad colindante.
Haciendo referencia a la figura 12, el aparato 10 puede codificar una informacion de modo de omision para cada unidad de prediccion, y puede codificar la informacion de fusion para cada particion cuando se satisface una condicion previamente determinada.
En la operacion 121, el aparato 10 puede codificar una informacion de modo de omision 'indicador_omision' de una unidad de prediccion, en la operacion 122, el aparato 10 puede codificar una informacion de modo de prediccion 'Info de prediccion' de una unidad de prediccion cuyo modo de prediccion no es un modo de omision y, en la operacion 123, el aparato puede codificar una informacion de particion 'Info de particion'.
En la operacion 124, el aparato 10 determina si se satisface una condicion previamente determinada para cada particion de la unidad de prediccion. En la operacion 125, se puede codificar la informacion de fusion 'indicador_fusion' de solo una unidad de datos que satisface la condicion previamente determinada de entre las particiones de la unidad de prediccion cuyo modo de prediccion no es un modo de omision. En la operacion 126, el aparato 10 codifica una informacion de movimiento unica 'Info de movimiento' de una particion que satisface la condicion previamente determinada y no se fusiona con una unidad de datos colindante y una particion que no satisface la condicion previamente determinada a partir de las particiones de la unidad de prediccion cuyo modo de prediccion no es un modo de omision.
5
10
15
20
25
30
35
40
45
50
55
Una condicion previamente determinada de una particion para codificar la informacion de fusion puede incluir un caso en el que un modo de prediccion de una particion es un modo de prediccion previamente determinado. Por ejemplo, la informacion de fusion de una particion se puede codificar de acuerdo con una condicion de que un modo de prediccion no sea un modo de omision sino un inter modo (modo no de omision), una condicion de que un modo de prediccion no sea un modo de omision y un modo directo sino un inter modo (un inter modo no de omision y un inter modo no directo), o una condicion de que un modo de prediccion sea un inter modo que no se divide por una particion (un inter modo sin subdivision en particiones).
Con detalle, en la operacion 124, si se realiza una fusion de unidades de datos sobre una unidad de datos cuyo modo de prediccion no es un modo de omision y un modo directo sino un inter modo, el aparato 10 puede determinar si los modos de prediccion de particiones de una unidad de prediccion que no sea un modo de omision no son modos directos sino inter modos. En la operacion 125, se puede codificar la informacion de fusion 'indicador_fusion' de una particion cuyo modo de prediccion no es un modo directo. En la operacion 126, se puede codificar una informacion de movimiento unica 'Info de movimiento' de una particion cuyo modo de prediccion no es un modo directo y que no se fusiona con una unidad de datos colindante y una particion cuyo modo de prediccion es un modo directo.
Por consiguiente, el aparato 20 puede extraer y leer una informacion de modo de omision para cada modo de prediccion, y puede extraer y leer la informacion de fusion para cada particion. El aparato 20 puede extraer una informacion de movimiento unica de una particion cuyo modo de prediccion no es un modo de omision y que satisface una condicion previamente determinada pero no se fusiona con una unidad de datos colindante y una particion que no satisface la condicion previamente determinada.
La figura 13 es un diagrama que ilustra unas unidades de datos colindantes que no se fusionan con una particion actual, de acuerdo con una realizacion a modo de ejemplo.
Una unidad de datos para la codificacion de prediccion, es decir, una unidad de prediccion, se puede dividir en dos o mas particiones para una codificacion de prediccion mas precisa. Por ejemplo, una anchura de una primera unidad de prediccion 131 se puede dividir en una primera particion 132 y una segunda particion 133.
Debido a que la primera particion 132 y la segunda particion 133 tienen diferentes caractensticas de movimiento incluso a pesar de que la primera particion 132 y la segunda particion 133 estan incluidas en la primera unidad de prediccion 131, puede que la fusion de unidades de datos no se realice entre la primera particion 132 y la segunda particion 133. Por consiguiente, el aparato 10 puede no determinar si se realiza una fusion de unidades de datos entre la primera particion 132 y la segunda particion 133 en la misma primera unidad de prediccion 131. Asimismo, la informacion de mdice de fusion para la segunda particion 133 puede no incluir un mdice que indica una unidad de datos colindante izquierda.
Incluso cuando una altura de una segunda unidad de prediccion 135 se divide en una tercera particion 136 y una cuarta particion 137, debido a que no se debena realizar una fusion de unidades de datos entre la tercera particion
136 y la cuarta particion 137, el aparato 10 puede no determinar si se realiza una fusion de unidades de datos entre la tercera particion 136 y la cuarta particion 137. Asimismo, la informacion de mdice de fusion para la cuarta particion
137 puede no incluir un mdice que indica una unidad de datos colindante superior.
La figura 14 es un diagrama que ilustra una unidad de datos candidata que vana de acuerdo con una forma y una posicion de una particion actual, de acuerdo con una realizacion a modo de ejemplo.
De acuerdo con una forma y una posicion de una particion, una posicion de una unidad de datos colindante a fusionar puede variar. Por ejemplo, si una unidad de prediccion 141 se divide en unas particiones izquierda y derecha 142 y 143, las candidatas de unidad de datos colindante que se pueden fusionar con la particion izquierda 142 pueden ser una unidad de datos 144 que colinda con una frontera superior de la particion izquierda 142, una unidad de datos 145 que colinda con una frontera izquierda de la particion izquierda 142, y una unidad de datos 146 que colinda con una esquina superior derecha de la particion izquierda 142.
A pesar de que la particion derecha 153 esta en contacto con la particion izquierda 142 en una frontera izquierda, debido a que la particion izquierda 142 y la particion derecha 143 son particiones de la misma unidad de prediccion 141, puede no realizarse una fusion entre la particion izquierda 142 y la particion derecha 143. Por consiguiente, las candidatas de unidad de datos colindante que se pueden fusionar con la particion derecha 143 pueden ser una unidad de datos 146 que colinda con una frontera superior de la particion derecha 143 y una unidad de datos 147 que colinda con una esquina superior derecha de la particion derecha 143. Asimismo, la informacion de mdice de fusion para la particion derecha 143 puede no incluir un mdice que indica una unidad de datos colindante superior izquierda.
La figura 15 es un diagrama que ilustra unas unidades de datos colindantes que pueden no fusionarse con una particion actual que es una particion que tiene una forma geometrica, de acuerdo con una realizacion a modo de ejemplo.
5
10
15
20
25
30
35
40
45
En la codificacion de prediccion del aparato 10, una unidad de prediccion se puede dividir no solo en una direccion vertical u horizontal, y sino tambien en una direccion arbitraria en unas particiones que tienen unas formas geometricamente diversas. Las unidades de prediccion 148, 152, 156 y 160 que se obtienen mediante la realizacion de una division en unas direcciones arbitrarias se ilustran en la figura 15.
Las particiones que tienen formas geometricas pueden no fusionarse con unidades de datos colindantes en contacto con las fronteras superiores y las fronteras izquierdas de las particiones de acuerdo con las posiciones y las formas de las particiones. Por ejemplo, de entre dos particiones 149 y 150 de la unidad de prediccion 148, la particion 150 se puede fusionar con una unidad de datos colindante 151 en contacto con una frontera izquierda. No obstante, debido a que una unidad de datos colindante en contacto con una frontera superior es la particion 149 que esta incluida en la misma unidad de prediccion 158, la particion 150 puede no fusionarse con la unidad de datos colindante superior. En este caso, la informacion de mdice de fusion de la particion 150 puede no incluir un mdice que indica la particion 149 que es la unidad de datos colindante superior.
De forma similar, de entre dos particiones 153 y 154 de la unidad de prediccion 152, la particion 164 se puede fusionar con una unidad de datos colindante izquierda 155. No obstante, debido a que una unidad de datos colindante superior es la particion 153 que esta incluida en la misma unidad de prediccion 152, la particion 154 puede no fusionarse con la unidad de datos colindante superior.
De forma similar, de entre dos particiones 157 y 158 de la unidad de prediccion 156, la particion 158 se puede fusionar con una unidad de datos colindante superior 159. No obstante, debido a que una unidad de datos colindante izquierda es la particion 157 que esta incluida en la misma unidad de prediccion 156, la particion 158 puede no fusionarse con la unidad de datos colindante izquierda.
De forma similar, de entre dos particiones 161 y 162 de la unidad de prediccion 160, debido a que la particion 161 que esta incluida en la misma unidad de prediccion 160 es una unidad de datos colindante superior y una unidad de datos colindante izquierda de la particion 162, la particion 162 puede no fusionarse con la unidad de datos colindante superior y la unidad de datos colindante izquierda.
Tal como se describe con referencia a las figuras 13, 14 y 15, si una unidad de datos colindante que puede no fusionarse se genera de acuerdo con una forma o una posicion de una unidad de datos, la informacion de mdice de fusion puede no incluir un mdice que indica la unidad de datos colindante que puede no fusionarse.
Asimismo, el aparato 10 puede no realizar una fusion de unidades de datos para ampliar una unidad de datos actual y para solapar la unidad de datos actual con otra unidad de datos que existe previamente.
Por ejemplo, si una unidad de prediccion se divide en dos particiones y una unidad de datos candidata previamente determinada de la segunda particion tiene la misma informacion de movimiento que la primera particion, puede no permitirse la fusion entre la segunda particion y la unidad de datos candidata previamente determinada.
Por ejemplo, de entre la primera particion 132 y la segunda particion 133 de la primera unidad de prediccion 131 de la figura 13, si una unidad de prediccion superior de la segunda particion 133 tiene la misma informacion de movimiento que la primera particion 132, las unidades de prediccion superior de la primera particion 132 y la segunda particion 133 se pueden excluir de un grupo de unidades de datos candidatas de la segunda particion 133. Esto es debido a que si se realiza una fusion de unidades de datos de tal modo que la segunda particion 133 se refiere a una informacion de movimiento de una unidad de prediccion superior, esto es lo mismo que un caso en el que se hace referencia a una informacion de movimiento de la primera particion 132.
La informacion de fusion junto con si se realiza una fusion de unidades de datos se puede establecer a traves de un modelado de contexto considerando un modo de prediccion y un tipo de particion de una unidad de datos colindante. Un mdice de un modelo de contexto se puede expresar como una informacion de fusion mediante el analisis de una combinacion de un modo de prediccion y un tipo de particion de una unidad de datos colindante de una unidad de datos actual y un caso en el que la unidad de datos actual y la unidad de datos colindante se fusionan entre sf como un modelo de contexto.
La tabla 1 muestra una informacion de fusion a traves de un modelado de contexto de acuerdo con una realizacion a modo de ejemplo. Para facilitar la explicacion, los objetos a fusionar con una unidad de datos actual se limitan a una unidad de datos colindante izquierda y una unidad de datos colindante superior.
Tabla 1
Unidad de datos colindante izquierda / superior
indice de modelo de contexto de acuerdo con el tipo de particion
2N x 2N
2N x N, 2N x U, 2N x nD N x 2N, nL x 2N, nR x 2L
Para ambas, INTRA modo
0
Para solo una, indicador_fusion = 1
1 3 5
Para ambas, indicador_fusion = 1
2 4 6
Para al menos una, modo de OMISION o modo DIRECTO
7 8 9
5
10
15
20
25
30
35
40
45
50
55
Puede haber unas particiones incluidas de forma selectiva que tienen unas formas arbitrarias tales como unos tipos de particion simetricos 2N x 2N, 2N x N, N x 2N, y N x N que se obtienen mediante la division de una altura o una anchura de una unidad de prediccion de acuerdo con una relacion simetrica, unos tipos de particion asimetricos 2N x nU, 2N x nD, nLx2N, y nRx2N que se obtienen mediante la division de una altura o una anchura de una unidad de prediccion de acuerdo con una relacion asimetrica tal como 1 : n o n : 1, o tipos de particion geometrica que se obtienen mediante la division de una altura o una anchura de una unidad de prediccion en diversas formas geometricas. Los tipos de particion asimetricos 2N x nU y 2N x nD se obtienen mediante la division de una altura de una unidad de prediccion de acuerdo con unas relaciones de 1 : 3 y 3 : 1, respectivamente, y los tipos de particion asimetricos nLx2N y nRx2N se obtienen mediante la division de una anchura de una unidad de prediccion de acuerdo con unas relaciones de 1 : 3 y 3 : 1, respectivamente.
De acuerdo con la tabla 1, debido a que no se realiza una fusion de unidades de datos cuando los modos de prediccion tanto de una unidad de datos colindante izquierda como una unidad de datos colindante superior de una unidad de datos actual son intra modos, la informacion de fusion de la unidad de datos actual se asigna a un mdice 0 sin la necesidad de distinguir los modelos de contexto de acuerdo con los tipos de particion.
Asimismo, suponiendo que los modos de prediccion de una unidad de datos colindante izquierda y una unidad de datos colindante superior son inter modos, no modos de omision o modos directos, cuando solo una de la unidad de datos colindante izquierda y la unidad de datos colindante superior se fusiona con una unidad de datos actual, y cuando tanto la unidad de datos colindante izquierda como la unidad de datos colindante superior se fusionan con la unidad de datos actual, un modelo de contexto de la informacion de fusion se puede establecer de acuerdo con una combinacion de si se realiza una fusion de unidades de datos de acuerdo con los tipos de particion de unidades de datos colindantes. En este caso, cada informacion de fusion se puede asignar a uno de los indices de modelo de contexto 1 a 6 de acuerdo con la tabla 1.
Asimismo, suponiendo que los modos de prediccion son un modo de omision y un modo directo, cuando al menos una de una unidad de datos colindante izquierda y una unidad de datos colindante superior es un modo de omision o un modo directo, un modo de contexto de la informacion de fusion se puede establecer de acuerdo con los tipos de particion de unidades de datos colindantes y cada informacion de fusion se puede asignar a uno de los indices de modelo de contexto 7 a 9 de acuerdo con la tabla 1.
Por consiguiente, el aparato 20 puede leer la informacion de fusion de acuerdo con un modelado de contexto, y puede analizar si se realiza una fusion entre una unidad de datos actual y una unidad de datos colindante y un modo de prediccion y un tipo de particion de la unidad de datos colindante.
El aparato 20 puede inferir una informacion de movimiento de una unidad de datos actual mediante el uso de una informacion de movimiento de una unidad de datos colindante que se fusiona con la unidad de datos actual.
Ademas, el aparato 10 y el aparato 20 pueden realizar una transformacion sobre una unidad de datos fusionada si una forma de la unidad de datos fusionada que se forma mediante una fusion de unidades de datos es un cuadrado regular.
Asimismo, en el aparato 10 y el aparato 20, una unidad de datos colindante que se fusiona con una unidad de datos actual puede compartir una informacion acerca de una direccion de intra prediccion. Una informacion acerca de una direccion de prediccion para una unidad de datos fusionada que se forma mediante una fusion de unidades de datos puede no codificarse o descodificarse de acuerdo con las unidades de datos, pero se puede codificar o descodificar solo una vez para la unidad de datos fusionada.
La figura 16 es un diagrama que ilustra un ejemplo en el que se usa una unidad de datos colindante que se determina que se va a fusionar con una unidad de datos actual, de acuerdo con una realizacion a modo de ejemplo.
El aparato 10 y el aparato 20 pueden ampliar una frontera de una unidad de datos colindante a fusionar con una unidad de datos actual 163, y pueden usar la frontera ampliada para dividir una particion de la unidad de datos actual 164. Por ejemplo, si la unidad de datos actual 163 se fusiona con las unidades de datos colindantes izquierdas 164, 165 y 166, las fronteras de las unidades de datos colindantes izquierdas 164, 165 y 166 se pueden ampliar para alcanzar la unidad de datos actual 163. La unidad de datos actual 163 se puede dividir en particiones 167, 168 y 169 de acuerdo con las fronteras ampliadas de las unidades de datos colindantes izquierdas 165, 165 y 166.
La figura 17 es un diagrama de flujo que ilustra un procedimiento de codificacion de un video mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo.
En la operacion 171, se determina un modo de codificacion que indica una unidad de datos para la codificacion de una imagen y un procedimiento de codificacion que incluye una codificacion de prediccion que se realiza para cada unidad de datos.
En la operacion 172, una aparicion de fusion con al menos una unidad de datos colindante se determina sobre la base de al menos uno de un modo de prediccion y el modo de codificacion de acuerdo con las unidades de datos.
5
10
15
20
25
30
35
40
45
50
55
Una unidad de datos puede incluir una unidad de prediccion para la codificacion de prediccion y una particion para una codificacion de prediccion precisa de la unidad de prediccion.
De entre una pluralidad de unidades de datos colindantes superiores en contacto con una frontera superior y una pluralidad de unidades de datos colindantes izquierdas en contacto con una frontera izquierda de una unidad de datos actual, se puede buscar una unidad de datos a fusionar con la unidad de datos actual. Asimismo, de entre unidades de datos colindantes en contacto con una esquina superior izquierda, una esquina superior derecha superior, y una esquina inferior izquierda de la unidad de datos actual, se puede buscar una unidad de datos a fusionar con la unidad de datos actual.
En la operacion 173, una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion se determinan sobre la base de la aparicion de fusion con la unidad de datos colindante de acuerdo con las unidades de datos, y se codifica una informacion de codificacion que incluye la informacion de modo de prediccion, la informacion relacionada con la fusion, y la informacion relacionada con la prediccion.
Se puede codificar la informacion relacionada con la fusion de una unidad de datos cuyo modo de prediccion es un modo de omision y un modo directo. Por consiguiente, la informacion relacionada con la fusion de una unidad de datos que se determina que se va a fusionar con una unidad de datos colindante previamente determinada se puede codificar despues de que se codifique una informacion de modo de omision o una informacion de modo directo. La informacion relacionada con la fusion puede incluir una informacion de fusion que indica si se realiza una fusion entre una unidad de datos actual y una unidad de datos colindante, y una informacion de mdice de fusion que indica la unidad de datos colindante.
Si se codifican tanto una informacion de modo de omision como una informacion relacionada con la fusion de una unidad de prediccion, una informacion de modo de prediccion y una informacion de tipo de particion de la unidad de prediccion se pueden codificar despues de que se codifiquen la informacion de modo de omision y la informacion relacionada con la fusion.
Si se codifica una informacion de modo de omision de una unidad de prediccion y se codifica una informacion relacionada con la fusion de una particion, la informacion relacionada con la fusion se puede codificar de acuerdo con las particiones despues de la informacion de modo de omision, se codifican una informacion de modo de prediccion y una informacion de tipo de particion de la unidad de prediccion.
La figura 18 es un diagrama de flujo que ilustra un procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos, de acuerdo con una realizacion a modo de ejemplo.
En la operacion 181, se analiza sintacticamente un flujo de bits recibido, unos datos de video codificados y una informacion de codificacion se extraen a partir del flujo de bits, y una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion se extraen a partir de la informacion de codificacion.
La informacion relacionada con la fusion se puede extraer sobre la base de un resultado de la lectura de una informacion de modo de omision o una informacion de modo directo de una unidad de datos actual. Por ejemplo, se puede extraer la informacion relacionada con la fusion de una unidad de datos cuyo modo de prediccion no es un modo de omision. Como alternativa, se puede extraer la informacion relacionada con la fusion de una unidad de datos cuyo modo de prediccion es un inter modo, no un modo de omision y un modo directo. Una informacion de fusion que indica si se realiza una fusion entre una unidad de datos actual y una unidad de datos colindante, y una informacion de mdice de fusion que indica la unidad de datos colindante se pueden leer a partir de la informacion relacionada con la fusion.
Si se extraen una informacion de modo de omision y una informacion relacionada con la fusion para cada unidad de prediccion, una informacion de modo de prediccion y una informacion de tipo de particion de la unidad de prediccion se pueden extraer despues de que se hayan extrafdo la informacion de modo de omision y la informacion relacionada con la fusion.
Si una informacion de modo de omision se extrae a un nivel de unidad de prediccion y una informacion relacionada con la fusion se extrae a un nivel de particion, la informacion relacionada con la fusion se puede extraer de acuerdo con las particiones despues de que se hayan extrafdo la informacion de modo de omision, la informacion de modo de prediccion, y la informacion de tipo de particion de la unidad de prediccion.
En la operacion 182, una aparicion de fusion con al menos una unidad de datos colindante se analiza sobre la base de al menos uno de un modo de prediccion y un modo de codificacion de acuerdo con las unidades de datos sobre la base de la informacion de modo de prediccion y la informacion relacionada con la fusion. La inter prediccion y la compensacion de movimiento se realizan sobre una unidad de datos que se fusiona con una unidad de datos colindante mediante el uso de la informacion relacionada con la prediccion de la unidad de datos colindante, y los datos de video codificados se descodifican de acuerdo con unas unidades de datos determinadas sobre la base de la informacion de codificacion.
5
10
15
20
25
30
35
40
45
50
55
De entre una pluralidad de unidades de datos colindantes superiores en contacto con una frontera superior y una pluralidad de unidades de datos colindantes izquierdas en contacto con una frontera izquierda, una unidad de datos a fusionar con una unidad de datos actual se puede determinar sobre la base de la informacion de fusion y una informacion de mdice de fusion. Asimismo, de entre unidades de datos colindantes en contacto con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda de la unidad de datos actual, se puede determinar una unidad de datos a fusionar con la unidad de datos actual.
La informacion relacionada con el movimiento de una unidad de datos actual se puede reconstruir mediante el uso de la informacion relacionada con el movimiento de una unidad de datos que se fusiona con la unidad de datos actual. Se puede restablecer la unidad de datos actual y se puede restablecer una imagen a traves de una compensacion de movimiento que se realiza sobre la unidad de datos actual mediante el uso de la informacion relacionada con el movimiento.
Un aparato y procedimiento de codificacion de un video y un aparato y procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol de acuerdo con una o mas realizaciones a modo de ejemplo se explicaran a continuacion con referencia a las figuras 19 a 33.
La figura 19 es un diagrama de bloques de un aparato 100 para codificar un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una realizacion a modo de ejemplo.
El aparato 100 incluye una unidad de division de unidad de codificacion maxima 110, una unidad de determinacion de unidad de codificacion 120 y una unidad de salida 130. Para facilitar la explicacion, se hace referencia al aparato 100 para codificar un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol como 'el aparato 100 para codificar un video’.
La unidad de division de unidad de codificacion maxima 110 puede dividir una imagen actual sobre la base de una unidad de codificacion maxima para una imagen actual de una imagen. Si la imagen actual es mas grande que la unidad de codificacion maxima, los datos de imagen de la imagen actual se pueden dividir en al menos una unidad de codificacion maxima. La unidad de codificacion maxima puede ser una unidad de datos que tiene un tamano de 32 x 32, 64 x 64, 128 x 128, 256 x 256, etc., en la que una forma de la unidad de datos es un cuadrado que tiene una anchura y una longitud en cuadrados de 2. Los datos de imagen se pueden emitir a la unidad de determinacion de unidad de codificacion 120 de acuerdo con la al menos una unidad de codificacion maxima.
Una unidad de codificacion puede estar caracterizada por un tamano maximo y una profundidad. La profundidad indica un numero de veces que la unidad de codificacion se divide espacialmente a partir de la unidad de codificacion maxima, y a medida que aumenta la profundidad, las unidades de codificacion mas profunda de acuerdo con las profundidades se pueden dividir de la unidad de codificacion maxima a una unidad de codificacion minima. Una profundidad de la unidad de codificacion maxima es una profundidad lo mas superior y una profundidad de la unidad de codificacion minima es una profundidad lo mas inferior. Debido a que un tamano de una unidad de codificacion que se corresponde con cada profundidad disminuye a medida que aumenta la profundidad de la unidad de codificacion maxima, una unidad de codificacion que se corresponde con una profundidad superior puede incluir una pluralidad de unidades de codificacion que se corresponden con unas profundidades inferiores.
Tal como se ha descrito en lo que antecede, los datos de imagen de la imagen actual se dividen en las unidades de codificacion maxima de acuerdo con un tamano maximo de la unidad de codificacion, y cada una de las unidades de codificacion maxima puede incluir unas unidades de codificacion mas profunda que se dividen de acuerdo con las profundidades. Debido a que la unidad de codificacion maxima se divide de acuerdo con las profundidades, los datos de imagen de un dominio espacial que esta incluido en la unidad de codificacion maxima se pueden clasificar de forma jerarquica de acuerdo con las profundidades.
Se pueden determinar previamente una profundidad maxima y un tamano maximo de una unidad de codificacion, que limitan el numero total de veces que se dividen de forma jerarquica una altura y una anchura de la unidad de codificacion maxima.
La unidad de determinacion de unidad de codificacion 120 codifica al menos una region dividida que se obtiene mediante la division de una region de la unidad de codificacion maxima de acuerdo con las profundidades, y determina una profundidad para emitir unos datos de imagen finalmente codificados de acuerdo con la al menos una region dividida. Dicho de otra forma, la unidad de determinacion de unidad de codificacion 120 determina una profundidad codificada mediante la codificacion de los datos de imagen en las unidades de codificacion mas profunda de acuerdo con las profundidades, de acuerdo con la unidad de codificacion maxima de la imagen actual, y la seleccion de una profundidad que tiene el error de codificacion mmimo. Por lo tanto, los datos de imagen codificados de la unidad de codificacion que se corresponde con la profundidad codificada determinada se emiten finalmente. Asimismo, las unidades de codificacion que se corresponden con la profundidad codificada se pueden considerar como unidades de codificacion codificadas. La profundidad codificada determinada y los datos de imagen codificados de acuerdo con la profundidad codificada determinada se emiten a la unidad de salida 130.
5
10
15
20
25
30
35
40
45
50
55
Los datos de imagen en la unidad de codificacion maxima se codifican sobre la base de unidades de codificacion mas profunda que se corresponden con al menos una profundidad igual a o por debajo de la profundidad maxima, y los resultados de la codificacion de los datos de imagen se comparan sobre la base de cada una de las unidades de codificacion mas profunda. Una profundidad que tiene el error de codificacion mmimo se puede seleccionar despues de comparar los errores de codificacion de las unidades de codificacion mas profunda. Se puede seleccionar al menos una profundidad codificada para cada unidad de codificacion maxima.
El tamano de la unidad de codificacion maxima se divide a medida que una unidad de codificacion se divide de forma jerarquica de acuerdo con las profundidades, y a medida que aumenta el numero de unidades de codificacion. Asimismo, incluso si las unidades de codificacion que se corresponden con la misma profundidad en una unidad de codificacion maxima, cada una de las unidades de codificacion que se corresponden con la misma profundidad se pueden dividir a una profundidad inferior mediante la medicion de un error de codificacion de los datos de imagen de cada una de las unidades de codificacion, por separado. Por consiguiente, incluso cuando se incluyen datos de imagen en una unidad de codificacion maxima, los datos de imagen se dividen en regiones de acuerdo con las profundidades, los errores de codificacion pueden diferir de acuerdo con las regiones en la una unidad de codificacion maxima y, por lo tanto, las profundidades codificadas pueden diferir de acuerdo con las regiones en los datos de imagen. Por lo tanto, se pueden determinar una o mas profundidades codificadas en una unidad de codificacion maxima, y los datos de imagen de la unidad de codificacion maxima se pueden dividir de acuerdo con las unidades de codificacion de al menos una profundidad codificada.
Por consiguiente, la unidad de determinacion de unidad de codificacion 120 puede determinar unas unidades de codificacion que tienen una estructura de arbol que esta incluida en la unidad de codificacion maxima. Las 'unidades de codificacion que tienen una estructura de arbol' incluyen unas unidades de codificacion que se corresponden con una profundidad que se determina que es la profundidad codificada, de entre todas las unidades de codificacion mas profunda que estan incluidas en la unidad de codificacion maxima. Una unidad de codificacion de una profundidad codificada se puede determinar de forma jerarquica de acuerdo con las profundidades en la misma region de la unidad de codificacion maxima, y se puede determinar de forma independiente en diferentes regiones. De forma similar, una profundidad codificada en una region actual se puede determinar de forma independiente a partir de una profundidad codificada en otra region.
Una profundidad maxima es un mdice en relacion con el numero de veces de division de una unidad de codificacion maxima a una unidad de codificacion minima. Una primera profundidad maxima puede indicar el numero total de veces de division de la unidad de codificacion maxima a la unidad de codificacion minima. Una segunda profundidad maxima puede indicar el numero total de niveles de profundidad de la unidad de codificacion maxima a la unidad de codificacion minima. Por ejemplo, cuando una profundidad de la unidad de codificacion maxima es 0, una profundidad de una unidad de codificacion, en la que la unidad de codificacion maxima se divide una vez, se puede establecer a 1, y una profundidad de una unidad de codificacion, en la que la unidad de codificacion maxima se divide dos veces, se puede establecer a 2. En el presente caso, si la unidad de codificacion minima es una unidad de codificacion en la que la unidad de codificacion maxima se divide cuatro veces, existen 5 niveles de profundidad de profundidades 0, 1, 2, 3 y 4 y, por lo tanto, la primera profundidad maxima se puede establecer a 4, y la segunda profundidad maxima se puede establecer a 5.
La codificacion de prediccion y la transformacion se pueden realizar de acuerdo con la unidad de codificacion maxima. La codificacion de prediccion y la transformacion tambien se realizan sobre la base de unidades de codificacion mas profunda de acuerdo con una profundidad igual a o unas profundidades menores que la profundidad maxima, de acuerdo con la unidad de codificacion maxima. La transformacion que se realiza para codificar un video puede incluir una transformacion de frecuencia, una transformacion ortogonal, una transformacion entera, y asf sucesivamente.
Debido a que el numero de unidades de codificacion mas profunda aumenta siempre que la unidad de codificacion maxima se divide de acuerdo con las profundidades, una codificacion que incluye la codificacion de prediccion y la transformacion se realiza sobre la totalidad de las unidades de codificacion mas profunda que se generan a medida que aumenta la profundidad. Para facilitar la descripcion, la codificacion de prediccion y la transformacion se describiran a continuacion sobre la base de una unidad de codificacion de una profundidad actual, en una unidad de codificacion maxima.
El aparato 100 puede seleccionar de forma diversa un tamano o una forma de una unidad de datos para codificar los datos de imagen. Con el fin de codificar los datos de imagen, se realizan operaciones, tales como la codificacion de prediccion, la transformacion y la codificacion por entropfa y, en este momento, se puede usar la misma unidad de datos para todas las operaciones o se pueden usar diferentes unidades de datos para cada operacion.
Por ejemplo, el aparato 100 puede seleccionar no solo una unidad de codificacion para codificar los datos de imagen, sino tambien una unidad de datos diferente de la unidad de codificacion con el fin de realizar la codificacion de prediccion sobre los datos de imagen en la unidad de codificacion.
Con el fin de realizar una codificacion de prediccion en la unidad de codificacion maxima, la codificacion de prediccion se puede realizar sobre la base de una unidad de codificacion que se corresponde con una profundidad
5
10
15
20
25
30
35
40
45
50
55
codificada, es decir, sobre la base de una unidad de codificacion que deja de estar dividida en unas unidades de codificacion que se corresponden con una profundidad inferior. En lo sucesivo en el presente documento, se hara referencia a continuacion a la unidad de codificacion que deja de estar dividida y se vuelve una unidad de base para la codificacion de prediccion como 'unidad de prediccion'. Una particion que se obtiene mediante la division de la unidad de prediccion puede incluir una unidad de datos que se obtiene mediante la division de al menos una de una altura y una anchura de la unidad de prediccion.
Por ejemplo, cuando una unidad de codificacion de 2N x 2N (en la que N es un numero entero positivo) deja de estar dividida y se vuelve una unidad de prediccion de 2N x 2N, y un tamano de una particion puede ser 2N x 2N, 2N x N, N x 2N, o N x N. Los ejemplos de un tipo de particion incluyen unas particiones simetricas que se obtienen mediante la division, de forma simetrica, de una altura o una anchura de la unidad de prediccion, unas particiones que se obtienen mediante la division, de forma asimetrica, de la altura o la anchura de la unidad de prediccion, tal como 1 : n o n : 1, unas particiones que se obtienen mediante la division, de forma geometrica, de la unidad de prediccion y unas particiones que tienen unas formas arbitrarias.
Un modo de prediccion de la unidad de prediccion puede ser al menos uno de un intra modo, un inter modo, y un modo de omision. Por ejemplo, el intra modo o el inter modo se pueden realizar sobre la particion de 2Nx2N, 2N x N, N x 2N, o N x N. Asimismo, el modo de omision se puede realizar solo sobre la particion de 2N x 2N. La codificacion se realiza de forma independiente sobre una unidad de prediccion en una unidad de codificacion, seleccionando de ese modo un modo de prediccion que tiene un error de codificacion mmimo.
El aparato 100 tambien puede realizar la transformacion sobre los datos de imagen en una unidad de codificacion no solo sobre la base de la unidad de codificacion para codificar los datos de imagen, sino tambien sobre la base de una unidad de datos que es diferente de la unidad de codificacion.
Con el fin de realizar la transformacion en la unidad de codificacion, la transformacion se puede realizar sobre la base de una unidad de transformacion que tiene un tamano mas pequeno que o igual a la unidad de codificacion. Por ejemplo, la unidad de transformacion puede incluir una unidad de datos para un intra modo y una unidad de transformacion para un inter modo.
De forma similar a las unidades de codificacion que tienen una estructura de arbol, la unidad de transformacion en la unidad de codificacion se puede dividir de forma recursiva en regiones de un tamano mas pequeno, de tal modo que la unidad de transformacion se puede determinar de forma independiente en unidades de las regiones. Por lo tanto, los datos residuales en la unidad de codificacion se pueden dividir de acuerdo con la transformacion que tiene la estructura de arbol de acuerdo con las profundidades de transformacion.
Se hara referencia a continuacion a una unidad de datos que se usa como una base de la transformacion como 'unidad de transformacion'. Una profundidad de transformacion que indica el numero de veces de division para alcanzar la unidad de transformacion mediante la division de la altura y la anchura de la unidad de codificacion tambien se puede establecer en la unidad de transformacion. Por ejemplo, en una unidad de codificacion actual de 2Nx2N, una profundidad de transformacion puede ser 0 cuando el tamano de una unidad de transformacion tambien es 2N x2N, puede ser 1 cuando cada una de la altura y la anchura de la unidad de codificacion actual se divide en dos partes iguales, se divide totalmente en 4A1 unidades de transformacion, y el tamano de la unidad de transformacion es, por lo tanto, N x N, y puede ser 2 cuando cada una de la altura y la anchura de la unidad de codificacion actual se divide en cuatro partes iguales, se divide totalmente en 4A2 unidades de transformacion y el tamano de la unidad de transformacion es, por lo tanto, N/2xN/2. Por ejemplo, la unidad de transformacion se puede establecer de acuerdo con una estructura jerarquica de arbol, en la que una unidad de transformacion de una profundidad de transformacion superior se divide en cuatro unidades de transformacion de una profundidad de transformacion inferior de acuerdo con las caractensticas jerarquicas de una profundidad de transformacion.
La informacion de codificacion de acuerdo con unas unidades de codificacion que se corresponden con una profundidad codificada requiere no solo una informacion acerca de la profundidad codificada, sino tambien acerca de una informacion en relacion con la codificacion de prediccion y la transformacion. Por consiguiente, la unidad de determinacion de unidad de codificacion 120 no solo determina una profundidad codificada que tiene un error de codificacion mmimo, sino que tambien determina un tipo de particion en una unidad de prediccion, un modo de prediccion de acuerdo con las unidades de prediccion, y un tamano de una unidad de transformacion para la transformacion.
Las unidades de codificacion que tienen una estructura de arbol en una unidad de codificacion maxima y un procedimiento de determinacion de una particion, de acuerdo con realizaciones a modo de ejemplo, se describiran con detalle posteriormente con referencia a las figuras 21 a 31.
La unidad de determinacion de unidad de codificacion 120 puede medir un error de codificacion de las unidades de codificacion mas profunda de acuerdo con las profundidades mediante el uso de Optimizacion de Distorsion de Tasa sobre la base de los multiplicadores de Lagrange.
La unidad de salida 130 emite los datos de imagen de la unidad de codificacion maxima, que se codifican sobre la base de la al menos una profundidad codificada que es determinada por la unidad de determinacion de unidad de
5
10
15
20
25
30
35
40
45
50
55
codificacion 120, y una informacion acerca del modo de codificacion de acuerdo con la profundidad codificada, en flujos de bits.
Los datos de imagen codificados se pueden obtener mediante la codificacion de los datos residuales de una imagen.
La informacion acerca del modo de codificacion de acuerdo con la profundidad codificada puede incluir una informacion acerca de la profundidad codificada, acerca del tipo de particion en la unidad de prediccion, el modo de prediccion, y el tamano de la unidad de transformacion.
La informacion acerca de la profundidad codificada se puede definir mediante el uso de la informacion de division de acuerdo con las profundidades, que indica si la codificacion se realiza sobre las unidades de codificacion de una profundidad inferior en lugar de una profundidad actual. Si la profundidad actual de la unidad de codificacion actual es la profundidad codificada, los datos de imagen en la unidad de codificacion actual se codifican y se emiten y, por lo tanto, la informacion de division se puede definir para no dividir la unidad de codificacion actual a una profundidad inferior. Como alternativa, si la profundidad actual de la unidad de codificacion actual no es la profundidad codificada, la codificacion se realiza sobre la unidad de codificacion de la profundidad inferior y, por lo tanto, la informacion de division se puede definir para dividir la unidad de codificacion actual para obtener las unidades de codificacion de la profundidad inferior.
Si la profundidad actual no es la profundidad codificada, la codificacion se realiza sobre la unidad de codificacion que se divide en la unidad de codificacion de la profundidad inferior. Debido a que al menos una unidad de codificacion de la profundidad inferior existe en una unidad de codificacion de la profundidad actual, la codificacion se realiza de forma repetida sobre cada unidad de codificacion de la profundidad inferior y, por lo tanto, la codificacion se puede realizar de forma recursiva para las unidades de codificacion que tienen la misma profundidad.
Debido a que las unidades de codificacion que tienen una estructura de arbol se determinan para una unidad de codificacion maxima, y una informacion acerca de al menos un modo de codificacion se determina para una unidad de codificacion de una profundidad codificada, una informacion acerca de al menos un modo de codificacion se puede determinar para una unidad de codificacion maxima. Asimismo, una profundidad codificada de los datos de imagen de la unidad de codificacion maxima puede ser diferente de acuerdo con las ubicaciones debido a que los datos de imagen se dividen de forma jerarquica de acuerdo con las profundidades y, por lo tanto, una informacion acerca de la profundidad codificada y el modo de codificacion se puede establecer para los datos de imagen.
Por consiguiente, la unidad de salida 130 puede asignar una informacion de codificacion acerca de una profundidad codificada correspondiente y un modo de codificacion a al menos una de la unidad de codificacion, la unidad de prediccion, y una unidad minima que esta incluida en la unidad de codificacion maxima.
La unidad minima es una unidad de datos rectangular que se obtiene mediante la division de la unidad de codificacion minima que constituye la profundidad lo mas inferior por 4. Como alternativa, la unidad minima puede ser una unidad de datos rectangular maxima que se puede incluir en la totalidad de las unidades de codificacion, las unidades de prediccion, las unidades de particion y las unidades de transformacion que estan incluidas en la unidad de codificacion maxima.
Por ejemplo, la informacion de codificacion que se emite a traves de la unidad de salida 130 se puede clasificar en una informacion de codificacion de acuerdo con las unidades de codificacion y una informacion de codificacion de acuerdo con las unidades de prediccion. La informacion de codificacion de acuerdo con las unidades de codificacion puede incluir la informacion acerca del modo de prediccion y acerca del tamano de las particiones. La informacion de codificacion de acuerdo con las unidades de prediccion puede incluir una informacion acerca de una direccion estimada de un inter modo, acerca de un mdice de imagen de referencia del inter modo, acerca de un vector de movimiento, acerca de un componente de croma de un intra modo, y acerca de un procedimiento de interpolacion del intra modo. Asimismo, una informacion acerca de un tamano maximo de la unidad de codificacion que se define de acuerdo con imagenes, sectores o GOP, y una informacion acerca de una profundidad maxima se pueden insertar en un SPS (Sequence Parameter Set, Conjunto de Parametros de Secuencia) o un encabezado de un flujo de bits.
En el aparato 100, la unidad de codificacion mas profunda puede ser una unidad de codificacion que se obtiene mediante la division de una altura o una anchura de una unidad de codificacion de una profundidad superior por dos. Dicho de otra forma, cuando el tamano de la unidad de codificacion de la profundidad actual es 2N x 2N, el tamano de la unidad de codificacion de la profundidad inferior es N x N. Asimismo, la unidad de codificacion de la profundidad actual que tiene el tamano de 2N x2N puede incluir un maximo 4 de la unidad de codificacion de la profundidad inferior.
Por consiguiente, el aparato 100 puede formar las unidades de codificacion que tienen la estructura de arbol mediante la determinacion de unidades de codificacion que tienen una forma optima y un tamano optimo para cada unidad de codificacion maxima, sobre la base del tamano de la unidad de codificacion maxima y la profundidad maxima que se determina considerando caractensticas de la imagen actual. Asimismo, debido a que la codificacion se puede realizar sobre cada unidad de codificacion maxima mediante el uso de uno cualquiera de diversos modos de prediccion y transformaciones, un modo de codificacion optimo se puede determinar considerando caractensticas
5
10
15
20
25
30
35
40
45
50
55
El aparato 100 puede realizar adicionalmente un procedimiento de fusion de unidades de datos con el fin de compartir la informacion relacionada con la prediccion entre unidades de datos adyacentes una a otra y que tienen una informacion relacionada con la prediccion similar. La unidad de determinacion de unidad de codificacion 120 del aparato 100 puede incluir la unidad de determinacion de unidad de codificacion 11 y la unidad de determinacion de fusion de datos 13 del aparato 10, y la unidad de salida 130 del aparato 100 puede incluir la unidad de determinacion de informacion de codificacion 15 del aparato 10.
Por consiguiente, la unidad de determinacion de unidad de codificacion 120 del aparato 100 puede determinar si una fusion de unidades de datos entre unidades de datos colindantes se realiza sobre las unidades de codificacion, las unidades de prediccion y las particiones que tienen una estructura de arbol, y la unidad de salida 130 puede realizar una codificacion que incluye una informacion relacionada con la fusion en una informacion de codificacion acerca de una unidad de codificacion.
La unidad de salida 130 puede insertar la informacion relacionada con la fusion con la informacion de codificacion acerca de una unidad de codificacion y la informacion acerca de un tamano maximo de una unidad de codificacion de una imagen actual, en un encabezado acerca de la imagen actual, PPS o SPS.
La unidad de determinacion de unidad de codificacion 120 puede analizar una posibilidad de una fusion de unidades de datos para compartir una informacion relacionada con la prediccion con una unidad de datos colindante incluso si un modo de prediccion de una unidad de prediccion actual o una particion actual de las unidades de codificacion que tienen una estructura de arbol es un modo de omision o un modo directo.
La unidad de determinacion de unidad de codificacion 120 puede incluir la totalidad de una pluralidad de unidades de datos colindantes izquierdas que colindan con una frontera izquierda de una unidad de prediccion actual o una particion actual y la totalidad de una pluralidad de unidades de datos colindantes superiores que colindan con una frontera superior en un grupo de candidatas de unidades de datos colindantes a fusionar con la unidad de datos actual o la particion actual.
Tambien se puede hacer referencia a una unidad de datos colindante inferior izquierda que colinda con una esquina inferior izquierda de la unidad de prediccion actual o la particion actual de acuerdo con un orden de exploracion o un orden de descodificacion sobre la base de unidades de codificacion que tienen la estructura de arbol. Por consiguiente, la unidad de determinacion de unidad de codificacion 120 puede incluir adicionalmente unas unidades de datos que colindan con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda ademas de la totalidad de una pluralidad de las unidades de datos colindantes izquierdas y las unidades de datos colindantes superiores en el grupo de candidatas de fusion de la unidad de prediccion actual o la particion actual.
Asimismo, debido a que una posibilidad de una fusion de unidades de datos se determina sobre la base de un modo de prediccion de la unidad de prediccion actual o la particion actual, las codificaciones de una informacion de modo de prediccion y una informacion de fusion estan mtimamente relacionadas. Por ejemplo, la unidad de salida 130 puede codificar una informacion de codificacion de tal modo que la informacion relacionada con la fusion se establece sobre la base de la informacion de omision o la informacion de direccion para la unidad de prediccion actual o la particion actual de las unidades de codificacion que tienen la estructura de arbol.
Debido a que las unidades de codificacion que tienen una estructura de arbol que esta constituida por el aparato 100 incluyen unas unidades de prediccion y unas particiones que tienen diversos modos de prediccion y diversas formas, unidades de prediccion o particiones que tienen diversos modos de prediccion y diversas formas pueden estar en contacto con una frontera superior y una frontera izquierda de la unidad de prediccion actual o la particion actual. La unidad de determinacion de unidad de codificacion 120 puede buscar una posibilidad de que se realice una fusion de unidades de datos entre una unidad de datos actual y una pluralidad de diversas unidades de prediccion colindantes o particiones colindantes en contacto con una frontera superior y una frontera izquierda de la unidad de prediccion actual o la particion actual y puede determinar un objeto a fusionar.
Por consiguiente, debido a que una unidad de prediccion actual o una particion actual comparte una informacion relacionada con la prediccion con unidades de datos colindantes que tienen diversos tamanos, formas y posiciones sobre la base de unidades de codificacion que tienen una estructura de arbol, los datos redundantes se pueden retirar mediante el uso de una informacion periferica en un intervalo mas amplio, y se puede mejorar la eficiencia de codificacion de video.
La figura 20 es un diagrama de bloques de un aparato 200 para descodificar un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol de acuerdo con una realizacion a modo de ejemplo.
El aparato 200 incluye un receptor 210, una unidad de extraccion de datos de imagen y de informacion de codificacion 220, y un descodificador de datos de imagen 230. Para facilitar la explicacion, se hace referencia al aparato 200 para descodificar un video mediante el uso de una fusion de unidades de datos sobre la base de
5
10
15
20
25
30
35
40
45
50
55
Las definiciones de diversas expresiones, tales como una unidad de codificacion, una profundidad, una unidad de prediccion, una unidad de transformacion, y una informacion acerca de diversos modos de codificacion, para diversas operaciones del aparato 200 son identicas a las que se describen con referencia a la figura 19 y el aparato 100.
El receptor 210 recibe y analiza sintacticamente un flujo de bits de un video codificado. La unidad de extraccion de datos de imagen y de informacion de codificacion 220 extrae datos de imagen codificados para cada unidad de codificacion a partir del flujo de bits analizado sintacticamente, en donde las unidades de codificacion tienen una estructura de arbol de acuerdo con las unidades de codificacion maxima, y emite los datos de imagen extrafdos al descodificador de datos de imagen 230. La unidad de extraccion de datos de imagen y de informacion de codificacion 220 puede extraer una informacion acerca de un tamano maximo de una unidad de codificacion de una imagen actual, a partir de un encabezado acerca de la imagen actual, PPS o SPS.
Asimismo, la unidad de extraccion de datos de imagen y de informacion de codificacion 220 extrae una informacion acerca de una profundidad codificada y un modo de codificacion para las unidades de codificacion que tienen una estructura de arbol de acuerdo con las unidades de codificacion maxima, a partir del flujo de bits analizado sintacticamente. La informacion extrafda acerca de la profundidad codificada y el modo de codificacion se emite al descodificador de datos de imagen 230. Dicho de otra forma, los datos de imagen en un flujo de bits se dividen en la unidad de codificacion maxima de tal modo que el descodificador de datos de imagen 230 descodifica los datos de imagen para cada unidad de codificacion maxima.
La informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con la unidad de codificacion maxima se puede establecer para una informacion acerca de al menos una unidad de codificacion que se corresponde con la profundidad codificada, y una informacion acerca de un modo de codificacion puede incluir una informacion acerca de un tipo de particion de una unidad de codificacion correspondiente que se corresponde con la profundidad codificada, acerca de un modo de prediccion, y un tamano de una unidad de transformacion. Asimismo, una informacion de codificacion acerca de una profundidad codificada y un modo de codificacion puede incluir adicionalmente una informacion relacionada con la fusion acerca de una unidad de prediccion actual o una particion actual.
La informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con las unidades de codificacion maxima que son extrafdas por la unidad de extraccion de datos de imagen y de informacion de codificacion 220 es una informacion acerca de una profundidad codificada y un modo de codificacion que se determina para generar un error de codificacion mmimo cuando un codificador, tal como el aparato 100, realiza de forma repetida una codificacion para cada unidad de codificacion mas profunda de acuerdo con unas profundidades de acuerdo con las unidades de codificacion maxima. Por consiguiente, el aparato 200 puede restablecer una imagen mediante la descodificacion de los datos de imagen de acuerdo con una profundidad codificada y un modo de codificacion que genera el error de codificacion mmimo.
Debido a que la informacion de codificacion acerca de la profundidad codificada y el modo de codificacion se puede asignar a una unidad de datos previamente determinada de entre una unidad de codificacion correspondiente, una unidad de prediccion, y una unidad minima, la unidad de extraccion de datos de imagen y de informacion de codificacion 220 puede extraer la informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con las unidades de datos previamente determinadas. Se puede inferir que las unidades de datos previamente determinadas a las que se asigna la misma informacion acerca de la profundidad codificada y el modo de codificacion son las unidades de datos que estan incluidas en la misma unidad de codificacion maxima.
El descodificador de datos de imagen 230 restablece la imagen actual mediante la descodificacion de los datos de imagen en cada unidad de codificacion maxima sobre la base de la informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con las unidades de codificacion maxima. Dicho de otra forma, el descodificador de datos de imagen 230 puede descodificar los datos de imagen codificados sobre la base de la informacion extrafda acerca del tipo de particion, el modo de prediccion, y la unidad de transformacion para cada unidad de codificacion de entre las unidades de codificacion que tienen la estructura de arbol que esta incluida en cada unidad de codificacion maxima. Un procedimiento de descodificacion puede incluir una prediccion que incluye una intra prediccion y una compensacion de movimiento, y una transformacion inversa.
El descodificador de datos de imagen 230 puede realizar una intra prediccion o una compensacion de movimiento de acuerdo con una particion y un modo de prediccion de cada unidad de codificacion, sobre la base de la informacion acerca del tipo de particion y el modo de prediccion de la unidad de prediccion de la unidad de codificacion de acuerdo con las profundidades codificadas.
Asimismo, con el fin de realizar una transformacion inversa de acuerdo con las unidades de codificacion maxima, el descodificador de datos de imagen 230 puede realizar una transformacion inversa sobre la base de una unidad de transformacion para cada unidad de codificacion mediante la lectura de unas unidades de transformacion que tienen una estructura de arbol que incluye una informacion acerca de los tamanos de las unidades de transformacion de las
5
10
15
20
25
30
35
40
45
50
55
El descodificador de datos de imagen 230 puede determinar al menos una profundidad codificada de una unidad de codificacion maxima actual mediante el uso de la informacion de division de acuerdo con las profundidades. Si la informacion de division indica que los datos de imagen dejan de estar divididos en la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el descodificador de datos de imagen 230 puede descodificar datos codificados de al menos una unidad de codificacion que se corresponde con cada una de las profundidades codificadas en la unidad de codificacion maxima actual mediante el uso de la informacion acerca del tipo de particion de la unidad de prediccion, el modo de prediccion, y el tamano de la unidad de transformacion para cada unidad de codificacion que se corresponde con la profundidad codificada, y emitir los datos de imagen de la unidad de codificacion maxima actual.
Dicho de otra forma, las unidades de datos que contienen la informacion de codificacion que incluye la misma informacion de division se pueden reunir mediante la observacion del conjunto de informaciones de codificacion que se asigna a la unidad de datos previamente determinada de entre la unidad de codificacion, la unidad de prediccion, y la unidad minima, y se pueden considerar que las unidades de datos reunidas son una unidad de datos que se va a descodificar mediante el descodificador de datos de imagen 230 en el mismo modo de codificacion.
Asimismo, el aparato 200 puede restablecer una unidad de prediccion actual o una particion actual mediante el uso de una informacion relacionada con la prediccion de una unidad de datos periferica de la unidad de prediccion actual o la particion actual mediante el uso de un procedimiento de fusion de unidades de datos. Para este fin, el receptor 210 y la unidad de extraccion de datos de imagen y de informacion de codificacion 220 del aparato 200 pueden incluir el analizador sintactico / unidad de extraccion 2l del aparato 20, y el descodificador de datos de imagen 230 del aparato 200 puede incluir la unidad de determinacion de fusion de unidades de datos 23 del aparato 20.
La unidad de extraccion de datos de imagen y de informacion de codificacion 220 puede extraer una informacion de modo de prediccion y una informacion relacionada con la fusion a partir de una informacion acerca de un modo de codificacion. La unidad de extraccion de datos de imagen y de informacion de codificacion 220 puede determinar una posibilidad de extraccion y lectura de la informacion relacionada con la fusion de acuerdo con la informacion de modo de prediccion en una informacion acerca de un modo de codificacion sobre la base de una relacion cercana entre la informacion de modo de prediccion y la informacion relacionada con la fusion. Por ejemplo, la unidad de extraccion de datos de imagen y de informacion de codificacion 220 puede extraer la informacion relacionada con la fusion sobre la base de una informacion de modo de omision o una informacion directa para una unidad de prediccion actual o una particion actual de las unidades de codificacion que tienen una estructura de arbol. Asimismo, una informacion de fusion y una informacion de mdice de fusion se pueden extraer como la informacion relacionada con la fusion.
El descodificador de datos de imagen 230 del aparato 200 puede formar unas unidades de codificacion que tienen una estructura de arbol sobre la base de una informacion acerca de un modo de codificacion y una profundidad codificada, y cada unidad de codificacion de entre las unidades de codificacion que tienen la estructura de arbol incluye unas unidades de prediccion y unas particiones que tienen diversos modos de prediccion y diversas formas.
El descodificador de datos de imagen 230 del aparato 200 puede buscar si se puede realizar una fusion entre una unidad de datos actual y diversas unidades de prediccion colindantes o particiones colindantes en contacto con una frontera superior y una frontera izquierda de una unidad de prediccion actual o una particion actual y puede determinar un objeto a fusionar. La informacion relacionada con la prediccion de la unidad de prediccion actual o la particion actual se puede determinar o inferir al hacer referencia a la informacion relacionada con la prediccion de la particion o unidad de prediccion colindante fusionada.
El aparato 200 puede obtener una informacion de codificacion acerca de al menos una unidad de codificacion que genera el error de codificacion mmimo cuando se realiza una codificacion de forma recursiva para cada unidad de codificacion maxima, y puede usar la informacion para descodificar la imagen actual. Dicho de otra forma, se pueden descodificar las unidades de codificacion que tienen la estructura de arbol que se determina que son las unidades de codificacion optimas en cada unidad de codificacion maxima.
Los datos que se codifican al compartir una informacion relacionada con la prediccion de unidades de datos colindantes que tienen diversos tamanos y formas sobre la base de unidades de codificacion de acuerdo con una estructura de arbol se pueden descodificar de manera precisa al hacer referencia a la informacion relacionada con la prediccion de una unidad de datos colindante sobre la base de la informacion relacionada con la prediccion y una informacion relacionada con la fusion que se establece sobre la base de una relacion cercana.
Un procedimiento de determinacion de unas unidades de codificacion que tienen una estructura de arbol, una unidad de prediccion, y una unidad de transformacion de acuerdo con una realizacion a modo de ejemplo se describira a continuacion con referencia a las figuras 21 a 31.
La figura 21 es un diagrama para explicar un concepto de unidades de codificacion de acuerdo con una realizacion a modo de ejemplo.
5
10
15
20
25
30
35
40
45
50
55
Un tamano de una unidad de codificacion se puede expresar en anchura x altura, y puede ser 64x64, 32x32, 16x16 y 8x8. Una unidad de codificacion de 64 x 64 se puede dividir en particiones de 64 x 64, 64 x 32, 32 x 64 o 32x32, y una unidad de codificacion de 32x32 se puede dividir en particiones de 32x32, 32x 16, 16x32 o 16 x 16, una unidad de codificacion de 16 x 16 se puede dividir en particiones de 16x16, 16x8, 8x16 u 8 x 8, y una unidad de codificacion de 8 x 8 se puede dividir en particiones de 8 x 8, 8x4, 4x8 o 4x4.
En los datos de video 310, una resolucion es 1920 x 1080, un tamano maximo de una unidad de codificacion es 64, y una profundidad maxima es 2. En los datos de video 320, una resolucion es 1920 x 1080, un tamano maximo de una unidad de codificacion es 64, y una profundidad maxima es 3. En los datos de video 330, una resolucion es 352 x 288, un tamano maximo de una unidad de codificacion es 16, y una profundidad maxima es 1. La profundidad maxima que se muestra en la figura 11 indica un numero total de divisiones de una unidad de codificacion maxima a una unidad de codificacion minima.
Si una resolucion es alta o una cantidad de datos es grande, un tamano maximo de una unidad de codificacion puede ser grande con el fin de no solo aumentar la eficiencia de codificacion sino tambien reflejar de manera precisa las caractensticas de una imagen. Por consiguiente, el tamano maximo de la unidad de codificacion de los datos de video 310 y 320 que tienen la resolucion mas alta que los datos de video 330 puede ser 64.
Debido a que la profundidad maxima de los datos de video 310 es 2, las unidades de codificacion 315 de los datos de video 310 pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 64, y unas unidades de codificacion que tienen unos tamanos de eje largo de 32 y 16 debido a que las profundidades se aumentan a dos capas mediante la division de la unidad de codificacion maxima dos veces. Mientras tanto, debido a que la profundidad maxima de los datos de video 330 es 1, las unidades de codificacion 335 de los datos de video 330 pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 16, y unas unidades de codificacion que tienen un tamano de eje largo de 8 debido a que las profundidades se aumentan a una capa mediante la division de la unidad de codificacion maxima una vez.
Debido a que la profundidad maxima de los datos de video 320 es 3, las unidades de codificacion 325 de los datos de video 320 pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 64, y unas unidades de codificacion que tienen unos tamanos de eje largo de 32, 16 y 8 debido a que las profundidades se aumentan a 3 capas mediante la division de la unidad de codificacion maxima tres veces. A medida que aumenta una profundidad, se puede expresar con precision una informacion detallada.
La figura 22 es un diagrama de bloques de un codificador de imagen 400 sobre la base de unidades de codificacion, de acuerdo con una realizacion a modo de ejemplo.
El codificador de imagen 400 realiza operaciones de la unidad de determinacion de unidad de codificacion 120 del aparato 100 para codificar datos de imagen. Dicho de otra forma, un intra predictor 410 realiza una intra prediccion sobre las unidades de codificacion en un intra modo, de entre una trama actual 405, y una unidad de estimacion de movimiento 420 y una unidad de compensacion de movimiento 425 realiza una inter estimacion y una compensacion de movimiento sobre las unidades de codificacion en un inter modo de entre la trama actual 405 mediante el uso de la trama actual 405, y una trama de referencia 495.
Los datos que se emiten a partir del intra predictor 410, la unidad de estimacion de movimiento 420 y la unidad de compensacion de movimiento 425 se emiten como un coeficiente de transformacion cuantificado a traves de un transformador 430 y una unidad de cuantificacion 440. El coeficiente de transformacion cuantificado se restablece como datos en un dominio espacial a traves de una unidad de cuantificacion inversa 460 y un transformador inverso 470, y los datos restablecidos en el dominio espacial se emiten como la trama de referencia 495 despues de post- procesarse a traves de una unidad de desbloqueo 480 y una unidad de filtrado de lazo 490. El coeficiente de transformacion cuantificado se puede emitir como un flujo de bits 455 a traves de un codificador por entropfa 450.
Con el fin de aplicar el codificador de imagen 400 en el aparato 100, todos los elementos del codificador de imagen 400, es decir, el intra predictor 410, la unidad de estimacion de movimiento 420, la unidad de compensacion de movimiento 425, el transformador 430, la unidad de cuantificacion 440, el codificador por entropfa 450, la unidad de cuantificacion inversa 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtrado de lazo 490 realizan operaciones sobre la base de cada unidad de codificacion de entre las unidades de codificacion que tienen una estructura de arbol al tiempo que se considera la profundidad maxima de cada unidad de codificacion maxima.
En concreto, el intra predictor 410, la unidad de estimacion de movimiento 420 y la unidad de compensacion de movimiento 425 determinan unas particiones y un modo de prediccion de cada unidad de codificacion de entre las unidades de codificacion que tienen una estructura de arbol al tiempo que se considera el tamano maximo y la profundidad maxima de una unidad de codificacion maxima actual, y el transformador 430 determina el tamano de la unidad de transformacion en cada unidad de codificacion de entre las unidades de codificacion que tienen una estructura de arbol.
La figura 23 es un diagrama de bloques de un descodificador de imagen 500 sobre la base de unidades de codificacion de acuerdo con una realizacion a modo de ejemplo.
5
10
15
20
25
30
35
40
45
50
55
Un analizador sintactico 510 analiza sintacticamente unos datos de imagen codificados que se van a descodificar y una informacion acerca de la codificacion que se requiere para la descodificacion a partir de un flujo de bits 505. Los datos de imagen codificados se emiten como datos inversamente cuantificados a traves de un descodificador por entropfa 520 y una unidad de cuantificacion inversa 530, y los datos inversamente cuantificados se restablecen a datos de imagen en un dominio espacial a traves de un transformador inverso 540.
Un intra predictor 550 realiza una intra prediccion sobre las unidades de codificacion en un intra modo con respecto a los datos de imagen en el dominio espacial, y una unidad de compensacion de movimiento 560 realiza una compensacion de movimiento sobre las unidades de codificacion en un inter modo mediante el uso de una trama de referencia 585.
Los datos de imagen en el dominio espacial, que pasaron a traves del intra predictor 550 y la unidad de compensacion de movimiento 560, se pueden emitir como una trama restablecida 595 despues de post-procesarse a traves de una unidad de desbloqueo 570 y una unidad de filtrado de lazo 580. Asimismo, los datos de imagen que se post-procesan a traves de la unidad de desbloqueo 570 y la unidad de filtrado de lazo 580 se pueden emitir como la trama de referencia 585.
Con el fin de descodificar los datos de imagen en el descodificador de datos de imagen 230 del aparato 200, el descodificador de imagen 500 puede realizar operaciones que se realizan despues del analizador sintactico 510.
Con el fin de aplicar el descodificador de imagen 500 en el aparato 200, todos los elementos del descodificador de imagen 500, es decir, el analizador sintactico 510, el descodificador por entropfa 520, la unidad de cuantificacion inversa 530, el transformador inverso 540, el intra predictor 550, la unidad de compensacion de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtrado de lazo 580 realizan operaciones sobre la base de unidades de codificacion que tienen una estructura de arbol para cada unidad de codificacion maxima.
En concreto, la intra prediccion 550 y la unidad de compensacion de movimiento 560 realizan operaciones sobre la base de las particiones y un modo de prediccion para cada una de las unidades de codificacion que tienen una estructura de arbol, y el transformador inverso 540 realizan operaciones sobre la base de un tamano de una unidad de transformacion para cada unidad de codificacion.
La figura 24 es un diagrama que ilustra unas unidades de codificacion mas profunda de acuerdo con las profundidades y las particiones de acuerdo con una realizacion a modo de ejemplo.
El aparato 100 y el aparato 200 usan unas unidades de codificacion jerarquica con el fin de considerar las caractensticas de una imagen. Una altura maxima, una anchura maxima y una profundidad maxima de las unidades de codificacion se pueden determinar de forma adaptiva de acuerdo con las caractensticas de la imagen, o pueden ser establecidas de forma diferente por un usuario. Los tamanos de las unidades de codificacion mas profunda de acuerdo con las profundidades se pueden determinar de acuerdo con el tamano maximo previamente determinado de la unidad de codificacion.
En una estructura jerarquica 600 de las unidades de codificacion, de acuerdo con una realizacion a modo de ejemplo, la altura maxima y la anchura maxima de las unidades de codificacion son, cada una, 64, y la profundidad maxima es 3. En este caso, una profundidad maxima indica un numero total de divisiones de una unidad de codificacion maxima a una unidad de codificacion minima. Debido a que una profundidad aumenta a lo largo de un eje vertical de la estructura jerarquica 600, se divide cada una de una altura y una anchura de la unidad de codificacion mas profunda. Asimismo, una unidad de prediccion y unas particiones, que son bases para la codificacion de prediccion de cada unidad de codificacion mas profunda, se muestran a lo largo de un eje horizontal de la estructura jerarquica 600.
Dicho de otra forma, una unidad de codificacion 610 es una unidad de codificacion maxima en la estructura jerarquica 600, en la que una profundidad es 0 y un tamano, es decir, una altura por una anchura, es 64x64. La profundidad aumenta a lo largo del eje vertical, y existen una unidad de codificacion 620 que tiene un tamano de 32 x 32 y una profundidad de 1, una unidad de codificacion 630 que tiene un tamano de 16 x 16 y una profundidad de 2, y una unidad de codificacion 640 que tiene un tamano de 8 x 8 y una profundidad de 3. La unidad de codificacion 640 que tiene el tamano de 8 x 8 y la profundidad de 3 es una unidad de codificacion minima.
La unidad de prediccion y las particiones de una unidad de codificacion estan dispuestas a lo largo del eje horizontal de acuerdo con las profundidades. Dicho de otra forma, si la unidad de codificacion 610 que tiene el tamano de 64x64 y la profundidad de 0 es una unidad de prediccion, la unidad de prediccion se puede dividir en particiones que estan incluidas en la unidad de codificacion 610, es decir, una particion 610 que tiene un tamano de 64x64, unas particiones 612 que tienen el tamano de 64 x 32, unas particiones 614 que tienen el tamano de 32 x 64 o unas particiones 616 que tienen el tamano de 32 x 32.
De forma similar, una unidad de prediccion de la unidad de codificacion 620 que tiene el tamano de 32 x 32 y la profundidad de 1 se puede dividir en particiones que estan incluidas en la unidad de codificacion 620, es decir, una particion 620 que tiene un tamano de 32x32, unas particiones 622 que tienen un tamano de 32x16, unas particiones 624 que tienen un tamano de 16 x 32 y unas particiones 626 que tienen un tamano de 16 x 16.
5
10
15
20
25
30
35
40
45
50
55
De forma similar, una unidad de prediccion de la unidad de codificacion 630 que tiene el tamano de 16 x 16 y la profundidad de 2 se puede dividir en particiones que estan incluidas en la unidad de codificacion 630, es decir, una particion que tiene un tamano de 16 x 16 que esta incluida en la unidad de codificacion 630, unas particiones 632 que tienen un tamano de 16 x 8, unas particiones 634 que tienen un tamano de 8 x 16 y unas particiones 636 que tienen un tamano de 8x8.
De forma similar, una unidad de prediccion de la unidad de codificacion 640 que tiene el tamano de 8 x 8 y la profundidad de 3 se puede dividir en particiones que estan incluidas en la unidad de codificacion 640, es decir, una particion que tiene un tamano de 8x8 que esta incluida en la unidad de codificacion 640, unas particiones 642 que tienen un tamano de 8x4, unas particiones 644 que tienen un tamano de 4 x 8 y unas particiones 646 que tienen un tamano de 4x4.
Con el fin de determinar la al menos una profundidad codificada de las unidades de codificacion que constituyen la unidad de codificacion maxima 610, la unidad de determinacion de unidad de codificacion 120 del aparato 100 realiza una codificacion para las unidades de codificacion que se corresponden con cada profundidad que esta incluida en la unidad de codificacion maxima 610.
Un numero de unidades de codificacion mas profunda de acuerdo con las profundidades que incluyen datos en el mismo intervalo y el mismo tamano aumenta a medida que aumenta la profundidad. Por ejemplo, se requieren cuatro unidades de codificacion que se corresponden con una profundidad de 2 para cubrir los datos que estan incluidos en una unidad de codificacion que se corresponde con una profundidad de 1. Por consiguiente, con el fin de comparar los resultados de codificacion de los mismos datos de acuerdo con las profundidades, se codifican cada una de la unidad de codificacion que se corresponde con la profundidad de 1 y cuatro unidades de codificacion que se corresponden con la profundidad de 2.
Con el fin de realizar una codificacion para una profundidad actual de entre la profundidad, se puede seleccionar un error de codificacion mmimo para la profundidad actual mediante la realizacion de una codificacion para cada unidad de prediccion en las unidades de codificacion que se corresponden con la profundidad actual, a lo largo del eje horizontal de la estructura jerarquica 600. Como alternativa, el error de codificacion mmimo se puede buscar mediante la comparacion de los errores de codificacion mmimos de acuerdo con las profundidades, mediante la realizacion de una codificacion para cada profundidad a medida que aumenta la profundidad a lo largo del eje vertical de la estructura jerarquica 600. Una profundidad y una particion que tiene el error de codificacion mmimo en la unidad de codificacion 610 se pueden seleccionar como la profundidad codificada y un tipo de particion de la unidad de codificacion 610.
La figura 25 es un diagrama para explicar una relacion entre una unidad de codificacion 710 y unas unidades de transformacion 720 de acuerdo con una realizacion a modo de ejemplo.
El aparato 100 o 200 codifica o descodifica una imagen de acuerdo con las unidades de codificacion que tienen unos tamanos mas pequenos que o iguales a una unidad de codificacion maxima para cada unidad de codificacion maxima. Los tamanos de las unidades de transformacion para la transformacion durante la codificacion se pueden seleccionar sobre la base de las unidades de datos que no son mas grandes que una unidad de codificacion correspondiente.
Por ejemplo, en el aparato 100 o 200, si un tamano de la unidad de codificacion 710 es 64 x 64, la transformacion se puede realizar mediante el uso de las unidades de transformacion 720 que tienen un tamano de 32 x 32.
Asimismo, los datos de la unidad de codificacion 710 que tiene el tamano de 64 x 64 se pueden codificar mediante la realizacion de la transformacion sobre cada una de las unidades de transformacion que tienen el tamano de 32 x 32, 16x16, 8x8 y 4x4, que son mas pequenos que 64x64 y, entonces, se puede seleccionar una unidad de transformacion que tiene el error de codificacion mmimo.
La figura 26 es un diagrama para explicar informacion de codificacion de unas unidades de codificacion que se corresponden con una profundidad codificada de acuerdo con una realizacion a modo de ejemplo.
La unidad de salida 130 del aparato 100 puede codificar y transmitir una informacion 800 acerca de un tipo de particion, una informacion 810 acerca de un modo de prediccion, y una informacion 820 acerca de un tamano de una unidad de transformacion para cada unidad de codificacion que se corresponde con una profundidad codificada, como informacion acerca de un modo de codificacion.
La informacion 800 indica una informacion acerca de una forma de una particion que se obtiene mediante la division de una unidad de prediccion de una unidad de codificacion actual, en la que la particion es una unidad de datos para la codificacion de prediccion de la unidad de codificacion actual. Por ejemplo, una unidad de codificacion actual CU_0 que tiene un tamano de 2N x 2N se puede dividir en una cualquiera de una particion 802 que tiene un tamano de 2N x 2N, una particion 804 que tiene un tamano de 2N x N, una particion 806 que tiene un tamano de N x 2N, y una particion 808 que tiene un tamano de N x N. En el presente caso, la informacion 800 acerca de un tipo de particion se establece para indicar una de la particion 804 que tiene un tamano de 2N x N, la particion 806 que tiene un tamano de N x 2N, y la particion 808 que tiene un tamano de N x N
5
10
15
20
25
30
35
40
45
50
55
La informacion 810 indica un modo de prediccion de cada particion. Por ejemplo, la informacion 810 puede indicar un modo de codificacion de prediccion que se realiza sobre una particion que se indica mediante la informacion 800, es decir, un intra modo 812, un inter modo 814, o un modo de omision 816.
La informacion 820 indica una unidad de transformacion que va a estar basada en cuando se realiza la transformacion sobre una unidad de codificacion actual. Por ejemplo, la unidad de transformacion puede ser una primera unidad de intra transformacion 822, una segunda unidad de intra transformacion 824, una primera unidad de inter transformacion 826 o una segunda unidad de intra transformacion 828.
La unidad de extraccion de datos de imagen y de informacion de codificacion 220 del aparato 200 puede extraer y usar la informacion 800, 810 y 820 para la descodificacion.
A pesar de que no se muestra en la figura 26, la informacion acerca de un modo de codificacion puede incluir una informacion relacionada con la fusion, y la informacion relacionada con la fusion se puede establecer sobre la base de la informacion 810 acerca del modo de prediccion tal como un inter modo, un intra modo, un modo de omision, o un modo directo. Por ejemplo, si la informacion 810 acerca del modo de prediccion es una informacion acerca de un modo de omision, la informacion relacionada con la fusion se puede establecer de forma selectiva. Solo cuando la informacion 810 acerca del modo de prediccion es una informacion acerca de un inter modo, no un modo de omision y un modo directo, se puede establecer la informacion relacionada con la fusion.
La figura 27 es un diagrama que ilustra unas unidades de codificacion mas profunda de acuerdo con las profundidades de acuerdo con una realizacion a modo de ejemplo.
La informacion de division se puede usar para indicar un cambio de una profundidad. La informacion de division indica si una unidad de codificacion de una profundidad actual se divide en unas unidades de codificacion de una profundidad inferior.
Una unidad de prediccion 910 para la codificacion de prediccion de una unidad de codificacion 900 que tiene una profundidad de 0 y un tamano de 2N_0x2N_0 puede incluir particiones de un tipo de particion 912 que tiene un tamano de 2N_0 x 2N_0, un tipo de particion 914 que tiene un tamano de 2N_0 x N_0, un tipo de particion 916 que tiene un tamano de N_0x2N_0, y un tipo de particion 918 que tiene un tamano de N_0 x N_0. La figura 9 solo ilustra los tipos de particion 912 a 918 que se obtienen mediante la division, de forma simetrica, de la unidad de prediccion 910, pero un tipo de particion no se limita al mismo, y las particiones de la unidad de prediccion 910 pueden incluir unas particiones asimetricas, unas particiones que tienen una forma previamente determinada y unas particiones que tienen una forma geometrica.
La codificacion de prediccion se realiza de forma repetida sobre una particion que tiene un tamano de 2N_0 x 2N_0, dos particiones que tienen un tamano de 2N_0 x N_0, dos particiones que tienen un tamano de N_0 x 2N_0, y cuatro particiones que tienen un tamano de N_0 x N_0, de acuerdo con los tipos de particion. La codificacion de prediccion en un intra modo y un inter modo se puede realizar sobre las particiones que tienen los tamanos de 2N_0 x 2N_0, N_0 x 2N_0, 2N_0 x N_0, y N_0 x N_0. La codificacion de prediccion en un modo de omision se realiza solo sobre la particion que tiene el tamano de 2N_0 x 2N_0.
Se comparan errores de codificacion que incluyen la codificacion de prediccion en los tipos de particion 912 a 918, y se determina el error de codificacion mmimo de entre los tipos de particion. Si un error de codificacion es el mmimo en uno de los tipos de particion 912 a 916, la unidad de prediccion 910 puede no dividirse en una profundidad inferior.
Si el error de codificacion es el mmimo en el tipo de particion 918, una profundidad se cambia de 0 a 1 para dividir el tipo de particion 918 en la operacion 920, y la codificacion se realiza de forma repetida sobre las unidades de codificacion 930 que tienen una profundidad de 1 y un tamano de N_0 x N_0 para buscar un error de codificacion mmimo.
Una unidad de prediccion 940 para la codificacion de prediccion de la unidad de codificacion 930 que tiene una profundidad de 1 y un tamano de 2N_1 x2N_1 (= N_0x N_0) puede incluir particiones de un tipo de particion 942 que tiene un tamano de 2N_1 x2N_1, un tipo de particion 944 que tiene un tamano de 2N_1 xN_1, un tipo de particion 946 que tiene un tamano de N_1 x 2N_1, y un tipo de particion 948 que tiene un tamano de N_1 x N_1.
Si un error de codificacion es el mmimo en el tipo de particion 948, una profundidad se cambia de 1 a 2 para dividir el tipo de particion 948 en la operacion 950, y la codificacion se realiza de forma repetida sobre las unidades de codificacion 960, que tienen una profundidad de 2 y un tamano de N_2 x N_2 para buscar un error de codificacion mmimo.
Cuando una profundidad maxima es d-1, una operacion de division de acuerdo con las profundidades se puede realizar hasta cuando una profundidad se vuelve d -1, y la informacion de division se puede codificar como hasta cuando una profundidad es uno de 0 a d - 2. Dicho de otra forma, cuando se realiza una codificacion hasta cuando la profundidad es d -1 despues de que una unidad de codificacion que se corresponde con una profundidad de d - 2 se haya dividido en la operacion 970, una unidad de prediccion 990 para la codificacion de prediccion de una unidad de
5
10
15
20
25
30
35
40
45
50
55
codificacion 980 que tiene una profundidad de d -1 y un tamano de 2N_(d -1) x 2N_(d -1) puede incluir particiones de un tipo de particion 992 que tiene un tamano de 2N_(d -1) x 2N_(d -1), un tipo de particion 994 que tiene un tamano de 2N_(d -1) x N_(d -1), un tipo de particion 996 que tiene un tamano de N_(d -1) x 2N_(d -1), y un tipo de particion 998 que tiene un tamano de N_(d -1) x N_(d -1).
La codificacion de prediccion se puede realizar de forma repetida sobre una particion que tiene un tamano de 2N_(d -1) x 2N_(d -1), dos particiones que tienen un tamano de 2N_(d -1) x N_(d -1), dos particiones que tienen un tamano de N_(d -1) x 2N_(d -1), cuatro particiones que tienen un tamano de N_(d -1) x N_(d -1) de entre los tipos de particion 992 a 998 para buscar un tipo de particion que tiene un error de codificacion mmimo.
Incluso cuando el tipo de particion 998 tiene el error de codificacion mmimo, debido a que una profundidad maxima es d -1, una unidad de codificacion CU_(d -1) que tiene una profundidad de d -1 deja de estar dividida a una profundidad inferior, y se determina que una profundidad codificada para las unidades de codificacion que constituyen una unidad de codificacion maxima actual 900 es d - 1 y se puede determinar que un tipo de particion de la unidad de codificacion 900 es N_(d -1) x N_(d -1). Asimismo, debido a que la profundidad maxima es d -1 y una unidad de codificacion minima 980 que tiene una profundidad lo mas inferior de d -1 deja de estar dividida a una profundidad inferior, no se establece la informacion de division para una unidad de codificacion 980.
Una unidad de datos 999 puede ser una 'unidad minima’ para la unidad de codificacion maxima actual. Una unidad minima puede ser una unidad de datos rectangular que se obtiene mediante la division de una unidad de codificacion minima 980 por 4. Mediante la realizacion de la codificacion de forma repetida, el aparato 100 puede seleccionar una profundidad que tiene el error de codificacion mmimo mediante la comparacion de los errores de codificacion de acuerdo con las profundidades de la unidad de codificacion 900 para determinar una profundidad codificada, y establecer un tipo de particion correspondiente y un modo de prediccion como un modo de codificacion de la profundidad codificada.
En ese sentido, los errores de codificacion mmimos de acuerdo con las profundidades se comparan en la totalidad de las profundidades de 1 ad, y una profundidad que tiene el error de codificacion mmimo se puede determinar como una profundidad codificada. La profundidad codificada, el tipo de particion de la unidad de prediccion y el modo de prediccion se pueden codificar y transmitir como informacion acerca de un modo de codificacion. Asimismo, debido a que una unidad de codificacion se divide de una profundidad de 0 a una profundidad codificada, solo la informacion de division de la profundidad codificada se establece a 0, y la informacion de division de profundidades que excluyen la profundidad codificada se establece a 1.
La unidad de extraccion de datos de imagen y de informacion de codificacion 220 del aparato 200 puede extraer y usar la informacion acerca de la profundidad codificada y la unidad de prediccion de la unidad de codificacion 900 para descodificar la particion 912. El aparato 200 puede determinar una profundidad, en la que la informacion de division es 0, como una profundidad codificada mediante el uso de la informacion de division de acuerdo con las profundidades, y usar una informacion acerca de un modo de codificacion de la profundidad correspondiente para la descodificacion.
Las figuras 28 a 30 son unos diagramas para explicar una relacion entre las unidades de codificacion 1010, las unidades de prediccion 1060 y las unidades de transformacion 1070 de acuerdo con una realizacion a modo de ejemplo.
Las unidades de codificacion 1010 son unas unidades de codificacion que tienen una estructura de arbol, que se corresponden con las profundidades codificadas que son determinadas por el aparato 100, en una unidad de codificacion maxima. Las unidades de prediccion 1060 son particiones de las unidades de prediccion de cada una de las unidades de codificacion 1010, y las unidades de transformacion 1070 son unas unidades de transformacion de cada una de las unidades de codificacion 1010.
Cuando una profundidad de una unidad de codificacion maxima es 0 en las unidades de codificacion 1010, las profundidades de las unidades de codificacion 1012 y 1054 son 1, las profundidades de las unidades de codificacion 1014, 1016, 1018, 1028, 1050 y 1052 son 2, las profundidades de las unidades de codificacion 1020, 1022, 1024, 1026, 1030, 1032 y 1048 son 3, y las profundidades de las unidades de codificacion 1040, 1042, 1044 y 1046 son 4.
En las unidades de prediccion 1060, algunas unidades de codificacion 1014, 1016, 1022, 1032, 1048, 1050, 1052 y 1054 se dividen en particiones para la codificacion de prediccion. Dicho de otra forma, los tipos de particion en las unidades de codificacion 1014, 1022, 1050 y 1054 tienen un tamano de 2N x N, los tipos de particion en las unidades de codificacion 1016, 1048 y 1052 tienen un tamano de Nx2N, y un tipo de particion de la unidad de codificacion 1032 tiene un tamano de N x N. Las unidades de prediccion y las particiones de las unidades de codificacion 1010 son mas pequenas que o iguales a cada unidad de codificacion.
La transformacion o la transformacion inversa se realiza sobre datos de imagen de la unidad de codificacion 1052 en las unidades de transformacion 1070 en una unidad de datos que es mas pequena que la unidad de codificacion 1052. Asimismo, las unidades de codificacion 1014, 1016, 1022, 1032, 1048, 1050 y 1052 en las unidades de transformacion 1070 son diferentes de las de las unidades de prediccion 1060 en terminos de tamanos y formas. Dicho de otra forma, los aparatos 100 y 200 pueden realizar una intra prediccion, una estimacion de movimiento, una
5
10
15
20
25
30
35
40
compensacion de movimiento, una transformacion y una transformacion inversa de forma individual sobre una unidad de datos en la misma unidad de codificacion.
Por consiguiente, la codificacion se realiza de forma recursiva sobre cada una de las unidades de codificacion que tienen una estructura jerarquica en cada region de una unidad de codificacion maxima para determinar una unidad de codificacion optima y, por lo tanto, se pueden obtener unas unidades de codificacion que tienen una estructura de arbol recursiva. La informacion de codificacion puede incluir una informacion de division acerca de una unidad de codificacion, una informacion acerca de un tipo de particion, una informacion acerca de un modo de prediccion, y una informacion acerca de un tamano de una unidad de transformacion. La tabla 2 muestra la informacion de codificacion que se puede establecer mediante los aparatos 100 y 200.
Tabla 2
Informacion de division 0 (Codificacion sobre una unidad de codificacion que tiene un tamano de 2N x 2N y profundidad actual de d)
Informacion de division 1
Modo de prediccion
Tipo de particion Tamano de la unidad de transformacion
Intra
Tipo de particion simetrico Tipo de particion asimetrico Informacion de division 0 de la unidad de transformacion Informacion de division 1 de la unidad de transformacion Codificar de forma repetida unas unidades de codificacion que tienen una profundidad inferior de d + 1
Inter Omision (Solo
2N x 2N 2N x N N x 2N 2N x nU 2N x nD nL x 2N 2N x 2N N x N (Tipo simetrico) N / 2 x N / 2
2N x 2N)
N x N nR x 2N (Tipo asimetrico)
La unidad de salida 130 del aparato 100 puede emitir la informacion de codificacion acerca de las unidades de codificacion que tienen una estructura de arbol, y la unidad de extraccion de datos de imagen y de informacion de codificacion 220 del aparato 200 puede extraer la informacion de codificacion acerca de las unidades de codificacion que tienen una estructura de arbol a partir de un flujo de bits recibido.
La informacion de division indica si una unidad de codificacion actual se divide en unas unidades de codificacion de una profundidad inferior. Si la informacion de division de una profundidad actual d es 0, una profundidad, en la que una unidad de codificacion actual deja de estar dividida en una profundidad inferior, es una profundidad codificada y, por lo tanto, una informacion acerca de un tipo de particion, un modo de prediccion y un tamano de una unidad de transformacion se puede definir para la profundidad codificada. Si la unidad de codificacion actual se divide adicionalmente de acuerdo con la informacion de division, la codificacion se realiza de forma independiente sobre cuatro unidades de codificacion divididas de una profundidad inferior.
Un modo de prediccion puede ser uno de un intra modo, un inter modo, y un modo de omision. El intra modo y el inter modo se pueden definir en todos los tipos de particion, y el modo de omision se define solo en un tipo de particion que tiene un tamano de 2N x 2N.
La informacion acerca del tipo de particion puede indicar unos tipos de particion simetricos que tienen unos tamanos de 2N x 2N, 2N x N, N x 2N, y N x N, que se obtienen mediante la division, de forma simetrica, de una altura o una anchura de una unidad de prediccion, y unos tipos de particion asimetricos que tienen unos tamanos de 2N x nU, 2N x nD, nL x 2N, ynRx 2N, que se obtienen mediante la division, de forma asimetrica, de la altura o la anchura de la unidad de prediccion. Los tipos de particion asimetricos que tienen los tamanos de 2N x nU y 2N x nD se pueden obtener respectivamente mediante la division de la altura de la unidad de prediccion en 1 : 3 y 3: 1, y los tipos de particion asimetricos que tienen los tamanos de nL x 2N ynRx 2N se pueden obtener respectivamente mediante la division de la anchura de la unidad de prediccion en 1 : 3 y 3 : 1
El tamano de la unidad de transformacion se puede establecer para dos tipos en el intra modo y dos tipos en el inter modo. Dicho de otra forma, si la informacion de division de la unidad de transformacion es 0, el tamano de la unidad de transformacion puede ser 2N x2N, que es el tamano de la unidad de codificacion actual. Si la informacion de division de la unidad de transformacion es 1, las unidades de transformacion se pueden obtener mediante la division de la unidad de codificacion actual. Asimismo, si un tipo de particion de la unidad de codificacion actual que tiene el tamano de 2N x 2N es un tipo de particion simetrico, un tamano de una unidad de transformacion puede ser N x N, y si el tipo de particion de la unidad de codificacion actual es un tipo de particion asimetrico, el tamano de la unidad de transformacion puede ser N / 2 x N / 2.
La informacion de codificacion acerca de las unidades de codificacion que tienen una estructura de arbol puede incluir al menos una de una unidad de codificacion que se corresponde con una profundidad codificada, una unidad de prediccion, y una unidad minima. La unidad de codificacion que se corresponde con la profundidad codificada
5
10
15
20
25
30
35
40
45
50
55
puede incluir al menos una de una unidad de prediccion y una unidad mmima que contiene la misma informacion de codificacion.
Por consiguiente, se determina si unas unidades de datos adyacentes estan incluidas en la misma unidad de codificacion que se corresponde con la profundidad codificada mediante la comparacion de la informacion de codificacion de las unidades de datos adyacentes. Asimismo, una unidad de codificacion correspondiente que se corresponde con una profundidad codificada se determina mediante el uso de la informacion de codificacion de una unidad de datos y, por lo tanto, se puede determinar una distribucion de profundidades codificadas en una unidad de codificacion maxima.
Por consiguiente, si una unidad de codificacion actual se predice sobre la base de la informacion de codificacion de unidades de datos adyacentes, se puede consultar y usar directamente la informacion de codificacion de las unidades de datos en unas unidades de codificacion mas profunda adyacentes a la unidad de codificacion actual.
Como alternativa, si una unidad de codificacion actual se predice sobre la base de la informacion de codificacion de unidades de datos adyacentes, las unidades de datos adyacentes a la unidad de codificacion actual se buscan usando una informacion codificada de las unidades de datos, y se puede hacer referencia a las unidades de codificacion adyacentes buscadas para predecir la unidad de codificacion actual.
La figura 31 es un diagrama para explicar una relacion entre una unidad de codificacion, una unidad de prediccion o una particion, y una unidad de transformacion de acuerdo con una informacion de modo de codificacion de la tabla 2.
Una unidad de codificacion maxima 1300 incluye las unidades de codificacion 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de las profundidades codificadas. En el presente caso, debido a que la unidad de codificacion 1318 es una unidad de codificacion de una profundidad codificada, la informacion de division se puede establecer a 0. Una informacion acerca de un tipo de particion de la unidad de codificacion 1318 que tiene un tamano de 2N x2N se puede establecer para uno de un tipo de particion 1322 que tiene un tamano de 2N x2N, un tipo de particion 1324 que tiene un tamano de 2N x N, un tipo de particion 1326 que tiene un tamano de N x 2N, un tipo de particion 1328 que tiene un tamano de N x N, un tipo de particion 1332 que tiene un tamano de 2N x nU, un tipo de particion 1334 que tiene un tamano de 2N x nD, un tipo de particion 1336 que tiene un tamano de nLx2N, y un tipo de particion 1338 que tiene un tamano de nR x 2N.
La informacion de division (indicador de tamano de TU) de una unidad de transformacion es un mdice de transformacion y, por lo tanto, un tamano de la unidad de transformacion que se corresponde con el mdice de transformacion puede variar de acuerdo con un tipo de unidad de prediccion o un tipo de particion de una unidad de codificacion.
Por ejemplo, cuando el tipo de particion se ajusta para ser simetrico, es decir, el tipo de particion 1322, 1324, 1326 o 1328, se establece una unidad de transformacion 1342 que tiene un tamano de 2n x2N si un indicador de tamano de TU es 0, y se establece una unidad de transformacion 1344 que tiene un tamano de N x N si un indicador de tamano de TU es 1.
Por otro lado, cuando el tipo de particion se ajusta para ser asimetrico, es decir, el tipo de particion 1332, 1334, 1336 o 1338, se establece una unidad de transformacion 1352 que tiene un tamano de 2N x 2N si un indicador de tamano de TU es 0, y se establece una unidad de transformacion 1354 que tiene un tamano de N / 2 x N / 2 si un indicador de tamano de TU es 1.
Haciendo referencia a la figura 18, el indicador de tamano de TU es un indicador que tiene un valor o 0 o 1, pero el indicador de tamano de TU no se limita a 1 bit, y una unidad de transformacion se puede dividir de forma jerarquica teniendo una estructura de arbol mientras que el indicador de tamano de TU aumenta a partir de 0. El indicador de tamano de TU se puede usar como un ejemplo de un mdice de transformacion.
En este caso, un tamano de una unidad de transformacion que se ha usado en la practica se puede expresar mediante el uso de un indicador de tamano de TU de una unidad de transformacion junto con un tamano maximo y un tamano mmimo de la unidad de transformacion. El aparato 100 puede codificar una informacion de tamano de unidad de transformacion maximo, una informacion de tamano de unidad de transformacion mmimo, y un indicador de tamano de TU maximo. El resultado de la codificacion de la informacion de tamano de unidad de transformacion maximo, la informacion de tamano de unidad de transformacion mmimo, y el indicador de tamano de TU maximo se puede insertar en un SPS. El aparato 200 puede descodificar un video mediante el uso de la informacion de tamano de unidad de transformacion maximo, la informacion de tamano de unidad de transformacion mmimo, y el indicador de tamano de TU maximo.
Por ejemplo, si un tamano de una unidad de codificacion actual es 64 x 64 y un tamano de unidad de transformacion maximo es 32 x 32, entonces un tamano de una unidad de transformacion puede ser 32 x 32 cuando un indicador de tamano de TU es 0, puede ser 16 x 16 cuando el indicador de tamano de TU es 1, y puede ser 8 x 8 cuando el indicador de tamano de TU es 2.
5
10
15
20
25
30
35
40
45
50
Como otro ejemplo, si un tamano de una unidad de codificacion actual es 32 x 32 y un tamano de unidad de transformacion mmimo es 32 x 32, entonces un tamano de una unidad de transformacion puede ser 32 x 32 cuando el indicador de tamano de TU es 0. En el presente caso, el indicador de tamano de TU puede no ajustarse a un valor que no sea 0, debido a que el tamano de la unidad de transformacion puede no ser menor que 32 x 32.
Como otro ejemplo, si un tamano de una unidad de codificacion actual es 64 x 64 y un indicador de tamano de TU maximo es 1, entonces el indicador de tamano de TU puede ser 0 o 1. En el presente caso, el indicador de tamano de TU puede no ajustarse a un valor que no sea 0 o 1.
Por lo tanto, si se define que el indicador de tamano de TU maximo es 'MaxTransformSizelndex', un tamano de unidad de transformacion mmimo es 'MinTransformSize', y un tamano de unidad de transformacion es 'RootTuSize' cuando el indicador de tamano de TU es 0, entonces un tamano de unidad de transformacion mmimo actual 'CurrMinTuSize' que se puede determinar en una unidad de codificacion actual, se puede definir mediante la ecuacion (1):
CurrMinTuSize = max(MinTransformSize, RootTuSize/(2AMaxTransformSizelndex))....... (1)
En comparacion con el tamano de unidad de transformacion mmimo actual 'CurrMinTuSize' que se puede determinar en la unidad de codificacion actual, un tamano de unidad de transformacion 'RootTuSize' cuando el indicador de tamano de TU es 0 puede indicar un tamano de unidad de transformacion maximo que se puede seleccionar en el sistema. En la ecuacion (1), 'RootTuSize / (2AMaxTransformSizelndex)' indica un tamano de unidad de transformacion cuando el tamano de unidad de transformacion 'RootTuSize', cuando el indicador de tamano de TU es 0, se divide un numero de veces que se corresponde con el indicador de tamano de TU maximo, y 'MinTransformSize' indica un tamano de transformacion mmimo. Por lo tanto, un valor mas pequeno de entre 'RootTuSize / (2AMaxTransformSizelndex)' y 'MinTransformSize' puede ser el tamano de unidad de transformacion mmimo actual 'CurrMinTuSize' que se puede determinar en la unidad de codificacion actual.
El tamano de unidad de transformacion maximo RootTuSize puede variar de acuerdo con el tipo de un modo de prediccion.
Por ejemplo, si un modo de prediccion actual es un inter modo, entonces 'RootTuSize' se puede determinar mediante el uso de la ecuacion (2) en lo sucesivo. En la ecuacion (2), 'MaxTransformSize' indica un tamano de unidad de transformacion maximo, y 'PUSize' indica un tamano de unidad de prediccion actual.
RootTuSize = mi'n(MaxTransformSize, PUSize)........(2)
Es decir, si el modo de prediccion actual es el inter modo, el tamano de unidad de transformacion 'RootTuSize' cuando el indicador de tamano de TU es 0, puede ser un valor mas pequeno de entre el tamano de unidad de transformacion maximo y el tamano de unidad de prediccion actual.
Si un modo de prediccion de una unidad de particion actual es un intra modo, 'RootTuSize' se puede determinar mediante el uso de la ecuacion (3) en lo sucesivo. En la ecuacion (3), 'PartitionSize' indica el tamano de la unidad de particion actual.
RootTuSize = min(MaxTransformSize, PartitionSize)...........(3)
Es decir, si el modo de prediccion actual es el intra modo, el tamano de unidad de transformacion 'RootTuSize' cuando el indicador de tamano de TU es 0 puede ser un valor mas pequeno de entre el tamano de unidad de transformacion maximo y el tamano de la unidad de particion actual.
No obstante, el tamano de unidad de transformacion maximo actual 'RootTuSize' que vana de acuerdo con el tipo de un modo de prediccion en una unidad de particion es solo un ejemplo y no se limita al mismo.
La figura 32 es un diagrama de flujo que ilustra un procedimiento de codificacion de un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol, de acuerdo con una realizacion a modo de ejemplo.
En la operacion 1210, una imagen actual de un video se divide en unas unidades de codificacion maxima. En la operacion 1220, los datos de imagen se pueden codificar como unidades de codificacion de acuerdo con las profundidades para cada unidad de codificacion maxima de la imagen actual, se puede seleccionar y determinar una profundidad que genera el error de codificacion mmimo de acuerdo con una profundidad codificada, y se pueden determinar las unidades de codificacion que tienen una estructura de arbol que esta compuesta por unidades de codificacion de la profundidad que se determina que es la profundidad codificada. Se pueden emitir datos de imagen de acuerdo con las unidades de codificacion maxima codificadas de acuerdo con la unidad de codificacion determinada.
5
10
15
20
25
30
35
40
45
50
55
60
En la operacion 1230, se puede determinar si se realiza una fusion de unidades de datos entre unidades de datos colindantes sobre las unidades de prediccion o las particiones de las unidades de codificacion que tienen una estructura de arbol. La informacion relacionada con la prediccion se puede compartir entre las unidades de datos fusionadas. La necesidad de una fusion de unidades de datos para compartir la informacion relacionada con la prediccion con una unidad de datos colindante se puede analizar incluso a pesar de que un modo de prediccion de una unidad de prediccion actual o una particion actual de las unidades de codificacion que tienen una estructura de arbol es un modo de omision o un modo directo. En la operacion 1230, una informacion acerca de un modo de codificacion de las unidades de codificacion que tienen la estructura de arbol se puede codificar para incluir una informacion relacionada con la fusion que incluye una informacion de fusion y una informacion de mdice de fusion. Una informacion acerca del modo de codificacion y los datos de imagen de la unidad de codificacion maxima que se codifica sobre la base de unidades de codificacion que tienen la estructura de arbol se pueden emitir en flujos de bits.
La figura 33 es un diagrama de flujo que ilustra un procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos sobre la base de unidades de codificacion que tienen una estructura de arbol de acuerdo con una realizacion a modo de ejemplo.
En la operacion 1310, se recibe y se analiza sintacticamente un flujo de bits de un video codificado. En la operacion 1320, los datos de imagen codificados de unos datos de imagen de imagen actual que se codifican para cada unidad de codificacion de acuerdo con las unidades de codificacion que tienen una estructura de arbol se extraen a partir del flujo de bits analizado sintacticamente de acuerdo con las unidades de codificacion maxima, y se extrae una informacion acerca de una profundidad codificada y un modo de codificacion. A partir de la informacion acerca de la profundidad codificada y el modo de codificacion, se puede extraer la informacion relacionada con la fusion. Una posibilidad de extraccion y lectura de la informacion relacionada con la fusion se puede determinar sobre la base de una informacion de modo de prediccion. Por ejemplo, la informacion relacionada con la fusion se puede extraer sobre la base de una informacion de modo de omision o una informacion directa para una unidad de prediccion actual o una particion actual de las unidades de codificacion que tienen la estructura de arbol. Asimismo, una informacion de fusion y una informacion de mdice de fusion se pueden extraer como la informacion relacionada con la fusion. En la operacion 1330, una informacion acerca de un tipo de particion, un modo de prediccion, y una unidad de transformacion de una unidad de prediccion de las unidades de codificacion que tienen la estructura de arbol se puede leer sobre la base de la informacion acerca del modo de codificacion y la profundidad codificada de la unidad de codificacion maxima, y se puede usar para descodificar los datos de imagen de la unidad de codificacion maxima. Asimismo, se puede buscar un objeto a fusionar de entre una pluralidad de unidades de datos colindantes que colindan con una unidad de datos actual y se puede determinar una fusion de unidades de datos sobre la base de la informacion relacionada con la fusion. La estimacion y la compensacion de movimiento de la unidad de prediccion actual o una particion actual se pueden realizar al inferir la informacion relacionada con la prediccion de la unidad de prediccion actual o la particion actual al compartir o al hacer referencia a la informacion relacionada con la prediccion de una particion o unidad de prediccion colindante fusionada. Se pueden restablecer los datos de imagen de la unidad de codificacion maxima y se puede restablecer una imagen actual a traves de una descodificacion que incluye una estimacion y una compensacion de movimiento de acuerdo con las unidades de codificacion que tienen la estructura de arbol. En el aparato 100 y el aparato 200, debido a que se examina una posibilidad de que se pueda realizar una fusion de unidades de datos para compartir una informacion relacionada con la prediccion mutua acerca de los modos de prediccion y unas particiones que tienen diversos modos de prediccion, diversos tamanos y formas de acuerdo con una estructura de arbol, se realiza una fusion entre unidades de datos colindantes que tienen diversas posiciones, haciendo posible compartir, de ese modo, la informacion relacionada con la prediccion. Por consiguiente, debido a que los datos redundantes se pueden retirar mediante el uso de una informacion periferica en un intervalo mas amplio, se puede mejorar la eficiencia de codificacion de los datos de imagen. Asimismo, debido a que una informacion de modo de prediccion y una informacion relacionada con la fusion se codifican y se descodifican de forma jerarquica y continua en consideracion de una relacion cercana entre una posibilidad de fusion y diversos modos de prediccion, se puede mejorar la eficiencia de codificacion de informacion.
Los siguientes parrafos numerados definen aspectos utiles para la comprension de la divulgacion.
1. Un procedimiento de descodificacion de un video mediante el uso de una fusion de unidades de datos, comprendiendo el procedimiento analizar sintacticamente un flujo de bits recibido para extraer unos datos de video codificados y una informacion de codificacion y extraer una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion en la informacion de codificacion; y analizar una aparicion de fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y un modo de codificacion de acuerdo con las unidades de datos sobre la base de la informacion de modo de prediccion extrafda y la informacion relacionada con la fusion extrafda, y realizar una inter prediccion y una compensacion de movimiento mediante el uso de una informacion relacionada con la prediccion de la al menos una unidad de datos colindante sobre una unidad de datos actual que se fusiona con la al menos una unidad de datos colindante, para descodificar los datos de video codificados de acuerdo con las unidades de datos que se determinan sobre la base de la informacion de codificacion.
2. El procedimiento del parrafo 1, en el que: la unidad de datos actual comprende al menos una de una unidad de codificacion que se obtiene mediante la division de la imagen con el fin de descodificar la imagen, y una unidad
5
10
15
20
25
30
35
40
45
50
55
60
de prediccion que se obtiene mediante la division de la imagen para la descodificacion de prediccion de la imagen; la extraccion y lectura comprende extraer y leer, para cada una de las unidades de datos, una informacion de modo de omision que indica si un modo de prediccion de la unidad de datos actual es un modo de omision, y determinar, para cada una de las unidades de datos, si se extrae una informacion de fusion que indica si se fusionan entre sf la unidad de datos actual y la al menos una unidad de datos colindante sobre la base de la informacion de modo de omision lefda; y la descodificacion comprende determinar la aparicion de fusion con la al menos una unidad de datos colindante sobre la base de la informacion de fusion para cada una de las unidades de datos.
3. El procedimiento del parrafo 2, en el que la extraccion y lectura comprende adicionalmente: extraer una informacion diferencial de vector de movimiento de la unidad de datos actual sobre la base de la informacion de fusion y determinar si se extrae una informacion de prediccion auxiliar de la unidad de datos actual; y extraer una informacion de mdice de fusion que indica una unidad de datos a fusionar con la unidad de datos actual a partir de la informacion relacionada con la fusion.
4. El procedimiento del parrafo 1, en el que si la unidad de datos actual se fusiona con al menos una unidad de datos colindante sobre la base de la informacion de fusion de la informacion relacionada con la fusion extrafda, el analisis comprende: determinar al menos un grupo de unidades de datos candidatas que comprende unas unidades de datos que son candidatas de fusion con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual sobre la base de una informacion de mdice de fusion en la informacion relacionada con la fusion; y determinar una unidad de datos a fusionar con la unidad de datos actual de entre las unidades de datos en el al menos un grupo de unidades de datos candidatas determinado.
5. El procedimiento del parrafo 1, en el que si la unidad de datos actual comprende una particion que se obtiene mediante la division de una unidad de prediccion para la inter prediccion de una imagen, el analisis sintactico y la extraccion comprende extraer una informacion de modo de omision a partir de la informacion de modo de prediccion para cada modo de prediccion, y si la unidad de prediccion se divide en particiones, extraer la informacion relacionada con la fusion para cada particion; la extraccion comprende adicionalmente extraer de forma secuencial la informacion de modo de omision, la informacion de unidad de prediccion, la informacion de particion, y la informacion de fusion acerca de la unidad de prediccion; no se realiza una fusion mutua entre particiones colindantes que se obtienen mediante la division de una unidad de datos para la inter prediccion; y la informacion de particion comprende una informacion acerca de si la unidad de prediccion se divide en particiones y una informacion acerca de un tipo de particion.
6. El procedimiento del parrafo 1, en el que: en un procedimiento de codificacion de una imagen, con respecto a una unidad de codificacion maxima que se obtiene mediante la division de la imagen en unas unidades de codificacion con unos tamanos maximos previamente determinados, de acuerdo con unas regiones que se obtienen mediante la division, de forma jerarquica, de una unidad de codificacion maxima a medida que aumenta una profundidad, si una profundidad codificada que es una profundidad que genera un error de codificacion mmimo mediante la realizacion de una intra prediccion, una inter prediccion, una transformacion y una cuantificacion para cada una de al menos una unidad de datos de acuerdo con las profundidades se determina para formar unas unidades de codificacion que tienen una estructura de arbol de acuerdo con la unidad de codificacion maxima, el analisis sintactico y la extraccion comprende extraer una informacion de codificacion que indica un procedimiento de codificacion que incluye una particion o una unidad de prediccion para la intra prediccion o la inter prediccion y datos codificados que se codifican sobre la base del modo de codificacion para cada unidad de codificacion de la profundidad codificada, en el que la unidad de datos actual es una unidad de prediccion o una particion de la unidad de codificacion de la profundidad codificada.
7. Un procedimiento de codificacion de un video mediante el uso de una fusion de unidades de datos, comprendiendo el procedimiento: determinar un modo de codificacion que indica una unidad de datos actual para la codificacion de una imagen y un procedimiento de codificacion para la codificacion de prediccion que se realiza para la unidad de datos actual; determinar una aparicion de fusion con al menos una unidad de datos colindante, que colinda con la unidad de datos actual, sobre la base de al menos uno de un modo de prediccion y el modo de codificacion; y determinar una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion sobre la base de la aparicion determinada de fusion con la al menos una unidad de datos colindante y determinar una informacion de codificacion de la unidad de datos actual que incluye la informacion de modo de prediccion determinada, la informacion relacionada con la fusion determinada, y la informacion relacionada con la prediccion determinada.
8. El procedimiento del parrafo 7, en el que: la unidad de datos actual comprende al menos una de una unidad de codificacion que se obtiene mediante la division de la imagen con el fin de codificar la imagen, y una unidad de prediccion que se obtiene mediante la division de la imagen para la codificacion de prediccion de la imagen; la determinacion de la informacion de codificacion comprende determinar, para cada unidad de datos, una informacion de modo de omision que indica si el modo de prediccion de la unidad de datos actual es un modo de omision, y determinar, para cada unidad de datos, si se va a codificar una informacion de fusion que indica si se fusionan entre sf la unidad de datos actual y la al menos una unidad de datos colindante sobre la base de la informacion de modo de omision determinada; la informacion de modo de omision y la informacion de fusion se
5
10
15
20
25
30
35
40
45
50
55
60
determinan para cada una de las unidades de datos; y la unidad de datos actual comprende al menos una de una unidad de codificacion y una unidad de prediccion, cada una de las cuales se obtiene mediante la division de la imagen con el fin de codificar la imagen.
9. El procedimiento del parrafo 8, en el que la determinacion de la informacion de codificacion comprende adicionalmente: determinar y codificar una informacion de fusion acerca de la unidad de datos actual y una informacion de mdice de fusion que indica una unidad de datos a fusionar como la informacion relacionada con la fusion; y codificar una informacion diferencial de vector de movimiento de la unidad de datos sobre la base de la informacion de fusion y determinar si se va a codificar una informacion de prediccion auxiliar de la unidad de datos actual.
10. El procedimiento del parrafo 8, en el que la determinacion de la aparicion de fusion comprende: determinar al menos un grupo de unidades de datos candidatas que incluye unas unidades de datos que son candidatas de fusion con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual; y buscar y determinar una unidad de datos a fusionar con la unidad de datos actual de entre las unidades de datos en el al menos un grupo de unidades de datos candidatas determinado.
11. El procedimiento del parrafo 8, en el que, si la unidad de datos actual comprende adicionalmente una particion que se obtiene mediante la division de la unidad de prediccion para la inter prediccion de la imagen, la determinacion de la informacion de codificacion comprende: codificar la informacion de modo de omision en la informacion de modo de prediccion para cada unidad de prediccion, y si la unidad de prediccion se divide en particiones, determinar la informacion relacionada con la fusion para cada particion; y codificar de forma secuencial la informacion de modo de omision, la informacion de unidad de prediccion, la informacion de particion y la informacion de fusion para cada unidad de prediccion; no se realiza una fusion mutua entre particiones colindantes que se obtienen mediante la division de una unidad de datos para la inter prediccion; y la informacion de particion comprende una informacion acerca de si la unidad de prediccion se divide en particiones y una informacion acerca de un tipo de particion.
12. El procedimiento del parrafo 7, en el que la determinacion del modo de codificacion comprende: determinar el modo de codificacion con respecto a una unidad de codificacion maxima que se obtiene mediante la division de la imagen en unas unidades de codificacion con unos tamanos maximos previamente determinados, de acuerdo con unas regiones que se obtienen mediante la division, de forma jerarquica, de la unidad de codificacion maxima a medida que aumenta una profundidad, determinar una profundidad codificada que es una profundidad que genera un error de codificacion mmimo mediante la realizacion de una intra prediccion, una inter prediccion, una transformacion y una cuantificacion para cada una de al menos una unidad de codificacion de acuerdo con las profundidades, determinar un modo de codificacion que indica un procedimiento de codificacion que incluye una particion o una unidad de prediccion para la intra prediccion o la inter prediccion para cada unidad de codificacion de la profundidad codificada, y determinar unas unidades de codificacion que tienen una estructura de arbol de acuerdo con la unidad de codificacion maxima, en el que la unidad de datos actual es una unidad de prediccion o una particion de la unidad de codificacion de la profundidad codificada.
13. Un aparato para descodificar un video mediante el uso de una fusion de unidades de datos, comprendiendo el aparato: un analizador sintactico y unidad de extraccion que analiza sintacticamente un flujo de bits recibido para extraer unos datos de video codificados y una informacion de codificacion y para extraer una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion en la informacion de codificacion; y una unidad de fusion y descodificador de unidades de datos que analiza una aparicion de fusion con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de prediccion y un modo de codificacion de acuerdo con las unidades de datos sobre la base de la informacion de modo de prediccion extrafda y la informacion relacionada con la fusion extrafda y realiza una inter prediccion y una compensacion de movimiento mediante el uso de una informacion relacionada con la prediccion de la al menos una unidad de datos colindante sobre una unidad de datos actual que se fusiona con la unidad de datos colindante, para descodificar los datos de video codificados de acuerdo con las unidades de datos que se determinan sobre la base de la informacion de codificacion.
14. Un aparato para codificar un video mediante el uso de una fusion de unidades de datos, comprendiendo el aparato: una unidad de determinacion de modos de codificacion que determina un modo de codificacion que indica una unidad de datos actual para codificar una imagen y un procedimiento de codificacion que incluye una codificacion de prediccion para la unidad de datos actual; una unidad de determinacion de fusion de unidades de datos que determina una aparicion de fusion con al menos una unidad de datos colindante, que colinda con la unidad de datos actual, sobre la base de al menos uno de un modo de prediccion y el modo de codificacion; y una unidad de determinacion de informacion de codificacion que determina una informacion de modo de prediccion, una informacion relacionada con la fusion y una informacion relacionada con la prediccion sobre la base de la aparicion determinada de fusion con la unidad de datos colindante y determina una informacion de codificacion de la unidad de datos actual que incluye la informacion de modo de prediccion, la informacion relacionada con la fusion, y la informacion relacionada con la prediccion.
15. Un medio de registro legible por ordenador que tiene, incorporado en el mismo, un programa para ejecutar uno de los procedimientos de los parrafos 1 y 7.
Una o mas realizaciones a modo de ejemplo se pueden escribir como programas informaticos y se pueden implementar en ordenadores digitales de uso general que ejecutan los programas usando un medio de registro 5 legible por ordenador. Los ejemplos del medio de registro legible por ordenador incluyen medios de almacenamiento magnetico (por ejemplo, ROM, discos flexibles, discos duros, etc.) y medios de registro optico (por ejemplo, CD- ROM o DVD).

Claims (1)

  1. 5
    10
    15
    20
    25
    REIVINDICACIONES
    1. Un aparato de descodificacion de un video, comprendiendo el aparato:
    un analizador sintactico que obtiene, de un flujo de bits recibido, un indicador de omision para una unidad de codificacion que indica si un modo de codificacion para la unidad de codificacion es un modo de omision y, cuando el indicador de omision indica un modo no de omision, obtiene, del flujo de bits, una informacion acerca de un tipo de particion para la prediccion y la determinacion de al menos una particion a partir de la unidad de codificacion usando la informacion acerca de un tipo de particion y obtiene, del flujo de bits recibido, un indicador de fusion para la particion; y
    una unidad de obtencion de informacion de movimiento que, cuando el indicador de fusion para la particion indica un modo de fusion, obtiene un mdice de fusion para la particion y la determinacion de informacion de movimiento para la particion usando informacion de movimiento de un bloque que indica el mdice de fusion y, cuando el indicador de fusion para la particion indica un modo de no fusion, obtiene, del flujo de bits, informacion de movimiento para la particion; y
    un descodificador de datos que, cuando el indicador de fusion para la particion indica un modo de fusion, realiza una compensacion de movimiento sobre la particion usando la informacion de movimiento determinada del bloque que indica el mdice de fusion y, cuando el indicador de fusion para la particion indica un modo de no fusion, realiza una compensacion de movimiento sobre la particion usando la informacion de movimiento obtenida,
    caracterizado porque el mdice de fusion indica un bloque de entre un grupo de bloques candidatos de fusion que comprende uno o mas bloques de entre los siguientes tres bloques colindantes de la particion:
    un bloque inferior izquierdo ubicado en un lado izquierdo de un bloque lo mas a la izquierda de entre los bloques inferiores directamente por debajo de un lfmite inferior de la particion,
    un bloque superior izquierdo ubicado en un lado izquierdo de un bloque lo mas a la izquierda de entre los bloques superiores directamente por encima de un lfmite superior de la particion, estando ubicado el bloque superior izquierdo por encima de un bloque lo mas superior de entre los bloques izquierdos adyacentes al lfmite izquierdo de la particion, y
    un bloque superior derecho ubicado en un lado derecho de un bloque lo mas a la derecha de entre los bloques superiores directamente por encima del lfmite superior de la particion.
ES15154330.3T 2010-07-09 2011-07-07 Aparato de descodificación de vídeo mediante el uso de fusión de bloques Active ES2631031T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US36282910P 2010-07-09 2010-07-09
US362829P 2010-07-09
US36795210P 2010-07-27 2010-07-27
US367952P 2010-07-27
KR20110006486 2011-01-21
KR20110006486A KR101484281B1 (ko) 2010-07-09 2011-01-21 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치

Publications (1)

Publication Number Publication Date
ES2631031T3 true ES2631031T3 (es) 2017-08-25

Family

ID=45611872

Family Applications (5)

Application Number Title Priority Date Filing Date
ES11803806.6T Active ES2613610T3 (es) 2010-07-09 2011-07-07 Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques
ES15166149.3T Active ES2688031T3 (es) 2010-07-09 2011-07-07 Procedimiento de decodificación de vídeo usando fusión de bloques
ES15166150.1T Active ES2688033T3 (es) 2010-07-09 2011-07-07 Aparato para codificar vídeo usando fusión de bloques
ES14193556.9T Active ES2614203T3 (es) 2010-07-09 2011-07-07 Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques
ES15154330.3T Active ES2631031T3 (es) 2010-07-09 2011-07-07 Aparato de descodificación de vídeo mediante el uso de fusión de bloques

Family Applications Before (4)

Application Number Title Priority Date Filing Date
ES11803806.6T Active ES2613610T3 (es) 2010-07-09 2011-07-07 Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques
ES15166149.3T Active ES2688031T3 (es) 2010-07-09 2011-07-07 Procedimiento de decodificación de vídeo usando fusión de bloques
ES15166150.1T Active ES2688033T3 (es) 2010-07-09 2011-07-07 Aparato para codificar vídeo usando fusión de bloques
ES14193556.9T Active ES2614203T3 (es) 2010-07-09 2011-07-07 Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques

Country Status (24)

Country Link
EP (2) EP3442230B1 (es)
JP (5) JP5738991B2 (es)
KR (7) KR101484281B1 (es)
CN (6) CN104869408B (es)
AU (1) AU2011274722B2 (es)
BR (5) BR122020014015B1 (es)
CA (5) CA2886724C (es)
CY (1) CY1118484T1 (es)
DK (1) DK2580912T3 (es)
ES (5) ES2613610T3 (es)
HR (5) HRP20170129T1 (es)
HU (5) HUE033266T2 (es)
LT (5) LT2580912T (es)
MX (1) MX2013000345A (es)
MY (5) MY178332A (es)
PH (4) PH12015500919B1 (es)
PL (4) PL2897365T3 (es)
PT (5) PT2858366T (es)
RS (4) RS55650B1 (es)
RU (6) RU2013105501A (es)
SG (6) SG196797A1 (es)
SI (4) SI2580912T1 (es)
TR (1) TR201813132T4 (es)
ZA (1) ZA201300578B (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567853B8 (en) 2009-03-23 2024-01-03 Ntt Docomo, Inc. Image predictive decoding device and image predictive decoding method
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
EP2580912B1 (en) 2010-07-09 2017-01-25 Samsung Electronics Co., Ltd Method for decoding video by using block merging
ES2785606T3 (es) 2010-07-20 2020-10-07 Ntt Docomo Inc Dispositivo de decodificación predictiva de imágenes, método de decodificación predictiva de imágenes
JP6258704B2 (ja) * 2010-11-04 2018-01-10 ジーイー ビデオ コンプレッション エルエルシー ブロック統合およびスキップモードをサポートする画像符号化および画像復号化
EP4319166A3 (en) 2010-11-25 2024-02-28 LG Electronics Inc. Method offor signaling image information, and method offor decoding image information using same
US11284081B2 (en) 2010-11-25 2022-03-22 Lg Electronics Inc. Method for signaling image information, and method for decoding image information using same
JP2012209911A (ja) * 2010-12-20 2012-10-25 Sony Corp 画像処理装置および方法
US10171813B2 (en) 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
CN107277548B (zh) * 2011-08-29 2019-12-06 苗太平洋控股有限公司 以合并模式对图像编码的方法
KR102070431B1 (ko) * 2012-01-19 2020-01-28 삼성전자주식회사 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
AU2012200345B2 (en) * 2012-01-20 2014-05-01 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the significance map residual coefficients of a transform unit
KR101895389B1 (ko) * 2012-11-27 2018-10-18 연세대학교 산학협력단 영상 부호화 방법 및 장치
CN104104964B (zh) * 2013-04-09 2019-03-12 乐金电子(中国)研究开发中心有限公司 一种深度图像帧间编码、解码方法、编码器及解码器
US9497485B2 (en) 2013-04-12 2016-11-15 Intel Corporation Coding unit size dependent simplified depth coding for 3D video coding
US10582213B2 (en) 2013-10-14 2020-03-03 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
WO2015054813A1 (en) * 2013-10-14 2015-04-23 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
US10506254B2 (en) 2013-10-14 2019-12-10 Microsoft Technology Licensing, Llc Features of base color index map mode for video and image coding and decoding
EP4096221A1 (en) 2014-01-03 2022-11-30 Microsoft Technology Licensing, LLC Block vector prediction in video and image coding/decoding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
BR112016018814A8 (pt) 2014-03-04 2020-06-23 Microsoft Technology Licensing Llc dispositivo de computação, método em dispositivo de computação com decodificador de vídeo ou decodificador de imagem e meio legível por computador
US10944983B2 (en) 2014-04-01 2021-03-09 Mediatek Inc. Method of motion information coding
KR102413529B1 (ko) 2014-06-19 2022-06-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통합된 인트라 블록 카피 및 인터 예측 모드
US20160029022A1 (en) * 2014-07-25 2016-01-28 Mediatek Inc. Video processing apparatus with adaptive coding unit splitting/merging and related video processing method
WO2016049839A1 (en) 2014-09-30 2016-04-07 Microsoft Technology Licensing, Llc Rules for intra-picture prediction modes when wavefront parallel processing is enabled
MX2017005651A (es) * 2014-10-31 2017-06-29 Samsung Electronics Co Ltd Dispositivo de codificacion de video y dispositivo de decodificacion de video que usa la codificacion de salto de alta precision y metodo del mismo.
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
US10721467B2 (en) 2015-05-05 2020-07-21 Lg Electronics Inc. Method and device for processing coding unit in image coding system
CN106664405B (zh) 2015-06-09 2020-06-09 微软技术许可有限责任公司 用调色板模式对经逸出编码的像素的稳健编码/解码
JP2018535607A (ja) * 2015-11-24 2018-11-29 サムスン エレクトロニクス カンパニー リミテッド 映像を符号化/復号する方法、及びその装置
US11095892B2 (en) 2016-09-20 2021-08-17 Kt Corporation Method and apparatus for processing video signal
WO2018070742A1 (ko) * 2016-10-11 2018-04-19 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20180045530A (ko) 2016-10-26 2018-05-04 디지털인사이트 주식회사 임의의 블록 분할을 사용하는 비디오 코딩 방법 및 장치
US20190335170A1 (en) * 2017-01-03 2019-10-31 Lg Electronics Inc. Method and apparatus for processing video signal by means of affine prediction
CN116962676A (zh) 2017-01-16 2023-10-27 世宗大学校产学协力团 影像解码/编码方法以及传送比特流的方法
KR102390413B1 (ko) * 2017-03-03 2022-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
KR102317094B1 (ko) * 2017-09-28 2021-10-25 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN117834907A (zh) 2018-07-02 2024-04-05 英迪股份有限公司 对视频进行解码的方法和对视频进行编码的方法
US11570461B2 (en) 2018-10-10 2023-01-31 Samsung Electronics Co., Ltd. Method for encoding and decoding video by using motion vector differential value, and apparatus for encoding and decoding motion information
CN111083491A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 细化运动矢量的利用
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
WO2020085953A1 (en) * 2018-10-25 2020-04-30 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for inter prediction
WO2020098655A1 (en) 2018-11-12 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Motion vector storage for inter prediction
CN117319644A (zh) 2018-11-20 2023-12-29 北京字节跳动网络技术有限公司 基于部分位置的差计算
WO2020103870A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
US20200169757A1 (en) * 2018-11-23 2020-05-28 Mediatek Inc. Signaling For Multi-Reference Line Prediction And Multi-Hypothesis Prediction
GB2580084B (en) * 2018-12-20 2022-12-28 Canon Kk Video coding and decoding
CN115442616A (zh) * 2018-12-21 2022-12-06 华为技术有限公司 视频解码方法及装置
JP2022521554A (ja) 2019-03-06 2022-04-08 北京字節跳動網絡技術有限公司 変換された片予測候補の利用
CN113647099B (zh) 2019-04-02 2022-10-04 北京字节跳动网络技术有限公司 解码器侧运动矢量推导
US11616966B2 (en) * 2019-04-03 2023-03-28 Mediatek Inc. Interaction between core transform and secondary transform
CN115955565B (zh) * 2023-03-15 2023-07-04 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
KR100223170B1 (ko) * 1996-07-22 1999-10-15 윤종용 영역기반 동영상부호화시스템의 영역분할 및움직임추정을 동시에최적화하기 위한 방법 및 장치
US6043846A (en) * 1996-11-15 2000-03-28 Matsushita Electric Industrial Co., Ltd. Prediction apparatus and method for improving coding efficiency in scalable video coding
AU4601697A (en) * 1996-12-18 1998-07-15 Thomson Consumer Electronics, Inc Efficient fixed-length block compression and decompression
JP2004208259A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
US7720154B2 (en) * 2004-11-12 2010-05-18 Industrial Technology Research Institute System and method for fast variable-size motion estimation
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
EP2106666B1 (en) 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
KR20090113281A (ko) * 2007-01-24 2009-10-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN101682774B (zh) * 2007-02-23 2013-07-24 日本电信电话株式会社 视频编码方法和解码方法、视频编码装置和解码装置
WO2008127597A2 (en) * 2007-04-12 2008-10-23 Thomson Licensing Method and apparatus for context dependent merging for skip-direct modes for video encoding and decoding
BRPI0810517A2 (pt) * 2007-06-12 2014-10-21 Thomson Licensing Métodos e aparelho suportando estrutura de sintaxe de vídeo de multipasso para dados de seção
JP2011501555A (ja) * 2007-10-16 2011-01-06 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
JP2009239852A (ja) * 2008-03-28 2009-10-15 Fujifilm Corp 画像処理装置及び画像処理方法
CN102210152A (zh) * 2008-10-06 2011-10-05 Lg电子株式会社 用于处理视频信号的方法和设备
KR100930744B1 (ko) * 2009-03-04 2009-12-09 엘지전자 주식회사 모션 벡터 예측 방법
WO2011125211A1 (ja) * 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
KR102480988B1 (ko) * 2010-04-13 2022-12-26 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치

Also Published As

Publication number Publication date
CN104869404A (zh) 2015-08-26
CA2804780A1 (en) 2012-01-12
CA2886721C (en) 2016-10-18
LT2897365T (lt) 2017-02-27
CA2886960A1 (en) 2012-01-12
SG196797A1 (en) 2014-02-13
RU2575983C1 (ru) 2016-02-27
CN104869408B (zh) 2019-12-10
EP2924996B1 (en) 2018-09-12
HRP20181469T1 (hr) 2018-11-16
PH12015500919A1 (en) 2015-06-29
HRP20170168T1 (hr) 2017-03-24
JP5945021B2 (ja) 2016-07-05
BR122020014018B1 (pt) 2022-02-01
RU2014119390A (ru) 2015-11-20
JP2015136146A (ja) 2015-07-27
KR20140100928A (ko) 2014-08-18
PH12015500918A1 (en) 2015-06-29
RS55668B1 (sr) 2017-06-30
CN104869406B (zh) 2017-10-17
KR20140100929A (ko) 2014-08-18
BR122020014018A2 (pt) 2020-10-13
CN104869407B (zh) 2017-04-12
KR20140099855A (ko) 2014-08-13
JP5945022B2 (ja) 2016-07-05
HUE041270T2 (hu) 2019-05-28
HUE033265T2 (en) 2017-11-28
BR122020014007B1 (pt) 2022-02-01
PH12015500917B1 (en) 2015-06-29
KR20140101327A (ko) 2014-08-19
SG10201503381WA (en) 2015-06-29
BR122020014007A2 (pt) 2020-10-13
PH12015500917A1 (en) 2015-06-29
RU2577182C1 (ru) 2016-03-10
BR112013000555A2 (pt) 2020-09-24
CA2886721A1 (en) 2012-01-12
EP3442230A1 (en) 2019-02-13
CN104869405A (zh) 2015-08-26
KR101653274B1 (ko) 2016-09-01
KR101529996B1 (ko) 2015-06-19
HRP20181468T1 (hr) 2018-11-16
CN104869408A (zh) 2015-08-26
ES2613610T3 (es) 2017-05-24
MY178325A (en) 2020-10-08
ZA201300578B (en) 2015-11-25
HUE033266T2 (en) 2017-11-28
SI2858366T1 (sl) 2017-03-31
BR112013000555B1 (pt) 2022-02-15
TR201813132T4 (tr) 2018-09-21
ES2688033T3 (es) 2018-10-30
CA2886964C (en) 2016-10-25
PT2924995T (pt) 2018-10-19
EP3442230B1 (en) 2021-04-21
PH12015500918B1 (en) 2015-06-29
CN103155563B (zh) 2016-09-21
SG186970A1 (en) 2013-02-28
CA2886724C (en) 2016-05-03
JP5873195B2 (ja) 2016-03-01
MY189716A (en) 2022-02-28
LT2858366T (lt) 2017-02-27
SG10201503378VA (en) 2015-06-29
LT2924996T (lt) 2018-10-10
KR20140066146A (ko) 2014-05-30
BR122020014021A2 (pt) 2020-10-20
RS55650B1 (sr) 2017-06-30
CN104869407A (zh) 2015-08-26
ES2688031T3 (es) 2018-10-30
SI2924996T1 (sl) 2018-10-30
BR122020014021B1 (pt) 2022-05-31
KR101484281B1 (ko) 2015-01-21
BR122020014015A2 (pt) 2020-10-13
KR101559876B1 (ko) 2015-10-13
PT2924996T (pt) 2018-10-24
CN104869404B (zh) 2017-06-23
CA2804780C (en) 2018-01-09
KR101559875B1 (ko) 2015-10-13
KR20120005932A (ko) 2012-01-17
MX2013000345A (es) 2013-03-20
PH12015500919B1 (en) 2015-06-29
HRP20170129T1 (hr) 2017-03-24
HRP20170169T1 (hr) 2017-03-24
RU2575982C1 (ru) 2016-02-27
CN103155563A (zh) 2013-06-12
PT2580912T (pt) 2017-02-06
KR101529995B1 (ko) 2015-06-19
PH12015500916A1 (en) 2015-06-29
CN104869405B (zh) 2018-04-27
PL2897365T3 (pl) 2017-04-28
KR20140101713A (ko) 2014-08-20
AU2011274722A1 (en) 2013-01-31
BR122020014015B1 (pt) 2022-02-01
JP2015136145A (ja) 2015-07-27
RU2575990C1 (ru) 2016-02-27
JP2013530658A (ja) 2013-07-25
CA2886724A1 (en) 2012-01-12
JP5738991B2 (ja) 2015-06-24
CN104869406A (zh) 2015-08-26
MY178332A (en) 2020-10-08
JP5873196B2 (ja) 2016-03-01
MY178329A (en) 2020-10-08
PL2924996T3 (pl) 2018-12-31
SG10201503383PA (en) 2015-06-29
RU2013105501A (ru) 2014-10-20
PL2580912T3 (pl) 2017-06-30
CA2886964A1 (en) 2012-01-12
DK2580912T3 (da) 2017-02-13
SI2897365T1 (sl) 2017-03-31
HUE031789T2 (en) 2017-07-28
PT2897365T (pt) 2017-02-13
HUE041712T2 (hu) 2019-05-28
MY156223A (en) 2016-01-29
RS57674B1 (sr) 2018-11-30
JP2015100137A (ja) 2015-05-28
SG10201503379SA (en) 2015-06-29
CA2886960C (en) 2017-05-02
CY1118484T1 (el) 2017-07-12
EP2924996A1 (en) 2015-09-30
JP2015100136A (ja) 2015-05-28
LT2924995T (lt) 2018-10-10
AU2011274722B2 (en) 2015-05-21
PT2858366T (pt) 2017-02-13
RU2586035C2 (ru) 2016-06-10
KR101524643B1 (ko) 2015-06-03
PL2858366T3 (pl) 2017-04-28
LT2580912T (lt) 2017-02-10
ES2614203T3 (es) 2017-05-30
RS55677B1 (sr) 2017-06-30
SI2580912T1 (sl) 2017-03-31
PH12015500916B1 (en) 2015-06-29

Similar Documents

Publication Publication Date Title
ES2631031T3 (es) Aparato de descodificación de vídeo mediante el uso de fusión de bloques
ES2706485T3 (es) Aparato de codificación de vídeo teniendo en cuenta la orden de exploración de unidades de codificación que tienen estructura jerárquica
ES2778655T3 (es) Procedimiento para decodificar vídeo considerando un orden de omisión y de división
ES2951321T3 (es) Procedimiento y aparato para codificar información de movimiento, y procedimiento y aparato para decodificar la misma
ES2642909T3 (es) Procedimiento de descodificación de vídeo
ES2632573T3 (es) Procedimiento y aparato para codificar vídeo mediante la compensación de valores de píxel de acuerdo con grupos de píxeles, y procedimiento y aparato para descodificar vídeo mediante la misma
ES2636757T3 (es) Procedimiento y aparato de codificación de vídeo y procedimiento y aparato de decodificación de vídeo, basándose en estructura jerárquica de unidad de codificación
ES2533304T3 (es) Método y aparato para codificar vídeo por predicción de movimiento usando una partición arbitraria, y método y aparato para decodificar vídeo por predicción de movimiento usando una partición arbitraria
ES2728112T3 (es) Procedimiento y aparato de codificación de video con intra predicción
ES2691983T3 (es) Aparato para decodificar imágenes
BR122020013760B1 (pt) Método para decodificar um vídeo através filtração em malha com base nas unidades de codificação, e aparelho de decodificação de vídeo para decodificar um vídeo através filtração em malha com base em unidades de codificação
BR112013017395B1 (pt) Método decodificador de vídeo, e método codificador de vídeo
BR112013016095B1 (pt) Método de decodificar uma imagem, e método de codificar uma imagem
BR112021001384A2 (pt) método e dispositivo para codificação/decodificação de imagens, e mídia de gravação que armazena fluxo de bits