ES2688033T3 - Aparato para codificar vídeo usando fusión de bloques - Google Patents
Aparato para codificar vídeo usando fusión de bloques Download PDFInfo
- Publication number
- ES2688033T3 ES2688033T3 ES15166150.1T ES15166150T ES2688033T3 ES 2688033 T3 ES2688033 T3 ES 2688033T3 ES 15166150 T ES15166150 T ES 15166150T ES 2688033 T3 ES2688033 T3 ES 2688033T3
- Authority
- ES
- Spain
- Prior art keywords
- unit
- information
- data
- partition
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Un aparato para decodificar un vídeo, comprendiendo el aparato un procesador que se configura para: obtener, desde un flujo de bits, un aviso de omisión para una unidad de codificación que indica si un modo de codificación para la unidad de codificación es un modo de omisión, cuando el aviso de omisión indica que el modo de codificación para la unidad de codificación no es el modo de omisión: obtener, desde el flujo de bits, información acerca del tipo de partición; determinar al menos una partición que incluye una partición desde la unidad de codificación basándose en la información acerca del tipo de partición; y obtener información de fusión para la partición; en el que, la información de fusión de la partición indica si la partición entre una o varias particiones está descodificada en un modo de fusión; cuando la información de fusión para la partición indica el modo de fusión, se obtiene un índice de fusión que indica un bloque entre un grupo de bloques candidatos para la partición desde el flujo de bits; y, realizar compensación de movimiento en la partición usando información de movimiento del bloque que indica el índice de fusión; caracterizado porque el grupo de bloques candidatos para la partición incluye uno o varios bloques de entre los siguientes tres bloques vecinos de la partición: un bloque inferior izquierdo ubicado sobre un lado izquierdo de un bloque situado más a la izquierda entre los bloques inferiores directamente debajo de un borde inferior de la partición, estando el bloque inferior izquierdo ubicado por debajo de un bloque más inferior entre los bloques izquierdos adyacentes a un borde izquierdo de la partición; un bloque superior izquierdo ubicado sobre un lado izquierdo de un bloque más a la izquierda entre bloques superiores directamente por encima de un borde superior de la partición, estando el bloque superior izquierdo ubicado por encima de un bloque más superior entre los bloques izquierdos adyacentes al borde izquierdo de la partición; y, un bloque superior derecho ubicado sobre un lado derecho de un bloque más a la derecha entre los bloques superiores directamente por encima del borde superior de la partición.
Description
10
15
20
25
30
35
40
45
DESCRIPCION
Aparato para codificar vídeo usando fusión de bloques Campo técnico
Los aparatos y procedimientos consistentes con realizaciones a modo de ejemplo se refieren a la codificación y la descodificación de un vídeo mediante el uso de fusión de bloques para codificación de predicción.
Antecedentes de la técnica
Con el fin de codificar bloques en una imagen actual, las tecnologías de compresión de vídeo usan, en general, un procedimiento de estimación / compensación de movimiento que usa información de predicción de un bloque lo más similar de entre bloques colindantes, y un procedimiento de compresión que reduce un tamaño de datos de vídeo mediante la retirada de los datos redundantes mediante la codificación de una señal diferencial entre una imagen previa y una imagen actual a través de una transformada discreta del coseno (DCT, discrete cosine transform).
A medida que se ha desarrollado y suministrado soporte físico para reproducir y almacenar contenido de vídeo de alta resolución o de alta calidad, ha aumentado la demanda de un códec de vídeo para codificar o descodificar de forma eficaz el contenido de vídeo de alta resolución o de alta calidad. En un códec de vídeo de la técnica relacionada, un vídeo se codifica de acuerdo con un procedimiento de codificación limitada sobre la base de un macrobloque que tiene un tamaño previamente determinado. Asimismo, el códec de vídeo de la técnica relacionada codifica y descodifica datos de vídeo mediante la realización de una transformación y una transformación inversa sobre macrobloques mediante el uso de bloques que tienen, cada uno, el mismo tamaño.
Se considera que el documento WO 2008/127597 A2 (THOMSON LICENSING [FR]; DIVORRA ESCODA OSCAR [US]; YIN PENG [US]), 23 de octubre de 2008, (), es técnica anterior relevante.
Divulgación de la invención
Problema técnico
Se proporciona un aparato para descodificar un vídeo mediante el uso de fusión de bloques.
Solución al problema
La invención se establece en las reivindicaciones.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato para codificar un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo;
la figura 2 es un diagrama de bloques de un aparato para descodificar un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo;
la figura 3 es un diagrama que ilustra unos bloques colindantes que se pueden fusionar con un macrobloque actual de acuerdo con una técnica relacionada;
las figuras 4 y 5 son unos diagramas para explicar procedimientos de selección de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes de la unidad de datos actual, de acuerdo con una técnica relacionada y una realización a modo de ejemplo, respectivamente; las figuras 6 y 7 son unos diagramas de bloques para explicar órdenes de codificación y de descodificación de una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción, de acuerdo con realizaciones a modo de ejemplo;
las figuras 8 y 9 son unos diagramas para explicar procedimientos de selección de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes ampliadas de la unidad de datos actual, de acuerdo con una técnica relacionada y una realización a modo de ejemplo, respectivamente; las figuras 10, 11 y 12 son unos diagramas de bloques para explicar órdenes de codificación y de descodificación de una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción, de acuerdo con diversas realizaciones a modo de ejemplo;
la figura 13 es un diagrama que ilustra unas unidades de datos colindantes que no se fusionan con una partición actual, de acuerdo con una realización a modo de ejemplo;
la figura 14 es un diagrama que ilustra una unidad de datos candidata que varía de acuerdo con una forma y una posición de una partición actual, de acuerdo con una realización a modo de ejemplo;
la figura 15 es un diagrama que ilustra unas unidades de datos colindantes que pueden no fusionarse con una partición actual que es una partición que tiene una forma geométrica, de acuerdo con una realización a modo de ejemplo;
la figura 16 es un diagrama que ilustra un ejemplo en el que se usa una unidad de datos colindante que se determina que se va a fusionar con una unidad de datos actual, de acuerdo con una realización a modo de ejemplo;
5
10
15
20
25
30
35
40
45
50
55
60
la figura 17 es un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo;
la figura 18 es un diagrama de flujo que ilustra un procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos de acuerdo con una realización a modo de ejemplo;
la figura 19 es un diagrama de bloques de un aparato para codificar un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una realización a modo de ejemplo;
la figura 20 es un diagrama de bloques de un aparato para descodificar un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una realización a modo de ejemplo;
la figura 21 es un diagrama para explicar un concepto de unidades de codificación, de acuerdo con una realización a modo de ejemplo;
la figura 22 es un diagrama de bloques de una unidad de codificación de imagen sobre la base de unidades de codificación, de acuerdo con una realización a modo de ejemplo;
la figura 23 es un diagrama de bloques de un descodificador de imagen sobre la base de unidades de codificación, de acuerdo con una realización a modo de ejemplo;
la figura 24 es un diagrama que ilustra unas unidades de codificación de acuerdo con las profundidades y las particiones, de acuerdo con una realización a modo de ejemplo;
la figura 25 es un diagrama para explicar una relación entre una unidad de codificación y unas unidades de transformación, de acuerdo con una realización a modo de ejemplo;
la figura 26 es un diagrama para explicar información de codificación de unas unidades de codificación que se corresponden con una profundidad codificada, de acuerdo con una realización a modo de ejemplo; la figura 27 es un diagrama que ilustra unas unidades de codificación de acuerdo con las profundidades, de acuerdo con una realización a modo de ejemplo;
las figuras 28 a 30 son unos diagramas para explicar una relación entre las unidades de codificación, las unidades de predicción y las unidades de transformación, de acuerdo con una realización a modo de ejemplo; la figura 31 es un diagrama para explicar una relación entre una unidad de codificación, una unidad de predicción, y una unidad de transformación, de acuerdo con una información de modo de codificación de la tabla
2;
la figura 32 es un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una realización a modo de ejemplo; y
la figura 33 es un diagrama de flujo que ilustra un procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una realización a modo de ejemplo.
Mejor modo para llevar a cabo la invención
De acuerdo con un aspecto de una realización a modo de ejemplo, se proporciona un procedimiento de codificación de un vídeo mediante el uso de una fusión de unidades de datos, incluyendo el procedimiento: determinar un modo de codificación que indica una unidad de datos para la codificación de una imagen y un procedimiento de codificación que incluye una codificación de predicción que se realiza para cada unidad de datos; determinar una aparición de fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos; y determinar una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción sobre la base de la aparición de fusión con la al menos una unidad de datos colindante de acuerdo con las unidades de datos y determinar una información de codificación de la unidad de datos que incluye la información de modo de predicción, la información relacionada con la fusión, y la información relacionada con la predicción.
La determinación de la información de codificación puede incluir: determinar una información de modo de omisión que indica si un modo de predicción de la unidad de datos es un modo de omisión y determinar si se codifica una información de fusión que indica si se fusionan entre sí la unidad de datos y la al menos una unidad de datos colindante sobre la base de la información de modo de omisión.
De acuerdo con un aspecto de otra realización a modo de ejemplo, se proporciona un procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos, incluyendo el procedimiento: analizar sintácticamente un flujo de bits recibido para extraer unos datos de vídeo codificados y una información de codificación y extraer una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción en la información de codificación; y analizar una aparición de fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos sobre la base de la información de modo de predicción y la información relacionada con la fusión, y realizar una inter predicción y una compensación de movimiento mediante el uso de una información relacionada con la predicción de la al menos una unidad de datos colindante sobre una unidad de datos que se fusiona con la al menos una unidad de datos colindante, para descodificar los datos de vídeo codificados de acuerdo con las unidades de datos que se determinan sobre la base de la información de codificación.
5
10
15
20
25
30
35
40
45
50
55
La extracción y lectura puede incluir: extraer y leer una información de modo de omisión que indica si un modo de predicción de la unidad de datos es un modo de omisión; y determinar si se extrae una información de fusión que indica si se fusionan entre sí la unidad de datos y la al menos una unidad de datos colindante sobre la base de la información de modo de omisión.
De acuerdo con un aspecto de otra realización a modo de ejemplo, se proporciona un aparato para codificar un vídeo mediante el uso de una fusión de unidades de datos, incluyendo el aparato: una unidad de determinación de modos de codificación que determina un modo de codificación que indica una unidad de datos para codificar una imagen y un procedimiento de codificación que incluye una codificación de predicción para cada unidad de datos; una unidad de determinación de fusión de unidades de datos que determina una aparición de fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos; y una unidad de determinación de información de codificación que determina una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción sobre la base de la aparición de fusión con la unidad de datos colindante de acuerdo con las unidades de datos y determina una información de codificación de la unidad de datos que incluye la información de modo de predicción, la información relacionada con la fusión, y la información relacionada con la predicción.
De acuerdo con un aspecto de otra realización a modo de ejemplo, se proporciona un aparato para descodificar un vídeo mediante el uso de una fusión de unidades de datos, incluyendo el aparato: un analizador sintáctico y unidad de extracción que analiza sintácticamente un flujo de bits recibido para extraer unos datos de vídeo codificados y una información de codificación y para extraer una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción en la información de codificación; y una unidad de fusión y descodificador de unidades de datos que analiza una aparición de fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos sobre la base de la información de modo de predicción y la información relacionada con la fusión y realiza una inter predicción y una compensación de movimiento mediante el uso de una información relacionada con la predicción de la al menos una unidad de datos colindante sobre una unidad de datos que se fusiona con la unidad de datos colindante, para descodificar los datos de vídeo codificados de acuerdo con las unidades de datos que se determinan sobre la base de la información de codificación.
De acuerdo con un aspecto de otra realización a modo de ejemplo, se proporciona un medio de registro legible por ordenador que tiene, incorporado en el mismo, un programa para ejecutar el procedimiento de codificación del vídeo.
De acuerdo con un aspecto de otra realización a modo de ejemplo, se proporciona un medio de registro legible por ordenador que tiene, incorporado en el mismo, un programa para ejecutar el procedimiento de descodificación del vídeo.
Modo para la invención
En lo sucesivo en el presente documento, 'una imagen' puede hacer referencia no solo a una imagen fija sino también a una imagen en movimiento tal como un vídeo. Además, 'una unidad de datos' se refiere a un grupo de datos en un intervalo previamente determinado de entre los datos que constituyen un vídeo. Asimismo, en lo sucesivo en el presente documento, expresiones tales como “al menos uno de”, cuando preceden a una lista de elementos, modifican la totalidad de la lista de elementos y no modifican los elementos individuales de la lista.
La codificación y la descodificación de un vídeo usando una fusión de unidades de datos, de acuerdo con una o más realizaciones a modo de ejemplo, se explicarán en lo sucesivo con referencia a las figuras 1 a 18. La codificación y la descodificación de un vídeo usando una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una o más realizaciones a modo de ejemplo, se explicarán en lo sucesivo con referencia a las figuras 19 a 33.
Un aparato para codificar un vídeo, un aparato para descodificar un vídeo, un procedimiento de codificación de un vídeo, y un procedimiento de descodificación de un vídeo, mediante el uso de una fusión de unidades de datos, de acuerdo con una o más realizaciones a modo de ejemplo, se explicarán en lo sucesivo con referencia a las figuras 1 a 18.
La figura 1 es un diagrama de bloques de un aparato 10 para codificar un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo.
El aparato 10 incluye una unidad de determinación de modos de codificación 11, una unidad de determinación de fusión de unidades de datos 13, y una unidad de determinación de información de codificación 15. Para facilitar la explicación, se hace referencia al aparato 10 para codificar un vídeo mediante el uso de una fusión de unidades de datos como un aparato 10 para codificar un vídeo.
El aparato 10 recibe unos datos de vídeo, codifica los datos de vídeo mediante la realización de una inter predicción entre imágenes, una intra predicción en una imagen, una transformación, una cuantificación y una codificación por entropía para las imágenes del vídeo, y emite una información de codificación que incluye una información acerca de datos de vídeo codificados y un modo de codificación.
5
10
15
20
25
30
35
40
45
50
55
La unidad de determinación de modos de codificación 11 puede determinar una unidad de datos para la codificación de una imagen y puede determinar un procedimiento de codificación a realizar para cada unidad de datos. En un procedimiento de codificación de compresión de vídeo, con el fin de reducir un tamaño de los datos mediante la retirada de una parte redundante en los datos de vídeo, se realiza un procedimiento de codificación de predicción usando datos colindantes. La unidad de determinación de modos de codificación 11 puede determinar un bloque cuadrado regular o una partición en un bloque cuadrado regular como una unidad de datos para la codificación de predicción.
La unidad de determinación de modos de codificación 11 puede determinar un modo de predicción que indica un procedimiento de codificación de predicción tal como un inter modo, un intra modo, un modo de omisión, o un modo directo, para cada unidad de datos. Asimismo, la unidad de determinación de modos de codificación 11 puede determinar artículos adicionales tales como una dirección de predicción o un índice de referencia útil para la codificación de predicción de acuerdo con el modo de predicción de la unidad de datos.
La unidad de determinación de modos de codificación 11 puede determinar diversos modos de codificación que incluyen el modo de predicción para la codificación de predicción y artículos adicionales relacionados y, por consiguiente, puede codificar los datos de vídeo.
La unidad de determinación de fusión de unidades de datos 13 puede determinar si no solo una unidad de datos cuyo modo de predicción es un inter modo sino también una unidad de datos cuyo modo de predicción es un modo de omisión o un modo directo de entre las unidades de datos que son determinadas por la unidad de determinación de modos de codificación 11 se fusiona con al menos una unidad de datos colindante.
Si una unidad de datos actual se fusiona con una unidad de datos colindante, la unidad de datos actual puede compartir la información de vector de movimiento de la unidad de datos colindante. A pesar de que la información diferencial de vector de movimiento de la unidad de datos actual se codifica de forma independiente, debido a que una información de predicción auxiliar de la unidad de datos actual se puede obtener al seguir o al hacer referencia a una información de predicción auxiliar de la unidad de datos colindante que se fusiona con la unidad de datos actual, la información de predicción auxiliar de la unidad de datos actual no se codifica por separado.
La unidad de determinación de fusión de unidades de datos 13 puede determinar al menos un grupo de unidades de datos candidatas que incluye una unidad de datos que se puede fusionar con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual. La unidad de determinación de fusión de unidades de datos 13 puede buscar una unidad de datos a fusionar con la unidad de datos actual en el al menos un grupo de unidades de datos candidatas. En este caso, en cada región se puede determinar un grupo de unidades candidatas que incluye una unidad de datos que se puede fusionar con la unidad de datos actual.
De acuerdo con una regla previamente determinada que está preestablecida entre sistemas de codificación y de descodificación, se pueden establecer un procedimiento de determinación de un grupo de unidades de datos candidatas en al menos una región que colinda con una unidad de datos actual y un procedimiento de determinación de una unidad de datos en el grupo de unidades de datos candidatas.
Asimismo, el aparato 10 puede codificar y emitir al menos una de una información acerca del procedimiento de determinación del grupo de unidades de datos candidatas en la al menos una región que colinda con la unidad de datos actual y una información acerca del procedimiento de determinación de una unidad de datos en el grupo de unidades de datos candidatas.
Por ejemplo, la unidad de determinación de fusión de unidades de datos 13 puede buscar una unidad de datos que tiene el mismo índice de referencia que la unidad de datos actual en el grupo de unidades de datos candidatas y puede seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual.
Como alternativa, la unidad de determinación de fusión de unidades de datos 13 puede buscar una unidad de datos cuyo modo de predicción es un inter modo en el grupo de unidades de datos candidatas y puede seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual. Una unidad de datos se puede determinar finalmente de entre las unidades de datos candidatas que se seleccionan de esta forma como una unidad de datos candidata a fusionar con la unidad de datos actual.
La unidad de determinación de fusión de unidades de datos 13 puede determinar una unidad de datos candidata a fusionar con la unidad de datos actual mediante el uso de un procedimiento general de una predicción de vector de movimiento en un inter modo. Con detalle, de acuerdo con el procedimiento general de una predicción de vector de movimiento en un inter modo, se determina una pluralidad de vectores candidatos a predecir con un vector de movimiento de la unidad de datos actual de entre unidades de datos colindantes en contacto con todas las fronteras de la unidad de datos actual. Es decir, se seleccionan una de entre las unidades de datos colindantes en contacto con una frontera izquierda de la unidad de datos actual, una de entre las unidades de datos colindantes en contacto con una frontera superior de la unidad de datos actual, y una de entre las unidades de datos colindantes en contacto con las esquinas de la unidad de datos actual, y uno de los vectores de movimiento de las tres unidades de datos se determina como un vector candidato.
5
10
15
20
25
30
35
40
45
50
55
De acuerdo con el procedimiento general de una predicción de vector de movimiento en un inter modo, la unidad de determinación de fusión de unidades de datos 13 puede buscar y determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de unidades de datos candidatas izquierdas que incluye la totalidad de una pluralidad de unidades de datos colindantes en contacto con una frontera izquierda de la unidad de datos actual y en un grupo de unidades de datos candidatas superiores que incluye la totalidad de una pluralidad de unidades de datos colindantes en contacto con una frontera superior de la unidad de datos actual.
Asimismo, la unidad de determinación de fusión de unidades de datos 13 puede buscar y determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de unidades de datos candidatas de esquina que incluye una unidad de datos colindante superior izquierda, una unidad de datos colindante superior derecha, y una unidad de datos colindante inferior izquierda en contacto con las esquinas de la unidad de datos actual además del grupo de unidades de datos candidatas izquierdas y el grupo de unidades de datos candidatas superiores de la unidad de datos actual.
En este caso, un procedimiento de determinación de una unidad de datos candidata en el grupo de unidades de datos candidatas izquierdas, un procedimiento de determinación de una unidad de datos candidata en el grupo de unidades de datos candidatas superiores, y se puede preestablecer un procedimiento de determinación de una unidad de datos candidata en el grupo de unidades de datos candidatas de esquina. Debido a que se puede preestablecer cada procedimiento de determinación de una unidad de datos candidata de entre un grupo de unidades de datos candidatas correspondiente, el procedimiento se puede señalizar de forma implícita.
Asimismo, se puede preestablecer un procedimiento de determinar finalmente una unidad de datos colindante a fusionar con la unidad de datos actual de entre una unidad de datos candidata que se determina en el grupo de unidades de datos candidatas izquierdas, una unidad de datos candidata que se determina en el grupo de unidades de datos candidatas superiores, y una unidad de datos candidata que se determina en el grupo de unidades de datos candidatas de esquina, es decir, tres unidades de datos candidatas. Es decir, debido a que se puede preestablecer cada procedimiento de determinación de una unidad de datos colindante a fusionar con la unidad de datos candidata, el procedimiento se puede señalizar de forma implícita.
Por ejemplo, la unidad de determinación de fusión de unidades de datos 13 puede buscar una unidad de datos cuyo modo de predicción es un inter modo de entre las unidades de datos candidatas y puede seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual. Como alternativa, la unidad de determinación de fusión de unidades de datos 13 puede buscar una unidad de datos que tiene el mismo índice de referencia que la unidad de datos actual de entre las unidades de datos candidatas y seleccionar la unidad de datos como una unidad de datos candidata a fusionar con la unidad de datos actual.
A pesar de que las particiones que se dividen para el fin de una inter predicción más precisa de una unidad de datos colindan unas con otras, las particiones pueden no fusionarse entre sí.
Debido a que las unidades de datos a las que se puede acceder de entre las unidades de datos que colindan con una partición actual pueden variar de acuerdo con una forma y una posición de la partición actual, se puede cambiar un grupo de candidatas de fusión que incluye unas unidades de datos colindantes que se pueden fusionar. Por consiguiente, la unidad de determinación de fusión de unidades de datos 13 puede buscar una unidad de datos colindante que se puede fusionar sobre la base de una forma y una posición de una partición actual.
La unidad de determinación de información de codificación 15 puede determinar una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción de acuerdo con las unidades de datos. La unidad de determinación de información de codificación 15 puede actualizar la información relacionada con la predicción en la información de codificación que es determinada por la unidad de determinación de modos de codificación 11 de acuerdo con una fusión de unidades de datos de la unidad de determinación de fusión de unidades de datos 13. La unidad de determinación de información de codificación 15 puede codificar la información de codificación para incluir la información relacionada con la fusión de acuerdo con la fusión de unidades de datos de la unidad de determinación de fusión de unidades de datos 13. La unidad de determinación de información de codificación 15 puede emitir los datos de vídeo que se codifican mediante la unidad de determinación de modos de codificación 11 y la información de codificación.
La información de modo de predicción en la información relacionada con la predicción es una información que indica si un modo de predicción de una unidad de datos actual es un inter modo, un intra modo, un modo de omisión, o un modo directo. Por ejemplo, la información de modo de predicción puede incluir una información de modo de omisión que indica si el modo de predicción de la unidad de datos actual es un modo de omisión y una información de modo directo que indica si el modo de predicción de la unidad de datos actual es un modo directo.
La información relacionada con la fusión incluye una información que se usa para realizar una fusión de unidades de datos o para determinar si se realiza una fusión de unidades de datos. Por ejemplo, la información relacionada con la fusión puede incluir una información de fusión que indica si una unidad de datos actual se va a fusionar con una unidad de datos colindante y una información de índice de fusión que indica una unidad de datos a fusionar. La unidad de determinación de información de codificación 15 puede codificar la información de fusión a través de un
5
10
15
20
25
30
35
40
45
50
55
modelado de contexto con respecto a una combinación de 'un modo de predicción y un tipo de partición de una unidad de datos colindante' y con respecto a 'si se fusionan una unidad de datos actual y una unidad de datos colindante'.
La información relacionada con la predicción puede incluir adicionalmente una información de predicción auxiliar y una información de movimiento que se usa para la codificación de predicción de una unidad de datos. Por ejemplo, tal como se ha descrito en lo que antecede, la información relacionada con la predicción puede incluir una información de predicción auxiliar que hace referencia a una información adicional en relación con una codificación de predicción que incluye un índice de referencia que indica una unidad de datos a la que se va a hacer referencia y similares, y la información de vector de movimiento o diferencial de vector de movimiento.
La unidad de determinación de información de codificación 15 puede determinar si la información relacionada con la fusión se establece de acuerdo con la información de modo de predicción sobre la base de una relación cercana entre un modo de predicción de una unidad de datos y una posibilidad de que se fusione la unidad de datos.
En una primera realización a modo de ejemplo en la que una fusión de unidades de datos se puede realizar sobre una unidad de datos que no sea un modo de omisión, la unidad de determinación de información de codificación 15 puede codificar una información de modo de omisión que indica si un modo de predicción de una unidad de datos actual es un modo de omisión, y puede determinar si una información de fusión que indica si la unidad de datos actual y una unidad de datos colindante se fusionan entre sí sobre la base de la información de modo de omisión.
Con detalle, en la primera realización a modo de ejemplo, si un modo de predicción de la unidad de datos actual es un modo de omisión, la unidad de determinación de información de codificación 15 puede establecer una información de modo de omisión para indicar que el modo de predicción de la unidad de datos actual es un modo de omisión y puede no codificar la información de fusión de la unidad de datos actual.
Si un modo de predicción de la unidad de datos actual no es un modo de omisión, la unidad de determinación de información de codificación 15 puede establecer una información de modo de omisión para indicar que el modo de predicción de la unidad de datos actual no es un modo de omisión y puede codificar la información de fusión de la unidad de datos actual.
La unidad de determinación de información de codificación 15 puede codificar una información diferencial de vector de movimiento de una unidad de datos sobre la base de la información de fusión, y puede determinar si se codifica la información de predicción auxiliar de la unidad de datos.
Es decir, si una unidad de datos actual se fusiona con una unidad de datos colindante, la unidad de determinación de información de codificación 15 puede establecer la información de fusión de la unidad de datos actual para indicar que la unidad de datos actual se fusiona con la unidad de datos colindante, y puede no codificar la información de predicción auxiliar de la unidad de datos actual. Por otro lado, si la unidad de datos actual no se fusiona con la unidad de datos colindante, la unidad de determinación de información de codificación 15 puede establecer la información de fusión de la unidad de datos actual para indicar que la unidad de datos actual no se fusiona con la unidad de datos colindante, y puede codificar la información de predicción auxiliar de la unidad de datos actual.
Con independencia de si la unidad de datos actual se fusiona, o no, con la unidad de datos colindante, la unidad de determinación de información de codificación 15 puede codificar una información diferencial de vector de movimiento de la unidad de datos actual.
Asimismo, en una segunda realización a modo de ejemplo en la que se determina si se realiza una fusión de unidades de datos sobre una unidad de datos que no sea un modo de omisión y un modo directo, la unidad de determinación de información de codificación 15 puede codificar una información relacionada con la fusión para indicar si se realiza una fusión de unidades de datos sobre una unidad de datos cuyo modo de predicción es un modo directo.
Con detalle, en la segunda realización a modo de ejemplo, la unidad de determinación de información de codificación 15 puede establecer una información de modo de omisión para indicar que el modo de predicción de una unidad de datos no es un modo de omisión, y puede codificar una información de modo directo. Asimismo, la unidad de determinación de información de codificación 15 puede determinar si se codifica la información de fusión sobre la base de la información de modo directo.
Es decir, si un modo de predicción de una unidad de datos actual es un modo directo, la unidad de determinación de información de codificación 15 puede establecer una información de modo directo para indicar que un modo de predicción de la unidad de datos actual es un modo directo y puede no codificar la información de fusión de la unidad de datos actual. Si un modo de predicción de una unidad de datos actual no es un modo directo, la unidad de determinación de información de codificación 15 puede establecer una información de modo directo para indicar que un modo de predicción de la unidad de datos actual no es un modo directo y puede codificar la información de fusión de la unidad de datos actual.
5
10
15
20
25
30
35
40
45
50
55
Si se codifica la información de fusión, se determina si la información de predicción auxiliar de la unidad de datos actual se codifica sobre la base de la información de fusión, y la información diferencial de vector de movimiento de la unidad de datos actual se codifica tal como se ha descrito en lo que antecede en la primera realización a modo de ejemplo.
Una unidad de datos que se obtiene mediante la división de una imagen puede incluir 'una unidad de codificación' que es una unidad de datos para codificar una imagen, 'una unidad de predicción' para la codificación de predicción, y 'una partición' para la inter predicción. La unidad de determinación de fusión de unidades de datos 13 puede determinar si se realiza una fusión con una unidad de datos colindante para cada unidad de codificación, y la unidad de determinación de información de codificación 15 puede determinar una información de modo de omisión y una información de fusión para cada unidad de codificación. Asimismo, la unidad de determinación de fusión de unidades de datos 13 puede determinar si se realiza una fusión con una unidad de datos colindante para cada unidad de predicción, y la unidad de determinación de información de codificación 105 puede determinar una información de modo de omisión y una información de fusión para cada unidad de predicción.
Si se usan tanto una información de modo de omisión como una información de fusión, debido a que una información de predicción única de una unidad de datos actual no se codifica en el caso tanto de un modo de omisión como de fusión de datos, el aparato 10 puede distinguir un procedimiento de predicción de acuerdo con un modo de omisión de un procedimiento de predicción de acuerdo con la fusión de datos. Por ejemplo, un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de omisión se pueden determinar de acuerdo con una regla preestablecida, y una unidad de datos que se fusiona con una unidad de datos colindante puede seguir un índice de referencia y una dirección de referencia de información de movimiento de la unidad de datos colindante. Debido a que se puede preestablecer la regla para determinar un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de omisión, la regla se puede señalizar de forma implícita.
La unidad de determinación de información de codificación 15 puede codificar una información de modo de omisión para cada modo de predicción y puede codificar una información relacionada con la fusión para cada partición. Asimismo, la unidad de determinación de información de codificación 15 puede codificar tanto una información relacionada con la fusión como una información de modo de omisión para cada unidad de datos. Como alternativa, la unidad de determinación de información de codificación 15 puede establecer una información relacionada con la fusión que se va a codificar solo para una unidad de datos que tiene un modo de predicción previamente determinado preestablecido.
El aparato 10 puede determinar una fusión de unidades de datos entre unidades de codificación o determinar una fusión de unidades de datos entre unidades de predicción. Asimismo, el aparato 10 puede codificar de forma selectiva una información de modo de omisión y una información de modo directo. Por consiguiente, si un modo de predicción de una unidad de datos no es un modo de omisión sobre la base de una información de modo de omisión de la unidad de datos, la unidad de determinación de información de codificación 15 puede codificar al menos una de información de codificación de modo de omisión / directo que indica si se codifica una información de modo directo de la unidad de datos, una información de determinación de fusión de unidad de codificación que indica si se determina una aparición de fusión entre unidades de codificación, y una información de determinación de fusión de unidad de predicción que indica si se determina una aparición de fusión entre unidades de predicción.
La figura 2 es un diagrama de bloques de un aparato 20 para descodificar un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo.
El aparato 20 incluye un analizador sintáctico / unidad de extracción 21 y una unidad de fusión / descodificador de unidades de datos 23. Para facilitar la explicación, se hace referencia al aparato 20 para descodificar un vídeo mediante el uso de una fusión de unidades de datos como 'un aparato 20 para descodificar un vídeo'.
El aparato 20 recibe un flujo de bits de datos de vídeo codificados, extrae una información de codificación que incluye una información acerca de un procedimiento de codificación y los datos de vídeo codificados, y realiza la descodificación a través de descodificación por entropía, cuantificación inversa, transformación inversa e inter predicción / compensación entre imágenes para restablecer datos de vídeo.
El analizador sintáctico / unidad de extracción 21 analiza sintácticamente el flujo de bits recibido para extraer los datos de vídeo codificados y la información de codificación y para extraer una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción en la información de codificación. El analizador sintáctico / unidad de extracción 21 puede extraer una información de modo de omisión, una información de modo directo, y similares como la información de modo de predicción. El analizador sintáctico / unidad de extracción 21 puede extraer una información de predicción auxiliar que incluye una dirección de referencia y un índice de referencia, y una información diferencial de vector de movimiento como la información relacionada con la predicción.
El analizador sintáctico / unidad de extracción 21 puede extraer una información de fusión, una información de índice de fusión, y similares como la información relacionada con la fusión. El analizador sintáctico / unidad de extracción
5
10
15
20
25
30
35
40
45
50
55
21 puede leer una información de fusión que se codifica a través de un modelado de contexto con respecto a una combinación de 'un modo de predicción y un tipo de partición de una unidad de datos colindante' y 'si se fusionan entre sí una unidad de datos actual y la unidad de datos colindante', y puede analizar el modo de predicción y el tipo de partición de la unidad de datos colindante que se fusiona con la unidad de datos actual.
En primer lugar, en una primera realización a modo de ejemplo en la que se determina si se realiza una fusión de unidades de datos sobre una unidad de datos que no sea un modo de omisión, el analizador sintáctico / unidad de extracción 21 puede extraer y leer una información de modo de omisión de la unidad de datos a partir de un flujo de bits recibido, y puede determinar si se extrae la información de fusión de la unidad de datos sobre la base de la información de modo de omisión. Es decir, si se lee que un modo de predicción de una unidad de datos actual no es un modo de omisión sobre la base de una información de modo de omisión, el analizador sintáctico / unidad de extracción 21 puede extraer la información de fusión de la unidad de datos actual a partir del flujo de bits recibido.
El analizador sintáctico / unidad de extracción 21 puede extraer una información diferencial de vector de movimiento de una unidad de datos sobre la base de la información de fusión, y puede determinar si se extrae una información de predicción auxiliar inter de la unidad de datos. Es decir, si se lee que una unidad de datos actual no se fusiona con una unidad de datos colindante sobre la base de la información de fusión, el analizador sintáctico / unidad de extracción 21 puede extraer una información diferencial de vector de movimiento a partir de un flujo de bits recibido y puede extraer una información de predicción auxiliar de la unidad de datos actual. Por otro lado, si se lee que una unidad de datos actual se fusiona con una unidad de datos colindante sobre la base de la información de fusión, el analizador sintáctico / unidad de extracción 21 puede extraer una información diferencial de vector de movimiento a partir de un flujo de bits recibido y puede no extraer una información de predicción auxiliar de la unidad de datos actual.
A continuación, en una segunda realización a modo de ejemplo en la que se determina si se realiza una fusión de unidades de datos sobre una unidad de datos que no sea un modo de omisión y un modo directo, si un modo de predicción de una unidad de datos no es un modo de omisión, el analizador sintáctico / unidad de extracción 21 puede extraer una información de modo directo de la unidad de datos, y puede determinar si se extrae la información de fusión sobre la base de la información de modo directo.
Es decir, si se lee que un modo de predicción de una unidad de datos actual es un modo directo de acuerdo con una información de modo directo, el analizador sintáctico / unidad de extracción 21 puede no extraer la información de fusión a partir de un flujo de bits recibido. Por otro lado, si se lee que un modo de predicción de una unidad de datos actual no es un modo directo de acuerdo con una información de modo directo, el analizador sintáctico / unidad de extracción 21 puede extraer la información de fusión a partir de un flujo de bits recibido.
El analizador sintáctico / unidad de extracción 21 puede extraer una información diferencial de vector de movimiento de una unidad de datos sobre la base de la información de fusión y puede determinar si se extrae una información de predicción auxiliar tal como se ha descrito en lo que antecede en la primera realización.
La unidad de fusión / descodificador de unidades de datos 23 analiza si se realiza una fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos sobre la base de una información de modo de predicción y una información relacionada con la fusión. La unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos sobre la base de la información de codificación y descodificar los datos de vídeo codificados de acuerdo con la unidad de datos determinada para restablecer una imagen.
Por ejemplo, la unidad de fusión / descodificador de unidades de datos 23 puede realizar una inter predicción y una compensación de movimiento mediante el uso de la información relacionada con la predicción de una unidad de datos colindante sobre una unidad de datos que se fusiona con la unidad de datos colindante para descodificar datos de vídeo sobre la base de la información de codificación.
El analizador sintáctico / unidad de extracción 21 puede extraer y leer una información de modo de omisión y una información de fusión para cada unidad de codificación, y la unidad de fusión / descodificador de unidades de datos 23 puede determinar si se realiza una fusión con una unidad de datos colindante sobre la base de la información de fusión para cada unidad de codificación.
Asimismo, el analizador sintáctico / unidad de extracción 21 puede extraer y leer una información de modo de omisión y una información de fusión para cada unidad de predicción, y la unidad de fusión / descodificador de unidades de datos 23 puede determinar si la fusión con una unidad de datos colindante se genera sobre la base de la información de fusión para cada unidad de predicción.
La unidad de fusión / descodificador de unidades de datos 23 puede leer si una unidad de datos actual se fusiona con una unidad de datos colindante sobre la base de una información relacionada con la fusión que es extraída por el analizador sintáctico / unidad de extracción 21, y puede buscar una unidad de datos a fusionar de entre unidades de datos colindantes.
5
10
15
20
25
30
35
40
45
50
55
En primer lugar, la unidad de fusión / descodificador de unidades de datos 23 puede analizar si una unidad de datos actual se fusiona con una unidad de datos colindante sobre la base de la información de fusión en la información relacionada con la fusión. Si se lee que la unidad de datos actual se fusiona con la unidad de datos colindante, la unidad de fusión / descodificador de unidades de datos 23 puede determinar al menos un grupo de unidades de datos candidatas que incluye una unidad de datos que se puede fusionar con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual sobre la base de la información de índice de fusión en la información relacionada con la fusión. La unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual en el al menos un grupo de unidades de datos candidatas. Un grupo de unidades de datos candidatas para la fusión de la unidad de datos actual se puede determinar para cada una de al menos una región que colinda con la unidad de datos actual.
Debido a que se puede preestablecer cada procedimiento de determinación de una unidad de datos colindante a fusionar con la unidad de datos candidata, el procedimiento se puede señalizar de forma implícita. La unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual sobre la base de al menos uno de un procedimiento de determinación de un grupo de unidades de datos candidatas que se preestablece de acuerdo con una regla previamente determinada entre sistemas de codificación / descodificación y un procedimiento de determinación de una unidad de datos en el grupo de unidades de datos candidatas.
El analizador sintáctico / unidad de extracción 21 puede extraer al menos una de una información acerca de un procedimiento de determinación de un grupo de unidades de datos candidatas de entre al menos una región que colinda con la unidad de datos actual y una información acerca de un procedimiento de determinación de una unidad de datos en el grupo de unidades de datos candidatas. La unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual sobre la base de al menos una de una información acerca de un procedimiento de determinación de un grupo de unidades de datos candidatas extraídas y una información acerca de un procedimiento de determinación de una unidad de datos en el grupo de unidades de datos candidatas.
Por ejemplo, si la unidad de fusión / descodificador de unidades de datos 23 establece una primera unidad de datos candidata, una segunda unidad de datos candidata, o una tercera unidad de datos candidata de acuerdo con el procedimiento preestablecido, la unidad de fusión / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante que tiene el mismo índice de referencia que la unidad de datos actual en un grupo de candidatas de fusión de unidades de datos colindantes de capa superior, y puede determinar la unidad de datos colindante como una unidad de datos a fusionar.
Como alternativa, si la unidad de fusión / descodificador de unidades de datos 23 determina una primera unidad de datos candidata, una segunda unidad de datos candidata, o una tercera unidad de datos candidata de acuerdo con el procedimiento preestablecido, la unidad de fusión / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante cuyo modo de predicción es un inter modo en un grupo de candidatas de fusión de unidades de datos colindantes de capa superior y puede determinar la unidad de datos colindante como una unidad de datos a fusionar con la unidad de datos actual.
Debido a que se puede preestablecer cada procedimiento de determinación de una unidad de datos candidata de entre un grupo de unidades de datos candidatas correspondiente, el procedimiento se puede señalizar de forma implícita.
La unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos candidata a fusionar con la unidad de datos actual mediante el uso del procedimiento general de una predicción de vector de movimiento en un inter modo. Con detalle, la unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de unidades de datos candidatas izquierdas que incluye la totalidad de una pluralidad de unidades de datos colindantes izquierdas en contacto con una frontera izquierda de la unidad de datos actual y un grupo de unidades de datos candidatas superiores que incluye la totalidad de una pluralidad de unidades de datos colindantes superiores en contacto con una frontera superior sobre la base de la información de índice de fusión en la información relacionada con la fusión.
Asimismo, la unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual sobre la base de la información de índice de fusión en un grupo de unidades de datos candidatas de esquina que incluye una unidad de datos colindante superior izquierda, una unidad de datos colindante superior derecha, y una unidad de datos colindante inferior izquierda en contacto con las esquinas de la unidad de datos actual, además del grupo de unidades de datos candidatas izquierdas y el grupo de unidades de datos candidatas superiores de la unidad de datos actual.
Con detalle, la unidad de fusión / descodificador de unidades de datos 23 puede leer una información de índice de fusión y puede determinar una primera unidad de datos candidata que es una en el grupo de unidades de datos candidatas izquierdas, una segunda unidad de datos candidata que es una en el grupo de unidades de datos candidatas superiores, o una tercera unidad de datos candidata que es una en el grupo de unidades de datos candidatas de esquina como una unidad de datos colindante a fusionar con la unidad de datos actual.
5
10
15
20
25
30
35
40
45
50
55
Asimismo, la unidad de fusión / descodificador de unidades de datos 23 puede buscar y determinar una de entre las unidades de datos colindantes izquierdas si se determina la primera unidad de datos candidata, una de entre las unidades de datos colindantes superiores si se determina la segunda unidad de datos candidata, y una de entre las unidades de datos colindantes en contacto con las esquinas si se determina la tercera unidad de datos candidata como una unidad de datos a fusionar con la unidad de datos actual.
En este caso, se puede preestablecer un procedimiento de búsqueda y determinación de una unidad de datos a fusionar con la unidad de datos actual de entre las unidades de datos colindantes izquierdas, las unidades de datos colindantes superiores, y las unidades de datos colindantes en contacto con las esquinas. Por ejemplo, de acuerdo con un procedimiento preestablecido, la unidad de fusión / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante cuyo modo de predicción es un inter modo de entre las unidades de datos candidatas y puede determinar la unidad de datos colindante como una unidad de datos a fusionar con la unidad de datos actual.
Como alternativa, de acuerdo con un procedimiento preestablecido, la unidad de fusión / descodificador de unidades de datos 23 puede buscar una unidad de datos colindante que tiene el mismo índice de referencia que la unidad de datos actual de entre las unidades de datos candidatas y puede determinar la unidad de datos colindante como una unidad de datos a fusionar.
Debido a que se puede preestablecer cada procedimiento de determinación de una unidad de datos colindante a fusionar con la unidad de datos candidata, el procedimiento se puede señalizar de forma implícita.
La unidad de fusión / descodificador de unidades de datos 23 puede no realizar una fusión mutua entre las particiones en una unidad de datos.
La unidad de fusión / descodificador de unidades de datos 23 puede determinar una unidad de datos a fusionar con la unidad de datos actual en un grupo de candidatas de fusión de unidades de datos colindantes que varían de acuerdo con una forma y una posición de una partición actual.
El analizador sintáctico / unidad de extracción 21 puede extraer una información de modo de omisión para cada unidad de predicción y puede extraer una información relacionada con la fusión para cada partición. Como alternativa, el analizador sintáctico / unidad de extracción 21 puede extraer una información relacionada con la fusión y una información de modo de omisión para cada unidad de datos. Asimismo, el analizador sintáctico / unidad de extracción 21 puede extraer una información relacionada con la fusión solo para una unidad de datos que tiene un modo de predicción previamente determinado.
El analizador sintáctico / unidad de extracción 21 puede extraer de forma secuencial una información de modo de omisión, una información de unidad de predicción, una información de partición y una información de fusión de una unidad de predicción. La información de partición puede incluir una información acerca de si la unidad de predicción se divide en particiones y una información acerca de un tipo de partición.
El aparato 20 puede descodificar datos de vídeo mediante la realización de una fusión de unidades de datos entre unidades de codificación o entre unidades de predicción. Asimismo, el aparato 20 puede descodificar de forma selectiva datos de vídeo de acuerdo con una información de modo de omisión codificada y una información de modo directo.
Por consiguiente, si un modo de predicción de una unidad de datos no es un modo de omisión sobre la base de una información de modo de omisión de la unidad de datos, el analizador sintáctico / unidad de extracción 21 puede extraer al menos una de información de codificación de modo de omisión / directo que indica si se codifica una información de modo directo de la unidad de datos, una información de determinación de fusión de unidad de codificación que indica si se determina una aparición de fusión de unidades de codificación, y una información de determinación de fusión de unidad de predicción que indica si se determina una aparición de fusión entre unidades de predicción. Asimismo, la unidad de fusión / descodificador de unidades de datos 23 puede realizar la descodificación mediante el uso tanto de un modo de omisión como de un modo directo sobre la base de la información extraída, o puede descodificar datos de vídeo que se someten a una fusión de unidades de datos sobre la base de una unidad de codificación o una unidad de predicción.
La unidad de fusión / descodificador de unidades de datos 23 puede descodificar datos de vídeo mediante la determinación de un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de omisión de acuerdo con una regla preestablecida y seguir un índice de referencia y una dirección de referencia de información de movimiento de una unidad de datos colindante para la unidad de datos que se fusiona con la unidad de datos colindante. Debido a que se puede preestablecer la regla de determinación de un índice de referencia y una dirección de referencia de una unidad de datos que tiene un modo de omisión, la regla se puede señalizar de forma implícita.
A medida que aumenta la resolución de un vídeo, aumenta con rapidez la cantidad de datos, y aumenta un tamaño de una unidad de datos, los datos redundantes aumentan y, por lo tanto, aumenta una unidad de datos que tiene un modo de omisión o un modo directo. No obstante, debido a que un procedimiento de fusión de macrobloques
5
10
15
20
25
30
35
40
45
50
55
anterior determina si solo se fusiona un macrobloque cuyo modo de predicción es un inter modo que no sea un modo de omisión y un modo directo y fusiona el macrobloque con un macrobloque colindante que tiene un tamaño fijo y una posición fija, el procedimiento de fusión de macrobloques anterior se aplica a áreas limitadas.
El aparato 10 y el aparato 20 pueden realizar una fusión de unidades de datos sobre unas unidades de datos que tienen diversos tamaños, diversas formas y diversos modos de predicción, y pueden fusionar las unidades de datos con unidades de datos colindantes que tienen diversas posiciones. Por consiguiente, debido a que diversas unidades de datos comparten la información relacionada con la predicción de más unidades de datos colindantes diversas, los datos redundantes se pueden retirar al hacer referencia a una información periférica en un intervalo más amplio, mejorando de ese modo la eficiencia de codificación de vídeo.
La figura 3 es un diagrama que ilustra unos bloques colindantes que se pueden fusionar con un macrobloque actual de acuerdo con una técnica relacionada.
De acuerdo con un procedimiento de fusión de bloques de acuerdo con una técnica relacionada, un bloque colindante que está incluido en un grupo de candidatas de fusión de bloques colindantes a fusionar con el macrobloque actual debería ser un bloque colindante que tiene un inter modo y se codifica antes del macrobloque actual. Por consiguiente, solo los bloques que colindan con una frontera superior y una frontera derecha del macrobloque actual se pueden incluir en un grupo de candidatas de fusión.
Los bloques fusionados pueden constituir una región, y la información de codificación y la información relacionada con la fusión se pueden codificar de acuerdo con las regiones de los bloques fusionados. Por ejemplo, se puede codificar una información de fusión acerca de si se realiza la fusión de bloques, y si se realiza la fusión de bloques, una información de posición de bloques de fusión que indica qué bloque se fusiona de entre un bloque colindante superior y un bloque colindante izquierdo del macrobloque actual.
De acuerdo con el procedimiento de fusión de bloques de acuerdo con una técnica relacionada, a pesar de que una pluralidad de bloques están en contacto con las fronteras del macrobloque actual, solo un bloque colindante en contacto con una muestra superior izquierda del bloque actual se puede seleccionar para fusionarse con el macrobloque actual.
Es decir, uno de un primer bloque colindante superior 32 que colinda con una frontera superior de un primer macrobloque actual 31 y en contacto con una muestra superior izquierda del primer macrobloque actual 31 y un segundo bloque colindante izquierdo 33 que colinda con una frontera izquierda del primer macrobloque actual 31 y en contacto con la muestra superior izquierda del primer macrobloque 31 se puede seleccionar para fusionarse con el primer macrobloque actual 31.
De forma similar, uno de un segundo bloque colindante superior 36 y un segundo bloque colindante izquierdo 37 en contacto con una muestra superior izquierda de un segundo macrobloque actual 35 se puede fusionar de forma selectiva con el segundo macrobloque actual 35.
Las figuras 4 y 5 son unos diagramas para explicar procedimientos de selección de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes de la unidad de datos actual, de acuerdo con una técnica relacionada y una realización a modo de ejemplo, respectivamente.
Haciendo referencia a la figura 4, de acuerdo con un procedimiento de fusión de unidades de datos de acuerdo con una técnica relacionada, a pesar de que las unidades de datos colindantes 42, 43 y 44 están en contacto con una frontera superior de una unidad de datos actual 41 y las unidades de datos colindantes 45, 46, 47 y 48 están en contacto con una frontera izquierda de la unidad de datos actual 41, una unidad de datos a fusionar con la unidad de datos actual 41 se limita a la unidad de datos 42 como una unidad de datos colindante superior o la unidad de datos 45 como una unidad de datos colindante izquierda. Asimismo, debido a que solo es posible la fusión con una unidad de datos colindante cuyo modo de predicción es un inter modo, si los modos de predicción de las unidades de datos colindantes 42 y 44 son modos de omisión o modos directos, las unidades de datos colindantes 42 y 44 no se consideran como unidades de datos a fusionar.
De acuerdo con un procedimiento de fusión de unidades de datos del aparato 10 y el aparato 20 de la figura 5, un grupo de candidatas de fusión de unidades de datos colindantes que se pueden fusionar con la unidad de datos actual 41 puede incluir la totalidad de las unidades de datos colindantes superiores 42, 43 y 44 y las unidades de datos colindantes izquierdas 45, 46, 47 y 48. En este caso, incluso cuando un modo de predicción de la unidad de datos actual 41 es un modo de omisión o un modo directo así como un inter modo, se puede determinar si la unidad de datos actual 41 se fusiona con una unidad de datos colindante.
Por ejemplo, una de un grupo de candidatas de fusión superiores 52 que incluye las unidades de datos colindantes superiores 42, 43 y 44 de la unidad de datos actual 41 se puede determinar como una candidata de fusión superior A'. De forma similar, una de un grupo de candidatas de fusión izquierdas 55 que incluye las unidades de datos colindantes izquierdas 45, 46, 47 y 48 de la unidad de datos actual 41 se puede determinar como una candidata de fusión izquierda L'. Se puede determinar finalmente que una de la candidata de fusión superior A' y la candidata de fusión izquierda L' es una unidad de datos colindante a fusionar con la unidad de datos actual 41.
5
10
15
20
25
30
35
40
45
50
55
El aparato 10 y el aparato 20 pueden determinar un procedimiento de determinación de una del grupo de candidatas de fusión superiores 52 como la candidata de fusión superior A' y un procedimiento de determinación de una del grupo de candidatas de fusión izquierdas 55 como la candidata de fusión izquierda L' de acuerdo con un procedimiento preestablecido. La información acerca del presente procedimiento se puede señalizar de forma implícita. Incluso a pesar de que la información acerca del presente procedimiento no se codifica por separado para buscar la candidata de fusión superior A' en el grupo de candidatas de fusión superiores 52 o buscar la candidata de fusión izquierda L' en el grupo de candidatas de fusión izquierdas 55, el aparato 10 y el aparato 20 pueden percibir el procedimiento preestablecido en el que se buscan la candidata de fusión superior A' y la candidata de fusión izquierda L'.
Por ejemplo, unas unidades de datos colindantes que tienen la misma información de índice de referencia que la unidad de datos actual 41 en el grupo de candidatas de fusión superiores 52 y el grupo de candidatas de fusión izquierdas 55 se puede determinar como la candidata de fusión superior A' y la candidata de fusión izquierda L'. Como alternativa, las unidades de datos colindantes más cercanas a una muestra superior izquierda de la unidad de datos actual 41 cuyo modo de predicción es un inter modo en el grupo de candidatas de fusión superiores 52 y el grupo de candidatas de fusión izquierdas 55 se pueden determinar como la candidata de fusión superior A' y la candidata de fusión izquierda L'.
De forma similar, el aparato 10 y el aparato 20 pueden determinar finalmente una de la candidata de fusión superior A' y la candidata de fusión izquierda L' como una unidad de datos colindante a fusionar con la unidad de datos actual 41 de acuerdo con un procedimiento preestablecido.
Las figuras 6 y 7 son unos diagramas de bloques para explicar órdenes de codificación y de descodificación de una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción, de acuerdo con realizaciones a modo de ejemplo.
En primer lugar, la figura 6 es un diagrama de bloques para explicar un procedimiento de codificación y de descodificación de una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción, de acuerdo con una primera realización a modo de ejemplo en la que se determina una aparición de una fusión de unidades de datos en consideración de si un modo de predicción de una unidad de datos actual es un modo de omisión.
En la operación 61, el aparato 10 codifica una información de modo de omisión 'indicador_omisión' de una unidad de datos actual. Si un modo de predicción de la unidad de datos actual es un modo de omisión, la información de modo de omisión 'indicador_omisión' se puede establecer a 1, y si un modo de predicción de la unidad de datos actual no es un modo de omisión, la información de modo de omisión 'indicador_omisión' se puede establecer a 0.
Si se determina en la operación 61 que el modo de predicción de la unidad de datos actual es un modo de omisión, el procedimiento avanza a la operación 62. En la operación 62, la información de fusión 'indicador_fusión' puede no codificarse. Si se determina en la operación 61 que el modo de predicción de la unidad de datos actual no es un modo de omisión, el procedimiento avanza a la operación 63. En la operación 63, se codifica la información de fusión 'indicador_fusión'. La información de índice de referencia y de dirección de predicción de la unidad de datos actual cuyo modo de predicción es un modo de omisión se puede determinar de acuerdo con una regla preestablecida. Para la información de índice de referencia y de dirección de predicción de la unidad de datos actual a fusionar con una unidad de datos colindante, se puede seguir o hacer referencia a un índice de referencia y una dirección de referencia de un vector de movimiento de la unidad de datos colindante.
Por ejemplo, si hay preestablecida una regla de que, si un sector actual es un sector de tipo P, una dirección de predicción de una unidad de datos cuyo modo de predicción es un modo de omisión se establece a una dirección de List0, si un sector actual es un sector de tipo B, un modo de predicción se establece a una dirección de Bi, y un índice de referencia de la unidad de datos cuyo modo de predicción es un modo de omisión se establece a 0, una codificación de predicción de la unidad de datos cuyo modo de predicción es un modo de omisión puede ser posible de acuerdo con la regla.
Si la unidad de datos actual se fusiona con una unidad de datos colindante, la información de fusión 'indicador_fusión' de la unidad de datos actual se puede establecer a 1 y si la unidad de datos actual no se fusiona con una unidad de datos colindante, la información de fusión 'indicador_fusión' de la unidad de datos actual se puede establecer a 0. En la operación 64, si la unidad de datos actual se fusiona con una unidad de datos colindante, debido a que una información de predicción auxiliar para la codificación de predicción de la unidad de datos actual se puede seguir u obtener a partir de una información de la unidad de datos colindante, la información de índice de referencia y de dirección de predicción ‘Inter dirección / índice de Ref' de la unidad de datos actual puede no codificarse. En la operación 65, a pesar de que la unidad de datos actual se fusiona con la unidad de datos colindante, se codifica la información diferencial de vector de movimiento ‘mvd'.
En la operación 66, si la unidad de datos actual no se fusiona con una unidad de datos colindante, se puede codificar la información de índice de referencia y de dirección de predicción ‘Inter dirección / índice de Ref' de la unidad de datos actual y, en la operación 67, se puede codificar la información diferencial de vector de movimiento
5
10
15
20
25
30
35
40
45
50
55
'mvd'. Por ejemplo, una dirección de predicción de la unidad de datos actual puede incluir una dirección de listo, una dirección de Listl, y una dirección de Bi.
El aparato 20 puede extraer y leer una información de modo de omisión de una unidad de datos actual y puede extraer y leer la información de fusión y la información relacionada con la predicción sobre la base de la información de modo de omisión al igual que en el procedimiento de las operaciones 61 a 67.
La figura 7 es un diagrama de bloques para explicar un procedimiento de codificación / descodificación de una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción, de acuerdo con una segunda realización a modo de ejemplo en la que se determina una aparición de una fusión de unidades de datos en consideración de si un modo de predicción de una unidad de datos actual es un modo de omisión y un modo directo.
En la operación 71, el aparato 10 codifica una información de modo de omisión 'indicador_omisión' de la unidad de datos actual. Si se determina en la operación 71 que un modo de predicción de la unidad de datos actual es un modo de omisión, el procedimiento avanza a la operación 72. En la operación 72, la información de fusión 'indicador_fusión' puede no codificarse.
Si se determina en la operación 71 que el modo de predicción de la unidad de datos actual no es un modo de omisión, el procedimiento avanza a la operación 73. En la operación 73, se codifica el modo directo 'indicador_directo'. Si el modo de predicción de la unidad de datos actual es un modo directo, la información de modo directo 'indicador_directo' de la unidad de datos actual se puede establecer a 1 y si el modo de predicción de la unidad de datos actual no es un modo directo, la información de modo directo 'indicador_directo' de la unidad de datos actual se puede establecer a 0. Si se determina en la operación 73 que el modo de predicción de la unidad de datos actual es un modo directo, el procedimiento avanza a la operación 74. En la operación 74, la información de fusión 'indicador_fusión' puede no codificarse.
Si se determina en la operación 73 que el modo de predicción de la unidad de datos actual no es un modo directo, el procedimiento avanza a la operación 75. En la operación 75, se codifica la información de fusión 'indicador_fusión'. En la operación 76, si la unidad de datos actual se fusiona con una unidad de datos colindante, la información de índice de referencia y de dirección de predicción ‘Inter dirección / índice de Ref' de la unidad de datos actual puede no codificarse y, en la operación 77, se codifica la información diferencial de vector de movimiento ‘mvd'. En las operaciones 78 y 79, si la unidad de datos actual no se fusiona con una unidad de datos colindante, se pueden codificar la información de índice de referencia y de dirección de predicción ‘Inter dirección / índice de Ref' de la unidad de datos actual y la información diferencial de vector de movimiento ‘mvd'.
El aparato 20 puede extraer y leer una información de modo de omisión o una información de modo directo de una unidad de datos actual y puede extraer y leer la información de fusión y la información relacionada con la predicción sobre la base de la información de modo de omisión o la información de modo directo al igual que en el procedimiento de las operaciones 71 a 79.
Las figuras 8 y 9 son unos diagramas para explicar procedimientos de selección de una unidad de datos a fusionar con una unidad de datos actual de entre unidades de datos colindantes ampliadas de la unidad de datos actual, de acuerdo con un procedimiento de la técnica relacionada y una realización a modo de ejemplo, respectivamente.
De acuerdo con un procedimiento de fusión de unidades de datos de la técnica relacionada de la figura 8, los objetos a fusionar con una unidad de datos actual 81 se limitan a una unidad de datos colindante superior 82 y una unidad de datos colindante izquierda 85 en contacto con una muestra superior izquierda de la unidad de datos actual 81. Es decir, las unidades de datos colindantes 89, 91 y 93 en contacto con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda de la unidad de datos actual 81 no están incluidas en un grupo de candidatas de fusión de la unidad de datos actual 81.
Un procedimiento de fusión de unidades de datos de la figura 9 es similar a un procedimiento de predicción de vector de movimiento de un inter modo. En la figura 9, un grupo de candidatas de fusión de unidades de datos colindantes que se pueden fusionar con la unidad de datos actual 81 puede incluir no solo las unidades de datos colindantes superiores 82, 83 y 84 y las unidades de datos colindantes izquierdas 85, 86, 87 y 88 sino también las unidades de datos colindantes 89, 91 y 93 en contacto con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda de la unidad de datos actual 81.
Por ejemplo, una de un grupo de candidatas de fusión superiores 92 que incluye las unidades de datos colindantes superiores 82, 83 y 84 de la unidad de datos actual 81 se puede determinar como una candidata de fusión superior A', y una de un grupo de candidatas de fusión izquierdas 95 que incluye las unidades de datos colindantes izquierdas 85, 86, 87 y 88 se puede determinar como una candidata de fusión izquierda L'. Asimismo, una de un grupo de candidatas de fusión de esquina 96 que incluye las unidades de datos colindantes 89, 91 y 93 en contacto con la esquina superior izquierda, la esquina superior derecha, y la esquina inferior izquierda de la unidad de datos actual 81 se puede determinar como una candidata de fusión de esquina C'. Una de la candidata de fusión superior A', la candidata de fusión izquierda L', y la candidata de fusión de esquina C' se puede determinar finalmente como una unidad de datos colindante a fusionar con la unidad de datos actual 81.
5
10
15
20
25
30
35
40
45
50
55
Un procedimiento de determinación de una del grupo de candidatas de fusión superiores 92 como la candidata de fusión superior A' un procedimiento de determinación de una del grupo de candidatas de fusión izquierdas 95 como la candidata de fusión izquierda L', un procedimiento de determinación de una del grupo de candidatas de fusión de esquina 96 como la candidata de fusión de esquina C', y un procedimiento de determinar finalmente una de la candidata de fusión superior A', la candidata de fusión izquierda L', y la candidata de fusión de esquina C' puede seguir una regla preestablecida tal como se describe con referencia a la figura 5.
En la figura 9, debido a que las direcciones de las unidades de datos candidatas que se pueden fusionar con la unidad de datos actual 81 incluyen superior, inferior y esquina, la información de posiciones de fusión se puede expresar como un índice de fusión, no un tipo de indicador de 0 o 1.
Las figuras 10, 11 y 12 son unos diagramas de bloques para explicar órdenes de codificación y de descodificación de una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción, de acuerdo con diversas realizaciones a modo de ejemplo.
Haciendo referencia a la figura 10, el aparato 10 puede codificar una información de modo de omisión y una información de fusión para cada unidad de predicción que es una unidad de datos para la codificación de predicción.
En la operación 101, el aparato 10 puede codificar una información de modo de omisión 'indicador_omisión' de una unidad de predicción y, en la operación 102, el aparato 10 puede codificar la información de fusión 'indicador_fusión' de una unidad de predicción que no sea un modo de omisión. En las operaciones 103 y 104, el aparato 10 puede codificar una información de modo de predicción 'Info de predicción' y una información de partición 'Info de partición' únicas de una unidad de predicción cuyo modo de predicción no es un modo de omisión y que no se fusiona con una unidad de datos colindante.
Por consiguiente, el aparato 20 puede extraer y leer una información de modo de omisión y una información de fusión para cada unidad de predicción. El aparato 20 puede extraer una información de modo de predicción y una información de partición únicas de una unidad de predicción cuyo modo de predicción no es un modo de omisión y que no se fusiona con una unidad de datos colindante.
Haciendo referencia a la figura 11, el aparato 10 puede codificar una información de modo de omisión para cada unidad de predicción, y puede codificar la información de fusión de cada partición que se obtiene mediante la división de una unidad de predicción para el fin de una codificación de predicción más precisa.
En la operación 111, el aparato 10 puede codificar una información de modo de omisión 'indicador_omisión' de una unidad de predicción, en la operación 112, el aparato 10 puede codificar una información de modo de predicción 'Info de predicción' de una unidad de predicción cuyo modo de predicción no es un modo de omisión y, en la operación 113, el aparato 10 puede codificar una información de partición 'Info de partición'.
En la operación 114, el aparato 10 puede codificar la información de fusión 'indicador_fusión' para cada partición de la unidad de predicción cuyo modo de predicción no es un modo de omisión. En la operación 115, el aparato 10 puede codificar una información de movimiento única 'Info de movimiento' de una partición que no se fusiona con una unidad de datos colindante de entre las particiones de la unidad de predicción cuyo modo de predicción no es un modo de omisión.
Por consiguiente, el aparato 20 puede extraer y leer una información de modo de omisión para cada unidad de predicción, y puede extraer y leer una información de fusión para cada partición. El aparato 20 puede extraer una información de movimiento única de una partición cuyo modo de predicción no es un modo de omisión y que no se fusiona con una unidad colindante.
Haciendo referencia a la figura 12, el aparato 10 puede codificar una información de modo de omisión para cada unidad de predicción, y puede codificar la información de fusión para cada partición cuando se satisface una condición previamente determinada.
En la operación 121, el aparato 10 puede codificar una información de modo de omisión 'indicador_omisión' de una unidad de predicción, en la operación 122, el aparato 10 puede codificar una información de modo de predicción 'Info de predicción' de una unidad de predicción cuyo modo de predicción no es un modo de omisión y, en la operación 123, el aparato puede codificar una información de partición 'Info de partición'.
En la operación 124, el aparato 10 determina si se satisface una condición previamente determinada para cada partición de la unidad de predicción. En la operación 125, se puede codificar la información de fusión 'indicador_fusión' de solo una unidad de datos que satisface la condición previamente determinada de entre las particiones de la unidad de predicción cuyo modo de predicción no es un modo de omisión. En la operación 126, el aparato 10 codifica una información de movimiento única 'Info de movimiento' de una partición que satisface la condición previamente determinada y no se fusiona con una unidad de datos colindante y una partición que no satisface la condición previamente determinada a partir de las particiones de la unidad de predicción cuyo modo de predicción no es un modo de omisión.
5
10
15
20
25
30
35
40
45
50
55
Una condición previamente determinada de una partición para codificar la información de fusión puede incluir un caso en el que un modo de predicción de una partición es un modo de predicción previamente determinado. Por ejemplo, la información de fusión de una partición se puede codificar de acuerdo con una condición de que un modo de predicción no sea un modo de omisión sino un inter modo (modo no de omisión), una condición de que un modo de predicción no sea un modo de omisión y un modo directo sino un inter modo (un inter modo no de omisión y un inter modo no directo), o una condición de que un modo de predicción sea un inter modo que no se divide por una partición (un inter modo sin subdivisión en particiones).
Con detalle, en la operación 124, si se realiza una fusión de unidades de datos sobre una unidad de datos cuyo modo de predicción no es un modo de omisión y un modo directo sino un inter modo, el aparato 10 puede determinar si los modos de predicción de particiones de una unidad de predicción que no sea un modo de omisión no son modos directos sino inter modos. En la operación 125, se puede codificar la información de fusión 'indicador_fusión' de una partición cuyo modo de predicción no es un modo directo. En la operación 126, se puede codificar una información de movimiento única 'Info de movimiento' de una partición cuyo modo de predicción no es un modo directo y que no se fusiona con una unidad de datos colindante y una partición cuyo modo de predicción es un modo directo.
Por consiguiente, el aparato 20 puede extraer y leer una información de modo de omisión para cada modo de predicción, y puede extraer y leer la información de fusión para cada partición. El aparato 20 puede extraer una información de movimiento única de una partición cuyo modo de predicción no es un modo de omisión y que satisface una condición previamente determinada pero no se fusiona con una unidad de datos colindante y una partición que no satisface la condición previamente determinada.
La figura 13 es un diagrama que ilustra unas unidades de datos colindantes que no se fusionan con una partición actual, de acuerdo con una realización a modo de ejemplo.
Una unidad de datos para la codificación de predicción, es decir, una unidad de predicción, se puede dividir en dos o más particiones para una codificación de predicción más precisa. Por ejemplo, una anchura de una primera unidad de predicción 131 se puede dividir en una primera partición 132 y una segunda partición 133.
Debido a que la primera partición 132 y la segunda partición 133 tienen diferentes características de movimiento incluso a pesar de que la primera partición 132 y la segunda partición 133 están incluidas en la primera unidad de predicción 131, puede que la fusión de unidades de datos no se realice entre la primera partición 132 y la segunda partición 133. Por consiguiente, el aparato 10 puede no determinar si se realiza una fusión de unidades de datos entre la primera partición 132 y la segunda partición 133 en la misma primera unidad de predicción 131. Asimismo, la información de índice de fusión para la segunda partición 133 puede no incluir un índice que indica una unidad de datos colindante izquierda.
Incluso cuando una altura de una segunda unidad de predicción 135 se divide en una tercera partición 136 y una cuarta partición 137, debido a que no se debería realizar una fusión de unidades de datos entre la tercera partición
136 y la cuarta partición 137, el aparato 10 puede no determinar si se realiza una fusión de unidades de datos entre la tercera partición 136 y la cuarta partición 137. Asimismo, la información de índice de fusión para la cuarta partición
137 puede no incluir un índice que indica una unidad de datos colindante superior.
La figura 14 es un diagrama que ilustra una unidad de datos candidata que varía de acuerdo con una forma y una posición de una partición actual, de acuerdo con una realización a modo de ejemplo.
De acuerdo con una forma y una posición de una partición, una posición de una unidad de datos colindante a fusionar puede variar. Por ejemplo, si una unidad de predicción 141 se divide en unas particiones izquierda y derecha 142 y 143, las candidatas de unidad de datos colindante que se pueden fusionar con la partición izquierda 142 pueden ser una unidad de datos 144 que colinda con una frontera superior de la partición izquierda 142, una unidad de datos 145 que colinda con una frontera izquierda de la partición izquierda 142, y una unidad de datos 146 que colinda con una esquina superior derecha de la partición izquierda 142.
A pesar de que la partición derecha 153 está en contacto con la partición izquierda 142 en una frontera izquierda, debido a que la partición izquierda 142 y la partición derecha 143 son particiones de la misma unidad de predicción 141, puede no realizarse una fusión entre la partición izquierda 142 y la partición derecha 143. Por consiguiente, las candidatas de unidad de datos colindante que se pueden fusionar con la partición derecha 143 pueden ser una unidad de datos 146 que colinda con una frontera superior de la partición derecha 143 y una unidad de datos 147 que colinda con una esquina superior derecha de la partición derecha 143. Asimismo, la información de índice de fusión para la partición derecha 143 puede no incluir un índice que indica una unidad de datos colindante superior izquierda.
La figura 15 es un diagrama que ilustra unas unidades de datos colindantes que pueden no fusionarse con una partición actual que es una partición que tiene una forma geométrica, de acuerdo con una realización a modo de ejemplo.
5
10
15
20
25
30
35
40
45
50
En la codificación de predicción del aparato 10, una unidad de predicción se puede dividir no solo en una dirección vertical u horizontal, y sino también en una dirección arbitraria en unas particiones que tienen unas formas geométricamente diversas. Las unidades de predicción 148, 152, 156 y 160 que se obtienen mediante la realización de una división en unas direcciones arbitrarias se ilustran en la figura 15.
Las particiones que tienen formas geométricas pueden no fusionarse con unidades de datos colindantes en contacto con las fronteras superiores y las fronteras izquierdas de las particiones de acuerdo con las posiciones y las formas de las particiones. Por ejemplo, de entre dos particiones 149 y 150 de la unidad de predicción 148, la partición 150 se puede fusionar con una unidad de datos colindante 151 en contacto con una frontera izquierda. No obstante, debido a que una unidad de datos colindante en contacto con una frontera superior es la partición 149 que está incluida en la misma unidad de predicción 158, la partición 150 puede no fusionarse con la unidad de datos colindante superior. En este caso, la información de índice de fusión de la partición 150 puede no incluir un índice que indica la partición 149 que es la unidad de datos colindante superior.
De forma similar, de entre dos particiones 153 y 154 de la unidad de predicción 152, la partición 164 se puede fusionar con una unidad de datos colindante izquierda 155. No obstante, debido a que una unidad de datos colindante superior es la partición 153 que está incluida en la misma unidad de predicción 152, la partición 154 puede no fusionarse con la unidad de datos colindante superior.
De forma similar, de entre dos particiones 157 y 158 de la unidad de predicción 156, la partición 158 se puede fusionar con una unidad de datos colindante superior 159. No obstante, debido a que una unidad de datos colindante izquierda es la partición 157 que está incluida en la misma unidad de predicción 156, la partición 158 puede no fusionarse con la unidad de datos colindante izquierda.
De forma similar, de entre dos particiones 161 y 162 de la unidad de predicción 160, debido a que la partición 161 que está incluida en la misma unidad de predicción 160 es una unidad de datos colindante superior y una unidad de datos colindante izquierda de la partición 162, la partición 162 puede no fusionarse con la unidad de datos colindante superior y la unidad de datos colindante izquierda.
Tal como se describe con referencia a las figuras 13, 14 y 15, si una unidad de datos colindante que puede no fusionarse se genera de acuerdo con una forma o una posición de una unidad de datos, la información de índice de fusión puede no incluir un índice que indica la unidad de datos colindante que puede no fusionarse.
Asimismo, el aparato 10 puede no realizar una fusión de unidades de datos para ampliar una unidad de datos actual y para solapar la unidad de datos actual con otra unidad de datos que existe previamente.
Por ejemplo, si una unidad de predicción se divide en dos particiones y una unidad de datos candidata previamente determinada de la segunda partición tiene la misma información de movimiento que la primera partición, puede no permitirse la fusión entre la segunda partición y la unidad de datos candidata previamente determinada.
Por ejemplo, de entre la primera partición 132 y la segunda partición 133 de la primera unidad de predicción 131 de la figura 13, si una unidad de predicción superior de la segunda partición 133 tiene la misma información de movimiento que la primera partición 132, las unidades de predicción superior de la primera partición 132 y la segunda partición 133 se pueden excluir de un grupo de unidades de datos candidatas de la segunda partición 133. Esto es debido a que si se realiza una fusión de unidades de datos de tal modo que la segunda partición 133 se refiere a una información de movimiento de una unidad de predicción superior, esto es lo mismo que un caso en el que se hace referencia a una información de movimiento de la primera partición 132.
La información de fusión junto con si se realiza una fusión de unidades de datos se puede establecer a través de un modelado de contexto considerando un modo de predicción y un tipo de partición de una unidad de datos colindante. Un índice de un modelo de contexto se puede expresar como una información de fusión mediante el análisis de una combinación de un modo de predicción y un tipo de partición de una unidad de datos colindante de una unidad de datos actual y un caso en el que la unidad de datos actual y la unidad de datos colindante se fusionan entre sí como un modelo de contexto.
La tabla 1 muestra una información de fusión a través de un modelado de contexto de acuerdo con una realización a modo de ejemplo. Para facilitar la explicación, los objetos a fusionar con una unidad de datos actual se limitan a una unidad de datos colindante izquierda y una unidad de datos colindante superior.
Tabla 1
- Unidad de datos colindante izquierda / superior
- Índice de modelo de contexto de acuerdo con el tipo de partición
- 2N x 2N
- 2N x N, 2N x U, 2N x nD N x 2N, nL x 2N, nRx2L
- Para ambas, INTRA modo
- 0
- Para solo una, indicador_fusión = 1
- 1 3 5
- Para ambas, indicador_fusión = 1
- 2 4 6
5
10
15
20
25
30
35
40
45
50
(continuación)
- Unidad de datos colindante izquierda / superior
- Índice de modelo de contexto de acuerdo con el tipo de partición
- 2N x 2N
- 2N x N, 2N x U, 2N x nD N x 2N, nL x 2N, nRx2L
- Para al menos una, modo de OMISIÓN o modo DIRECTO
- 7 8 9
Puede haber unas particiones incluidas de forma selectiva que tienen unas formas arbitrarias tales como unos tipos de partición simétricos 2N x 2N, 2N x N, N x 2N, y N x N que se obtienen mediante la división de una altura o una anchura de una unidad de predicción de acuerdo con una relación simétrica, unos tipos de partición asimétricos 2N x nU, 2N x nD, nLx2N, y nRx2N que se obtienen mediante la división de una altura o una anchura de una unidad de predicción de acuerdo con una relación asimétrica tal como 1 : n o n : 1, o tipos de partición geométrica que se obtienen mediante la división de una altura o una anchura de una unidad de predicción en diversas formas geométricas. Los tipos de partición asimétricos 2N x nU y 2N x nD se obtienen mediante la división de una altura de una unidad de predicción de acuerdo con unas relaciones de 1 : 3 y 3 : 1, respectivamente, y los tipos de partición asimétricos nL x 2N y nR x 2N se obtienen mediante la división de una anchura de una unidad de predicción de acuerdo con unas relaciones de 1 : 3 y 3 : 1, respectivamente.
De acuerdo con la tabla 1, debido a que no se realiza una fusión de unidades de datos cuando los modos de predicción tanto de una unidad de datos colindante izquierda como una unidad de datos colindante superior de una unidad de datos actual son intra modos, la información de fusión de la unidad de datos actual se asigna a un índice 0 sin la necesidad de distinguir los modelos de contexto de acuerdo con los tipos de partición.
Asimismo, suponiendo que los modos de predicción de una unidad de datos colindante izquierda y una unidad de datos colindante superior son inter modos, no modos de omisión o modos directos, cuando solo una de la unidad de datos colindante izquierda y la unidad de datos colindante superior se fusiona con una unidad de datos actual, y cuando tanto la unidad de datos colindante izquierda como la unidad de datos colindante superior se fusionan con la unidad de datos actual, un modelo de contexto de la información de fusión se puede establecer de acuerdo con una combinación de si se realiza una fusión de unidades de datos de acuerdo con los tipos de partición de unidades de datos colindantes. En este caso, cada información de fusión se puede asignar a uno de los índices de modelo de contexto 1 a 6 de acuerdo con la tabla 1.
Asimismo, suponiendo que los modos de predicción son un modo de omisión y un modo directo, cuando al menos una de una unidad de datos colindante izquierda y una unidad de datos colindante superior es un modo de omisión o un modo directo, un modo de contexto de la información de fusión se puede establecer de acuerdo con los tipos de partición de unidades de datos colindantes y cada información de fusión se puede asignar a uno de los índices de modelo de contexto 7 a 9 de acuerdo con la tabla 1.
Por consiguiente, el aparato 20 puede leer la información de fusión de acuerdo con un modelado de contexto, y puede analizar si se realiza una fusión entre una unidad de datos actual y una unidad de datos colindante y un modo de predicción y un tipo de partición de la unidad de datos colindante.
El aparato 20 puede inferir una información de movimiento de una unidad de datos actual mediante el uso de una información de movimiento de una unidad de datos colindante que se fusiona con la unidad de datos actual.
Además, el aparato 10 y el aparato 20 pueden realizar una transformación sobre una unidad de datos fusionada si una forma de la unidad de datos fusionada que se forma mediante una fusión de unidades de datos es un cuadrado regular.
Asimismo, en el aparato 10 y el aparato 20, una unidad de datos colindante que se fusiona con una unidad de datos actual puede compartir una información acerca de una dirección de intra predicción. Una información acerca de una dirección de predicción para una unidad de datos fusionada que se forma mediante una fusión de unidades de datos puede no codificarse o descodificarse de acuerdo con las unidades de datos, pero se puede codificar o descodificar solo una vez para la unidad de datos fusionada.
La figura 16 es un diagrama que ilustra un ejemplo en el que se usa una unidad de datos colindante que se determina que se va a fusionar con una unidad de datos actual, de acuerdo con una realización a modo de ejemplo.
El aparato 10 y el aparato 20 pueden ampliar una frontera de una unidad de datos colindante a fusionar con una unidad de datos actual 163, y pueden usar la frontera ampliada para dividir una partición de la unidad de datos actual 164. Por ejemplo, si la unidad de datos actual 163 se fusiona con las unidades de datos colindantes izquierdas 164, 165 y 166, las fronteras de las unidades de datos colindantes izquierdas 164, 165 y 166 se pueden ampliar para alcanzar la unidad de datos actual 163. La unidad de datos actual 163 se puede dividir en particiones 167, 168 y 169 de acuerdo con las fronteras ampliadas de las unidades de datos colindantes izquierdas 165, 165 y 166.
5
10
15
20
25
30
35
40
45
50
55
La figura 17 es un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo.
En la operación 171, se determina un modo de codificación que indica una unidad de datos para la codificación de una imagen y un procedimiento de codificación que incluye una codificación de predicción que se realiza para cada unidad de datos.
En la operación 172, una aparición de fusión con al menos una unidad de datos colindante se determina sobre la base de al menos uno de un modo de predicción y el modo de codificación de acuerdo con las unidades de datos. Una unidad de datos puede incluir una unidad de predicción para la codificación de predicción y una partición para una codificación de predicción precisa de la unidad de predicción.
De entre una pluralidad de unidades de datos colindantes superiores en contacto con una frontera superior y una pluralidad de unidades de datos colindantes izquierdas en contacto con una frontera izquierda de una unidad de datos actual, se puede buscar una unidad de datos a fusionar con la unidad de datos actual. Asimismo, de entre unidades de datos colindantes en contacto con una esquina superior izquierda, una esquina superior derecha superior, y una esquina inferior izquierda de la unidad de datos actual, se puede buscar una unidad de datos a fusionar con la unidad de datos actual.
En la operación 173, una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción se determinan sobre la base de la aparición de fusión con la unidad de datos colindante de acuerdo con las unidades de datos, y se codifica una información de codificación que incluye la información de modo de predicción, la información relacionada con la fusión, y la información relacionada con la predicción.
Se puede codificar la información relacionada con la fusión de una unidad de datos cuyo modo de predicción es un modo de omisión y un modo directo. Por consiguiente, la información relacionada con la fusión de una unidad de datos que se determina que se va a fusionar con una unidad de datos colindante previamente determinada se puede codificar después de que se codifique una información de modo de omisión o una información de modo directo. La información relacionada con la fusión puede incluir una información de fusión que indica si se realiza una fusión entre una unidad de datos actual y una unidad de datos colindante, y una información de índice de fusión que indica la unidad de datos colindante.
Si se codifican tanto una información de modo de omisión como una información relacionada con la fusión de una unidad de predicción, una información de modo de predicción y una información de tipo de partición de la unidad de predicción se pueden codificar después de que se codifiquen la información de modo de omisión y la información relacionada con la fusión.
Si se codifica una información de modo de omisión de una unidad de predicción y se codifica una información relacionada con la fusión de una partición, la información relacionada con la fusión se puede codificar de acuerdo con las particiones después de la información de modo de omisión, se codifican una información de modo de predicción y una información de tipo de partición de la unidad de predicción.
La figura 18 es un diagrama de flujo que ilustra un procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos, de acuerdo con una realización a modo de ejemplo.
En la operación 181, se analiza sintácticamente un flujo de bits recibido, unos datos de vídeo codificados y una información de codificación se extraen a partir del flujo de bits, y una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción se extraen a partir de la información de codificación.
La información relacionada con la fusión se puede extraer sobre la base de un resultado de la lectura de una información de modo de omisión o una información de modo directo de una unidad de datos actual. Por ejemplo, se puede extraer la información relacionada con la fusión de una unidad de datos cuyo modo de predicción no es un modo de omisión. Como alternativa, se puede extraer la información relacionada con la fusión de una unidad de datos cuyo modo de predicción es un inter modo, no un modo de omisión y un modo directo. Una información de fusión que indica si se realiza una fusión entre una unidad de datos actual y una unidad de datos colindante, y una información de índice de fusión que indica la unidad de datos colindante se pueden leer a partir de la información relacionada con la fusión.
Si se extraen una información de modo de omisión y una información relacionada con la fusión para cada unidad de predicción, una información de modo de predicción y una información de tipo de partición de la unidad de predicción se pueden extraer después de que se hayan extraído la información de modo de omisión y la información relacionada con la fusión.
Si una información de modo de omisión se extrae a un nivel de unidad de predicción y una información relacionada con la fusión se extrae a un nivel de partición, la información relacionada con la fusión se puede extraer de acuerdo con las particiones después de que se hayan extraído la información de modo de omisión, la información de modo
5
10
15
20
25
30
35
40
45
50
55
de predicción, y la información de tipo de partición de la unidad de predicción.
En la operación 182, una aparición de fusión con al menos una unidad de datos colindante se analiza sobre la base de al menos uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos sobre la base de la información de modo de predicción y la información relacionada con la fusión. La inter predicción y la compensación de movimiento se realizan sobre una unidad de datos que se fusiona con una unidad de datos colindante mediante el uso de la información relacionada con la predicción de la unidad de datos colindante, y los datos de vídeo codificados se descodifican de acuerdo con unas unidades de datos determinadas sobre la base de la información de codificación.
De entre una pluralidad de unidades de datos colindantes superiores en contacto con una frontera superior y una pluralidad de unidades de datos colindantes izquierdas en contacto con una frontera izquierda, una unidad de datos a fusionar con una unidad de datos actual se puede determinar sobre la base de la información de fusión y una información de índice de fusión. Asimismo, de entre unidades de datos colindantes en contacto con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda de la unidad de datos actual, se puede determinar una unidad de datos a fusionar con la unidad de datos actual.
La información relacionada con el movimiento de una unidad de datos actual se puede reconstruir mediante el uso de la información relacionada con el movimiento de una unidad de datos que se fusiona con la unidad de datos actual. Se puede restablecer la unidad de datos actual y se puede restablecer una imagen a través de una compensación de movimiento que se realiza sobre la unidad de datos actual mediante el uso de la información relacionada con el movimiento.
Un aparato y procedimiento de codificación de un vídeo y un aparato y procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol de acuerdo con una o más realizaciones a modo de ejemplo se explicarán a continuación con referencia a las figuras 19 a 33.
La figura 19 es un diagrama de bloques de un aparato 100 para codificar un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una realización a modo de ejemplo.
El aparato 100 incluye una unidad de división de unidad de codificación máxima 110, una unidad de determinación de unidad de codificación 120 y una unidad de salida 130. Para facilitar la explicación, se hace referencia al aparato 100 para codificar un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol como 'el aparato 100 para codificar un vídeo'.
La unidad de división de unidad de codificación máxima 110 puede dividir una imagen actual sobre la base de una unidad de codificación máxima para una imagen actual de una imagen. Si la imagen actual es más grande que la unidad de codificación máxima, los datos de imagen de la imagen actual se pueden dividir en al menos una unidad de codificación máxima. La unidad de codificación máxima puede ser una unidad de datos que tiene un tamaño de 32 x 32, 64 x 64, 128 x 128, 256 x 256, etc., en la que una forma de la unidad de datos es un cuadrado que tiene una anchura y una longitud en cuadrados de 2. Los datos de imagen se pueden emitir a la unidad de determinación de unidad de codificación 120 de acuerdo con la al menos una unidad de codificación máxima.
Una unidad de codificación puede estar caracterizada por un tamaño máximo y una profundidad. La profundidad indica un número de veces que la unidad de codificación se divide espacialmente a partir de la unidad de codificación máxima, y a medida que aumenta la profundidad, las unidades de codificación más profunda de acuerdo con las profundidades se pueden dividir de la unidad de codificación máxima a una unidad de codificación mínima. Una profundidad de la unidad de codificación máxima es una profundidad lo más superior y una profundidad de la unidad de codificación mínima es una profundidad lo más inferior. Debido a que un tamaño de una unidad de codificación que se corresponde con cada profundidad disminuye a medida que aumenta la profundidad de la unidad de codificación máxima, una unidad de codificación que se corresponde con una profundidad superior puede incluir una pluralidad de unidades de codificación que se corresponden con unas profundidades inferiores.
Tal como se ha descrito en lo que antecede, los datos de imagen de la imagen actual se dividen en las unidades de codificación máxima de acuerdo con un tamaño máximo de la unidad de codificación, y cada una de las unidades de codificación máxima puede incluir unas unidades de codificación más profunda que se dividen de acuerdo con las profundidades. Debido a que la unidad de codificación máxima se divide de acuerdo con las profundidades, los datos de imagen de un dominio espacial que está incluido en la unidad de codificación máxima se pueden clasificar de forma jerárquica de acuerdo con las profundidades.
Se pueden determinar previamente una profundidad máxima y un tamaño máximo de una unidad de codificación, que limitan el número total de veces que se dividen de forma jerárquica una altura y una anchura de la unidad de codificación máxima.
La unidad de determinación de unidad de codificación 120 codifica al menos una región dividida que se obtiene mediante la división de una región de la unidad de codificación máxima de acuerdo con las profundidades, y
5
10
15
20
25
30
35
40
45
50
55
60
determina una profundidad para emitir unos datos de imagen finalmente codificados de acuerdo con la al menos una región dividida. Dicho de otra forma, la unidad de determinación de unidad de codificación 120 determina una profundidad codificada mediante la codificación de los datos de imagen en las unidades de codificación más profunda de acuerdo con las profundidades, de acuerdo con la unidad de codificación máxima de la imagen actual, y la selección de una profundidad que tiene el error de codificación mínimo. Por lo tanto, los datos de imagen codificados de la unidad de codificación que se corresponde con la profundidad codificada determinada se emiten finalmente. Asimismo, las unidades de codificación que se corresponden con la profundidad codificada se pueden considerar como unidades de codificación codificadas. La profundidad codificada determinada y los datos de imagen codificados de acuerdo con la profundidad codificada determinada se emiten a la unidad de salida 130.
Los datos de imagen en la unidad de codificación máxima se codifican sobre la base de unidades de codificación más profunda que se corresponden con al menos una profundidad igual a o por debajo de la profundidad máxima, y los resultados de la codificación de los datos de imagen se comparan sobre la base de cada una de las unidades de codificación más profunda. Una profundidad que tiene el error de codificación mínimo se puede seleccionar después de comparar los errores de codificación de las unidades de codificación más profunda. Se puede seleccionar al menos una profundidad codificada para cada unidad de codificación máxima.
El tamaño de la unidad de codificación máxima se divide a medida que una unidad de codificación se divide de forma jerárquica de acuerdo con las profundidades, y a medida que aumenta el número de unidades de codificación. Asimismo, incluso si las unidades de codificación que se corresponden con la misma profundidad en una unidad de codificación máxima, cada una de las unidades de codificación que se corresponden con la misma profundidad se pueden dividir a una profundidad inferior mediante la medición de un error de codificación de los datos de imagen de cada una de las unidades de codificación, por separado. Por consiguiente, incluso cuando se incluyen datos de imagen en una unidad de codificación máxima, los datos de imagen se dividen en regiones de acuerdo con las profundidades, los errores de codificación pueden diferir de acuerdo con las regiones en la una unidad de codificación máxima y, por lo tanto, las profundidades codificadas pueden diferir de acuerdo con las regiones en los datos de imagen. Por lo tanto, se pueden determinar una o más profundidades codificadas en una unidad de codificación máxima, y los datos de imagen de la unidad de codificación máxima se pueden dividir de acuerdo con las unidades de codificación de al menos una profundidad codificada.
Por consiguiente, la unidad de determinación de unidad de codificación 120 puede determinar unas unidades de codificación que tienen una estructura de árbol que está incluida en la unidad de codificación máxima. Las 'unidades de codificación que tienen una estructura de árbol' incluyen unas unidades de codificación que se corresponden con una profundidad que se determina que es la profundidad codificada, de entre todas las unidades de codificación más profunda que están incluidas en la unidad de codificación máxima. Una unidad de codificación de una profundidad codificada se puede determinar de forma jerárquica de acuerdo con las profundidades en la misma región de la unidad de codificación máxima, y se puede determinar de forma independiente en diferentes regiones. De forma similar, una profundidad codificada en una región actual se puede determinar de forma independiente a partir de una profundidad codificada en otra región.
Una profundidad máxima es un índice en relación con el número de veces de división de una unidad de codificación máxima a una unidad de codificación mínima. Una primera profundidad máxima puede indicar el número total de veces de división de la unidad de codificación máxima a la unidad de codificación mínima. Una segunda profundidad máxima puede indicar el número total de niveles de profundidad de la unidad de codificación máxima a la unidad de codificación mínima. Por ejemplo, cuando una profundidad de la unidad de codificación máxima es 0, una profundidad de una unidad de codificación, en la que la unidad de codificación máxima se divide una vez, se puede establecer a 1, y una profundidad de una unidad de codificación, en la que la unidad de codificación máxima se divide dos veces, se puede establecer a 2. En el presente caso, si la unidad de codificación mínima es una unidad de codificación en la que la unidad de codificación máxima se divide cuatro veces, existen 5 niveles de profundidad de profundidades 0, 1, 2, 3 y 4 y, por lo tanto, la primera profundidad máxima se puede establecer a 4, y la segunda profundidad máxima se puede establecer a 5.
La codificación de predicción y la transformación se pueden realizar de acuerdo con la unidad de codificación máxima. La codificación de predicción y la transformación también se realizan sobre la base de unidades de codificación más profunda de acuerdo con una profundidad igual a o unas profundidades menores que la profundidad máxima, de acuerdo con la unidad de codificación máxima. La transformación que se realiza para codificar un vídeo puede incluir una transformación de frecuencia, una transformación ortogonal, una transformación entera, y así sucesivamente.
Debido a que el número de unidades de codificación más profunda aumenta siempre que la unidad de codificación máxima se divide de acuerdo con las profundidades, una codificación que incluye la codificación de predicción y la transformación se realiza sobre la totalidad de las unidades de codificación más profunda que se generan a medida que aumenta la profundidad. Para facilitar la descripción, la codificación de predicción y la transformación se describirán a continuación sobre la base de una unidad de codificación de una profundidad actual, en una unidad de codificación máxima.
El aparato 100 puede seleccionar de forma diversa un tamaño o una forma de una unidad de datos para codificar los
5
10
15
20
25
30
35
40
45
50
55
datos de imagen. Con el fin de codificar los datos de imagen, se realizan operaciones, tales como la codificación de predicción, la transformación y la codificación por entropía y, en este momento, se puede usar la misma unidad de datos para todas las operaciones o se pueden usar diferentes unidades de datos para cada operación.
Por ejemplo, el aparato 100 puede seleccionar no solo una unidad de codificación para codificar los datos de imagen, sino también una unidad de datos diferente de la unidad de codificación con el fin de realizar la codificación de predicción sobre los datos de imagen en la unidad de codificación.
Con el fin de realizar una codificación de predicción en la unidad de codificación máxima, la codificación de predicción se puede realizar sobre la base de una unidad de codificación que se corresponde con una profundidad codificada, es decir, sobre la base de una unidad de codificación que deja de estar dividida en unas unidades de codificación que se corresponden con una profundidad inferior. En lo sucesivo en el presente documento, se hará referencia a continuación a la unidad de codificación que deja de estar dividida y se vuelve una unidad de base para la codificación de predicción como 'unidad de predicción'. Una partición que se obtiene mediante la división de la unidad de predicción puede incluir una unidad de datos que se obtiene mediante la división de al menos una de una altura y una anchura de la unidad de predicción.
Por ejemplo, cuando una unidad de codificación de 2N x 2N (en la que N es un número entero positivo) deja de estar dividida y se vuelve una unidad de predicción de 2N x 2N, y un tamaño de una partición puede ser 2N x 2N, 2N x N, N x 2N, o N x N. Los ejemplos de un tipo de partición incluyen unas particiones simétricas que se obtienen mediante la división, de forma simétrica, de una altura o una anchura de la unidad de predicción, unas particiones que se obtienen mediante la división, de forma asimétrica, de la altura o la anchura de la unidad de predicción, tal como 1 : n o n : 1, unas particiones que se obtienen mediante la división, de forma geométrica, de la unidad de predicción y unas particiones que tienen unas formas arbitrarias.
Un modo de predicción de la unidad de predicción puede ser al menos uno de un intra modo, un inter modo, y un modo de omisión. Por ejemplo, el intra modo o el inter modo se pueden realizar sobre la partición de 2Nx2N, 2N x N, N x 2N, o N x N. Asimismo, el modo de omisión se puede realizar solo sobre la partición de 2N x 2N. La codificación se realiza de forma independiente sobre una unidad de predicción en una unidad de codificación, seleccionando de ese modo un modo de predicción que tiene un error de codificación mínimo.
El aparato 100 también puede realizar la transformación sobre los datos de imagen en una unidad de codificación no solo sobre la base de la unidad de codificación para codificar los datos de imagen, sino también sobre la base de una unidad de datos que es diferente de la unidad de codificación.
Con el fin de realizar la transformación en la unidad de codificación, la transformación se puede realizar sobre la base de una unidad de transformación que tiene un tamaño más pequeño que o igual a la unidad de codificación. Por ejemplo, la unidad de transformación puede incluir una unidad de datos para un intra modo y una unidad de transformación para un inter modo.
De forma similar a las unidades de codificación que tienen una estructura de árbol, la unidad de transformación en la unidad de codificación se puede dividir de forma recursiva en regiones de un tamaño más pequeño, de tal modo que la unidad de transformación se puede determinar de forma independiente en unidades de las regiones. Por lo tanto, los datos residuales en la unidad de codificación se pueden dividir de acuerdo con la transformación que tiene la estructura de árbol de acuerdo con las profundidades de transformación.
Se hará referencia a continuación a una unidad de datos que se usa como una base de la transformación como 'unidad de transformación'. Una profundidad de transformación que indica el número de veces de división para alcanzar la unidad de transformación mediante la división de la altura y la anchura de la unidad de codificación también se puede establecer en la unidad de transformación. Por ejemplo, en una unidad de codificación actual de 2Nx2N, una profundidad de transformación puede ser 0 cuando el tamaño de una unidad de transformación también es 2N x 2N, puede ser 1 cuando cada una de la altura y la anchura de la unidad de codificación actual se divide en dos partes iguales, se divide totalmente en 4A1 unidades de transformación, y el tamaño de la unidad de transformación es, por lo tanto, N x N, y puede ser 2 cuando cada una de la altura y la anchura de la unidad de codificación actual se divide en cuatro partes iguales, se divide totalmente en 4A2 unidades de transformación y el tamaño de la unidad de transformación es, por lo tanto, N/2xN/2. Por ejemplo, la unidad de transformación se puede establecer de acuerdo con una estructura jerárquica de árbol, en la que una unidad de transformación de una profundidad de transformación superior se divide en cuatro unidades de transformación de una profundidad de transformación inferior de acuerdo con las características jerárquicas de una profundidad de transformación.
La información de codificación de acuerdo con unas unidades de codificación que se corresponden con una profundidad codificada requiere no solo una información acerca de la profundidad codificada, sino también acerca de una información en relación con la codificación de predicción y la transformación. Por consiguiente, la unidad de determinación de unidad de codificación 120 no solo determina una profundidad codificada que tiene un error de codificación mínimo, sino que también determina un tipo de partición en una unidad de predicción, un modo de predicción de acuerdo con las unidades de predicción, y un tamaño de una unidad de transformación para la transformación.
5
10
15
20
25
30
35
40
45
50
55
Las unidades de codificación que tienen una estructura de árbol en una unidad de codificación máxima y un procedimiento de determinación de una partición, de acuerdo con realizaciones a modo de ejemplo, se describirán con detalle posteriormente con referencia a las figuras 21 a 31.
La unidad de determinación de unidad de codificación 120 puede medir un error de codificación de las unidades de codificación más profunda de acuerdo con las profundidades mediante el uso de Optimización de Distorsión de Tasa sobre la base de los multiplicadores de Lagrange.
La unidad de salida 130 emite los datos de imagen de la unidad de codificación máxima, que se codifican sobre la base de la al menos una profundidad codificada que es determinada por la unidad de determinación de unidad de codificación 120, y una información acerca del modo de codificación de acuerdo con la profundidad codificada, en flujos de bits.
Los datos de imagen codificados se pueden obtener mediante la codificación de los datos residuales de una imagen.
La información acerca del modo de codificación de acuerdo con la profundidad codificada puede incluir una información acerca de la profundidad codificada, acerca del tipo de partición en la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformación.
La información acerca de la profundidad codificada se puede definir mediante el uso de la información de división de acuerdo con las profundidades, que indica si la codificación se realiza sobre las unidades de codificación de una profundidad inferior en lugar de una profundidad actual. Si la profundidad actual de la unidad de codificación actual es la profundidad codificada, los datos de imagen en la unidad de codificación actual se codifican y se emiten y, por lo tanto, la información de división se puede definir para no dividir la unidad de codificación actual a una profundidad inferior. Como alternativa, si la profundidad actual de la unidad de codificación actual no es la profundidad codificada, la codificación se realiza sobre la unidad de codificación de la profundidad inferior y, por lo tanto, la información de división se puede definir para dividir la unidad de codificación actual para obtener las unidades de codificación de la profundidad inferior.
Si la profundidad actual no es la profundidad codificada, la codificación se realiza sobre la unidad de codificación que se divide en la unidad de codificación de la profundidad inferior. Debido a que al menos una unidad de codificación de la profundidad inferior existe en una unidad de codificación de la profundidad actual, la codificación se realiza de forma repetida sobre cada unidad de codificación de la profundidad inferior y, por lo tanto, la codificación se puede realizar de forma recursiva para las unidades de codificación que tienen la misma profundidad.
Debido a que las unidades de codificación que tienen una estructura de árbol se determinan para una unidad de codificación máxima, y una información acerca de al menos un modo de codificación se determina para una unidad de codificación de una profundidad codificada, una información acerca de al menos un modo de codificación se puede determinar para una unidad de codificación máxima. Asimismo, una profundidad codificada de los datos de imagen de la unidad de codificación máxima puede ser diferente de acuerdo con las ubicaciones debido a que los datos de imagen se dividen de forma jerárquica de acuerdo con las profundidades y, por lo tanto, una información acerca de la profundidad codificada y el modo de codificación se puede establecer para los datos de imagen.
Por consiguiente, la unidad de salida 130 puede asignar una información de codificación acerca de una profundidad codificada correspondiente y un modo de codificación a al menos una de la unidad de codificación, la unidad de predicción, y una unidad mínima que está incluida en la unidad de codificación máxima.
La unidad mínima es una unidad de datos rectangular que se obtiene mediante la división de la unidad de codificación mínima que constituye la profundidad lo más inferior por 4. Como alternativa, la unidad mínima puede ser una unidad de datos rectangular máxima que se puede incluir en la totalidad de las unidades de codificación, las unidades de predicción, las unidades de partición y las unidades de transformación que están incluidas en la unidad de codificación máxima.
Por ejemplo, la información de codificación que se emite a través de la unidad de salida 130 se puede clasificar en una información de codificación de acuerdo con las unidades de codificación y una información de codificación de acuerdo con las unidades de predicción. La información de codificación de acuerdo con las unidades de codificación puede incluir la información acerca del modo de predicción y acerca del tamaño de las particiones. La información de codificación de acuerdo con las unidades de predicción puede incluir una información acerca de una dirección estimada de un inter modo, acerca de un índice de imagen de referencia del inter modo, acerca de un vector de movimiento, acerca de un componente de croma de un intra modo, y acerca de un procedimiento de interpolación del intra modo. Asimismo, una información acerca de un tamaño máximo de la unidad de codificación que se define de acuerdo con imágenes, sectores o GOP, y una información acerca de una profundidad máxima se pueden insertar en un SPS (Sequence Parameter Set, Conjunto de Parámetros de Secuencia) o un encabezado de un flujo de bits.
En el aparato 100, la unidad de codificación más profunda puede ser una unidad de codificación que se obtiene mediante la división de una altura o una anchura de una unidad de codificación de una profundidad superior por dos. Dicho de otra forma, cuando el tamaño de la unidad de codificación de la profundidad actual es 2N x 2N, el tamaño
5
10
15
20
25
30
35
40
45
50
55
de la unidad de codificación de la profundidad inferior es N x N. Asimismo, la unidad de codificación de la profundidad actual que tiene el tamaño de 2N x2N puede incluir un máximo 4 de la unidad de codificación de la profundidad inferior.
Por consiguiente, el aparato 100 puede formar las unidades de codificación que tienen la estructura de árbol mediante la determinación de unidades de codificación que tienen una forma óptima y un tamaño óptimo para cada unidad de codificación máxima, sobre la base del tamaño de la unidad de codificación máxima y la profundidad máxima que se determina considerando características de la imagen actual. Asimismo, debido a que la codificación se puede realizar sobre cada unidad de codificación máxima mediante el uso de uno cualquiera de diversos modos de predicción y transformaciones, un modo de codificación óptimo se puede determinar considerando características de la unidad de codificación de diversos tamaños de imagen.
El aparato 100 puede realizar adicionalmente un procedimiento de fusión de unidades de datos con el fin de compartir la información relacionada con la predicción entre unidades de datos adyacentes una a otra y que tienen una información relacionada con la predicción similar. La unidad de determinación de unidad de codificación 120 del aparato 100 puede incluir la unidad de determinación de unidad de codificación 11 y la unidad de determinación de fusión de datos 13 del aparato 10, y la unidad de salida 130 del aparato 100 puede incluir la unidad de determinación de información de codificación 15 del aparato 10.
Por consiguiente, la unidad de determinación de unidad de codificación 120 del aparato 100 puede determinar si una fusión de unidades de datos entre unidades de datos colindantes se realiza sobre las unidades de codificación, las unidades de predicción y las particiones que tienen una estructura de árbol, y la unidad de salida 130 puede realizar una codificación que incluye una información relacionada con la fusión en una información de codificación acerca de una unidad de codificación.
La unidad de salida 130 puede insertar la información relacionada con la fusión con la información de codificación acerca de una unidad de codificación y la información acerca de un tamaño máximo de una unidad de codificación de una imagen actual, en un encabezado acerca de la imagen actual, PPS o SPS.
La unidad de determinación de unidad de codificación 120 puede analizar una posibilidad de una fusión de unidades de datos para compartir una información relacionada con la predicción con una unidad de datos colindante incluso si un modo de predicción de una unidad de predicción actual o una partición actual de las unidades de codificación que tienen una estructura de árbol es un modo de omisión o un modo directo.
La unidad de determinación de unidad de codificación 120 puede incluir la totalidad de una pluralidad de unidades de datos colindantes izquierdas que colindan con una frontera izquierda de una unidad de predicción actual o una partición actual y la totalidad de una pluralidad de unidades de datos colindantes superiores que colindan con una frontera superior en un grupo de candidatas de unidades de datos colindantes a fusionar con la unidad de datos actual o la partición actual.
También se puede hacer referencia a una unidad de datos colindante inferior izquierda que colinda con una esquina inferior izquierda de la unidad de predicción actual o la partición actual de acuerdo con un orden de exploración o un orden de descodificación sobre la base de unidades de codificación que tienen la estructura de árbol. Por consiguiente, la unidad de determinación de unidad de codificación 120 puede incluir adicionalmente unas unidades de datos que colindan con una esquina superior izquierda, una esquina superior derecha, y una esquina inferior izquierda además de la totalidad de una pluralidad de las unidades de datos colindantes izquierdas y las unidades de datos colindantes superiores en el grupo de candidatas de fusión de la unidad de predicción actual o la partición actual.
Asimismo, debido a que una posibilidad de una fusión de unidades de datos se determina sobre la base de un modo de predicción de la unidad de predicción actual o la partición actual, las codificaciones de una información de modo de predicción y una información de fusión están íntimamente relacionadas. Por ejemplo, la unidad de salida 130 puede codificar una información de codificación de tal modo que la información relacionada con la fusión se establece sobre la base de la información de omisión o la información de dirección para la unidad de predicción actual o la partición actual de las unidades de codificación que tienen la estructura de árbol.
Debido a que las unidades de codificación que tienen una estructura de árbol que está constituida por el aparato 100 incluyen unas unidades de predicción y unas particiones que tienen diversos modos de predicción y diversas formas, unidades de predicción o particiones que tienen diversos modos de predicción y diversas formas pueden estar en contacto con una frontera superior y una frontera izquierda de la unidad de predicción actual o la partición actual. La unidad de determinación de unidad de codificación 120 puede buscar una posibilidad de que se realice una fusión de unidades de datos entre una unidad de datos actual y una pluralidad de diversas unidades de predicción colindantes o particiones colindantes en contacto con una frontera superior y una frontera izquierda de la unidad de predicción actual o la partición actual y puede determinar un objeto a fusionar.
Por consiguiente, debido a que una unidad de predicción actual o una partición actual comparte una información relacionada con la predicción con unidades de datos colindantes que tienen diversos tamaños, formas y posiciones sobre la base de unidades de codificación que tienen una estructura de árbol, los datos redundantes se pueden
5
10
15
20
25
30
35
40
45
50
55
retirar mediante el uso de una información periférica en un intervalo más amplio, y se puede mejorar la eficiencia de codificación de vídeo.
La figura 20 es un diagrama de bloques de un aparato 200 para descodificar un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol de acuerdo con una realización a modo de ejemplo.
El aparato 200 incluye un receptor 210, una unidad de extracción de datos de imagen y de información de codificación 220, y un descodificador de datos de imagen 230. Para facilitar la explicación, se hace referencia al aparato 200 para descodificar un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol como 'el aparato 200 para descodificar un vídeo'.
Las definiciones de diversas expresiones, tales como una unidad de codificación, una profundidad, una unidad de predicción, una unidad de transformación, y una información acerca de diversos modos de codificación, para diversas operaciones del aparato 200 son idénticas a las que se describen con referencia a la figura 19 y el aparato 100.
El receptor 210 recibe y analiza sintácticamente un flujo de bits de un vídeo codificado. La unidad de extracción de datos de imagen y de información de codificación 220 extrae datos de imagen codificados para cada unidad de codificación a partir del flujo de bits analizado sintácticamente, en donde las unidades de codificación tienen una estructura de árbol de acuerdo con las unidades de codificación máxima, y emite los datos de imagen extraídos al descodificador de datos de imagen 230. La unidad de extracción de datos de imagen y de información de codificación 220 puede extraer una información acerca de un tamaño máximo de una unidad de codificación de una imagen actual, a partir de un encabezado acerca de la imagen actual, PPS o SPS.
Asimismo, la unidad de extracción de datos de imagen y de información de codificación 220 extrae una información acerca de una profundidad codificada y un modo de codificación para las unidades de codificación que tienen una estructura de árbol de acuerdo con las unidades de codificación máxima, a partir del flujo de bits analizado sintácticamente. La información extraída acerca de la profundidad codificada y el modo de codificación se emite al descodificador de datos de imagen 230. Dicho de otra forma, los datos de imagen en un flujo de bits se dividen en la unidad de codificación máxima de tal modo que el descodificador de datos de imagen 230 descodifica los datos de imagen para cada unidad de codificación máxima.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con la unidad de codificación máxima se puede establecer para una información acerca de al menos una unidad de codificación que se corresponde con la profundidad codificada, y una información acerca de un modo de codificación puede incluir una información acerca de un tipo de partición de una unidad de codificación correspondiente que se corresponde con la profundidad codificada, acerca de un modo de predicción, y un tamaño de una unidad de transformación. Asimismo, una información de codificación acerca de una profundidad codificada y un modo de codificación puede incluir adicionalmente una información relacionada con la fusión acerca de una unidad de predicción actual o una partición actual.
La información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima que son extraídas por la unidad de extracción de datos de imagen y de información de codificación 220 es una información acerca de una profundidad codificada y un modo de codificación que se determina para generar un error de codificación mínimo cuando un codificador, tal como el aparato 100, realiza de forma repetida una codificación para cada unidad de codificación más profunda de acuerdo con unas profundidades de acuerdo con las unidades de codificación máxima. Por consiguiente, el aparato 200 puede restablecer una imagen mediante la descodificación de los datos de imagen de acuerdo con una profundidad codificada y un modo de codificación que genera el error de codificación mínimo.
Debido a que la información de codificación acerca de la profundidad codificada y el modo de codificación se puede asignar a una unidad de datos previamente determinada de entre una unidad de codificación correspondiente, una unidad de predicción, y una unidad mínima, la unidad de extracción de datos de imagen y de información de codificación 220 puede extraer la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de datos previamente determinadas. Se puede inferir que las unidades de datos previamente determinadas a las que se asigna la misma información acerca de la profundidad codificada y el modo de codificación son las unidades de datos que están incluidas en la misma unidad de codificación máxima.
El descodificador de datos de imagen 230 restablece la imagen actual mediante la descodificación de los datos de imagen en cada unidad de codificación máxima sobre la base de la información acerca de la profundidad codificada y el modo de codificación de acuerdo con las unidades de codificación máxima. Dicho de otra forma, el descodificador de datos de imagen 230 puede descodificar los datos de imagen codificados sobre la base de la información extraída acerca del tipo de partición, el modo de predicción, y la unidad de transformación para cada unidad de codificación de entre las unidades de codificación que tienen la estructura de árbol que está incluida en cada unidad de codificación máxima. Un procedimiento de descodificación puede incluir una predicción que incluye una intra predicción y una compensación de movimiento, y una transformación inversa.
5
10
15
20
25
30
35
40
45
50
55
El descodificador de datos de imagen 230 puede realizar una intra predicción o una compensación de movimiento de acuerdo con una partición y un modo de predicción de cada unidad de codificación, sobre la base de la información acerca del tipo de partición y el modo de predicción de la unidad de predicción de la unidad de codificación de acuerdo con las profundidades codificadas.
Asimismo, con el fin de realizar una transformación inversa de acuerdo con las unidades de codificación máxima, el descodificador de datos de imagen 230 puede realizar una transformación inversa sobre la base de una unidad de transformación para cada unidad de codificación mediante la lectura de unas unidades de transformación que tienen una estructura de árbol que incluye una información acerca de los tamaños de las unidades de transformación de las unidades de codificación de acuerdo con las profundidades codificadas.
El descodificador de datos de imagen 230 puede determinar al menos una profundidad codificada de una unidad de codificación máxima actual mediante el uso de la información de división de acuerdo con las profundidades. Si la información de división indica que los datos de imagen dejan de estar divididos en la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el descodificador de datos de imagen 230 puede descodificar datos codificados de al menos una unidad de codificación que se corresponde con cada una de las profundidades codificadas en la unidad de codificación máxima actual mediante el uso de la información acerca del tipo de partición de la unidad de predicción, el modo de predicción, y el tamaño de la unidad de transformación para cada unidad de codificación que se corresponde con la profundidad codificada, y emitir los datos de imagen de la unidad de codificación máxima actual.
Dicho de otra forma, las unidades de datos que contienen la información de codificación que incluye la misma información de división se pueden reunir mediante la observación del conjunto de informaciones de codificación que se asigna a la unidad de datos previamente determinada de entre la unidad de codificación, la unidad de predicción, y la unidad mínima, y se pueden considerar que las unidades de datos reunidas son una unidad de datos que se va a descodificar mediante el descodificador de datos de imagen 230 en el mismo modo de codificación.
Asimismo, el aparato 200 puede restablecer una unidad de predicción actual o una partición actual mediante el uso de una información relacionada con la predicción de una unidad de datos periférica de la unidad de predicción actual o la partición actual mediante el uso de un procedimiento de fusión de unidades de datos. Para este fin, el receptor 210 y la unidad de extracción de datos de imagen y de información de codificación 220 del aparato 200 pueden incluir el analizador sintáctico / unidad de extracción 21 del aparato 20, y el descodificador de datos de imagen 230 del aparato 200 puede incluir la unidad de determinación de fusión de unidades de datos 23 del aparato 20.
La unidad de extracción de datos de imagen y de información de codificación 220 puede extraer una información de modo de predicción y una información relacionada con la fusión a partir de una información acerca de un modo de codificación. La unidad de extracción de datos de imagen y de información de codificación 220 puede determinar una posibilidad de extracción y lectura de la información relacionada con la fusión de acuerdo con la información de modo de predicción en una información acerca de un modo de codificación sobre la base de una relación cercana entre la información de modo de predicción y la información relacionada con la fusión. Por ejemplo, la unidad de extracción de datos de imagen y de información de codificación 220 puede extraer la información relacionada con la fusión sobre la base de una información de modo de omisión o una información directa para una unidad de predicción actual o una partición actual de las unidades de codificación que tienen una estructura de árbol. Asimismo, una información de fusión y una información de índice de fusión se pueden extraer como la información relacionada con la fusión.
El descodificador de datos de imagen 230 del aparato 200 puede formar unas unidades de codificación que tienen una estructura de árbol sobre la base de una información acerca de un modo de codificación y una profundidad codificada, y cada unidad de codificación de entre las unidades de codificación que tienen la estructura de árbol incluye unas unidades de predicción y unas particiones que tienen diversos modos de predicción y diversas formas.
El descodificador de datos de imagen 230 del aparato 200 puede buscar si se puede realizar una fusión entre una unidad de datos actual y diversas unidades de predicción colindantes o particiones colindantes en contacto con una frontera superior y una frontera izquierda de una unidad de predicción actual o una partición actual y puede determinar un objeto a fusionar. La información relacionada con la predicción de la unidad de predicción actual o la partición actual se puede determinar o inferir al hacer referencia a la información relacionada con la predicción de la partición o unidad de predicción colindante fusionada.
El aparato 200 puede obtener una información de codificación acerca de al menos una unidad de codificación que genera el error de codificación mínimo cuando se realiza una codificación de forma recursiva para cada unidad de codificación máxima, y puede usar la información para descodificar la imagen actual. Dicho de otra forma, se pueden descodificar las unidades de codificación que tienen la estructura de árbol que se determina que son las unidades de codificación óptimas en cada unidad de codificación máxima.
Los datos que se codifican al compartir una información relacionada con la predicción de unidades de datos colindantes que tienen diversos tamaños y formas sobre la base de unidades de codificación de acuerdo con una estructura de árbol se pueden descodificar de manera precisa al hacer referencia a la información relacionada con la
5
10
15
20
25
30
35
40
45
50
55
predicción de una unidad de datos colindante sobre la base de la información relacionada con la predicción y una información relacionada con la fusión que se establece sobre la base de una relación cercana.
Un procedimiento de determinación de unas unidades de codificación que tienen una estructura de árbol, una unidad de predicción, y una unidad de transformación de acuerdo con una realización a modo de ejemplo se describirá a continuación con referencia a las figuras 21 a 31.
La figura 21 es un diagrama para explicar un concepto de unidades de codificación de acuerdo con una realización a modo de ejemplo.
Un tamaño de una unidad de codificación se puede expresar en anchura x altura, y puede ser 64x64, 32x32, 16x16 y 8x8. Una unidad de codificación de 64 x 64 se puede dividir en particiones de 64 x 64, 64 x 32, 32 x 64 o 32x32, y una unidad de codificación de 32x32 se puede dividir en particiones de 32x32, 32x 16, 16x32 o 16 x 16, una unidad de codificación de 16 x 16 se puede dividir en particiones de 16x16, 16x8, 8x16 u 8 x 8, y una unidad de codificación de 8 x 8 se puede dividir en particiones de 8 x 8, 8 x 4, 4 x 8 o 4 x 4.
En los datos de vídeo 310, una resolución es 1920 x 1080, un tamaño máximo de una unidad de codificación es 64, y una profundidad máxima es 2. En los datos de vídeo 320, una resolución es 1920 x 1080, un tamaño máximo de una unidad de codificación es 64, y una profundidad máxima es 3. En los datos de vídeo 330, una resolución es 352 x 288, un tamaño máximo de una unidad de codificación es 16, y una profundidad máxima es 1. La profundidad máxima que se muestra en la figura 11 indica un número total de divisiones de una unidad de codificación máxima a una unidad de codificación mínima.
Si una resolución es alta o una cantidad de datos es grande, un tamaño máximo de una unidad de codificación puede ser grande con el fin de no solo aumentar la eficiencia de codificación sino también reflejar de manera precisa las características de una imagen. Por consiguiente, el tamaño máximo de la unidad de codificación de los datos de vídeo 310 y 320 que tienen la resolución más alta que los datos de vídeo 330 puede ser 64.
Debido a que la profundidad máxima de los datos de vídeo 310 es 2, las unidades de codificación 315 de los datos de vídeo 310 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y unas unidades de codificación que tienen unos tamaños de eje largo de 32 y 16 debido a que las profundidades se aumentan a dos capas mediante la división de la unidad de codificación máxima dos veces. Mientras tanto, debido a que la profundidad máxima de los datos de vídeo 330 es 1, las unidades de codificación 335 de los datos de vídeo 330 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 16, y unas unidades de codificación que tienen un tamaño de eje largo de 8 debido a que las profundidades se aumentan a una capa mediante la división de la unidad de codificación máxima una vez.
Debido a que la profundidad máxima de los datos de vídeo 320 es 3, las unidades de codificación 325 de los datos de vídeo 320 pueden incluir una unidad de codificación máxima que tiene un tamaño de eje largo de 64, y unas unidades de codificación que tienen unos tamaños de eje largo de 32, 16 y 8 debido a que las profundidades se aumentan a 3 capas mediante la división de la unidad de codificación máxima tres veces. A medida que aumenta una profundidad, se puede expresar con precisión una información detallada.
La figura 22 es un diagrama de bloques de un codificador de imagen 400 sobre la base de unidades de codificación, de acuerdo con una realización a modo de ejemplo.
El codificador de imagen 400 realiza operaciones de la unidad de determinación de unidad de codificación 120 del aparato 100 para codificar datos de imagen. Dicho de otra forma, un intra predictor 410 realiza una intra predicción sobre las unidades de codificación en un intra modo, de entre una trama actual 405, y una unidad de estimación de movimiento 420 y una unidad de compensación de movimiento 425 realiza una inter estimación y una compensación de movimiento sobre las unidades de codificación en un inter modo de entre la trama actual 405 mediante el uso de la trama actual 405, y una trama de referencia 495.
Los datos que se emiten a partir del intra predictor 410, la unidad de estimación de movimiento 420 y la unidad de compensación de movimiento 425 se emiten como un coeficiente de transformación cuantificado a través de un transformador 430 y una unidad de cuantificación 440. El coeficiente de transformación cuantificado se restablece como datos en un dominio espacial a través de una unidad de cuantificación inversa 460 y un transformador inverso 470, y los datos restablecidos en el dominio espacial se emiten como la trama de referencia 495 después de postprocesarse a través de una unidad de desbloqueo 480 y una unidad de filtrado de lazo 490. El coeficiente de transformación cuantificado se puede emitir como un flujo de bits 455 a través de un codificador por entropía 450.
Con el fin de aplicar el codificador de imagen 400 en el aparato 100, todos los elementos del codificador de imagen 400, es decir, el intra predictor 410, la unidad de estimación de movimiento 420, la unidad de compensación de movimiento 425, el transformador 430, la unidad de cuantificación 440, el codificador por entropía 450, la unidad de cuantificación inversa 460, el transformador inverso 470, la unidad de desbloqueo 480, y la unidad de filtrado de lazo 490 realizan operaciones sobre la base de cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol al tiempo que se considera la profundidad máxima de cada unidad de codificación máxima.
5
10
15
20
25
30
35
40
45
50
55
En concreto, el intra predictor 410, la unidad de estimación de movimiento 420 y la unidad de compensación de movimiento 425 determinan unas particiones y un modo de predicción de cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol al tiempo que se considera el tamaño máximo y la profundidad máxima de una unidad de codificación máxima actual, y el transformador 430 determina el tamaño de la unidad de transformación en cada unidad de codificación de entre las unidades de codificación que tienen una estructura de árbol.
La figura 23 es un diagrama de bloques de un descodificador de imagen 500 sobre la base de unidades de codificación de acuerdo con una realización a modo de ejemplo.
Un analizador sintáctico 510 analiza sintácticamente unos datos de imagen codificados que se van a descodificar y una información acerca de la codificación que se requiere para la descodificación a partir de un flujo de bits 505. Los datos de imagen codificados se emiten como datos inversamente cuantificados a través de un descodificador por entropía 520 y una unidad de cuantificación inversa 530, y los datos inversamente cuantificados se restablecen a datos de imagen en un dominio espacial a través de un transformador inverso 540.
Un intra predictor 550 realiza una intra predicción sobre las unidades de codificación en un intra modo con respecto a los datos de imagen en el dominio espacial, y una unidad de compensación de movimiento 560 realiza una compensación de movimiento sobre las unidades de codificación en un inter modo mediante el uso de una trama de referencia 585.
Los datos de imagen en el dominio espacial, que pasaron a través del intra predictor 550 y la unidad de compensación de movimiento 560, se pueden emitir como una trama restablecida 595 después de post-procesarse a través de una unidad de desbloqueo 570 y una unidad de filtrado de lazo 580. Asimismo, los datos de imagen que se post-procesan a través de la unidad de desbloqueo 570 y la unidad de filtrado de lazo 580 se pueden emitir como la trama de referencia 585.
Con el fin de descodificar los datos de imagen en el descodificador de datos de imagen 230 del aparato 200, el descodificador de imagen 500 puede realizar operaciones que se realizan después del analizador sintáctico 510.
Con el fin de aplicar el descodificador de imagen 500 en el aparato 200, todos los elementos del descodificador de imagen 500, es decir, el analizador sintáctico 510, el descodificador por entropía 520, la unidad de cuantificación inversa 530, el transformador inverso 540, el intra predictor 550, la unidad de compensación de movimiento 560, la unidad de desbloqueo 570, y la unidad de filtrado de lazo 580 realizan operaciones sobre la base de unidades de codificación que tienen una estructura de árbol para cada unidad de codificación máxima.
En concreto, la intra predicción 550 y la unidad de compensación de movimiento 560 realizan operaciones sobre la base de las particiones y un modo de predicción para cada una de las unidades de codificación que tienen una estructura de árbol, y el transformador inverso 540 realizan operaciones sobre la base de un tamaño de una unidad de transformación para cada unidad de codificación.
La figura 24 es un diagrama que ilustra unas unidades de codificación más profunda de acuerdo con las profundidades y las particiones de acuerdo con una realización a modo de ejemplo.
El aparato 100 y el aparato 200 usan unas unidades de codificación jerárquica con el fin de considerar las características de una imagen. Una altura máxima, una anchura máxima y una profundidad máxima de las unidades de codificación se pueden determinar de forma adaptiva de acuerdo con las características de la imagen, o pueden ser establecidas de forma diferente por un usuario. Los tamaños de las unidades de codificación más profunda de acuerdo con las profundidades se pueden determinar de acuerdo con el tamaño máximo previamente determinado de la unidad de codificación.
En una estructura jerárquica 600 de las unidades de codificación, de acuerdo con una realización a modo de ejemplo, la altura máxima y la anchura máxima de las unidades de codificación son, cada una, 64, y la profundidad máxima es 3. En este caso, una profundidad máxima indica un número total de divisiones de una unidad de codificación máxima a una unidad de codificación mínima. Debido a que una profundidad aumenta a lo largo de un eje vertical de la estructura jerárquica 600, se divide cada una de una altura y una anchura de la unidad de codificación más profunda. Asimismo, una unidad de predicción y unas particiones, que son bases para la codificación de predicción de cada unidad de codificación más profunda, se muestran a lo largo de un eje horizontal de la estructura jerárquica 600.
Dicho de otra forma, una unidad de codificación 610 es una unidad de codificación máxima en la estructura jerárquica 600, en la que una profundidad es 0 y un tamaño, es decir, una altura por una anchura, es 64 x 64. La profundidad aumenta a lo largo del eje vertical, y existen una unidad de codificación 620 que tiene un tamaño de 32 x 32 y una profundidad de 1, una unidad de codificación 630 que tiene un tamaño de 16 x 16 y una profundidad de 2, y una unidad de codificación 640 que tiene un tamaño de 8 x 8 y una profundidad de 3. La unidad de codificación 640 que tiene el tamaño de 8 x 8 y la profundidad de 3 es una unidad de codificación mínima.
La unidad de predicción y las particiones de una unidad de codificación están dispuestas a lo largo del eje horizontal
5
10
15
20
25
30
35
40
45
50
55
de acuerdo con las profundidades. Dicho de otra forma, si la unidad de codificación 610 que tiene el tamaño de 64x64 y la profundidad de 0 es una unidad de predicción, la unidad de predicción se puede dividir en particiones que están incluidas en la unidad de codificación 610, es decir, una partición 610 que tiene un tamaño de 64x64, unas particiones 612 que tienen el tamaño de 64 x 32, unas particiones 614 que tienen el tamaño de 32 x 64 o unas particiones 616 que tienen el tamaño de 32 x 32.
De forma similar, una unidad de predicción de la unidad de codificación 620 que tiene el tamaño de 32 x 32 y la profundidad de 1 se puede dividir en particiones que están incluidas en la unidad de codificación 620, es decir, una partición 620 que tiene un tamaño de 32x32, unas particiones 622 que tienen un tamaño de 32x16, unas particiones 624 que tienen un tamaño de 16 x 32 y unas particiones 626 que tienen un tamaño de 16 x 16.
De forma similar, una unidad de predicción de la unidad de codificación 630 que tiene el tamaño de 16 x 16 y la profundidad de 2 se puede dividir en particiones que están incluidas en la unidad de codificación 630, es decir, una partición que tiene un tamaño de 16 x 16 que está incluida en la unidad de codificación 630, unas particiones 632 que tienen un tamaño de 16 x 8, unas particiones 634 que tienen un tamaño de 8 x 16 y unas particiones 636 que tienen un tamaño de 8 x 8.
De forma similar, una unidad de predicción de la unidad de codificación 640 que tiene el tamaño de 8 x 8 y la profundidad de 3 se puede dividir en particiones que están incluidas en la unidad de codificación 640, es decir, una partición que tiene un tamaño de 8x8 que está incluida en la unidad de codificación 640, unas particiones 642 que tienen un tamaño de 8x4, unas particiones 644 que tienen un tamaño de 4 x 8 y unas particiones 646 que tienen un tamaño de 4 x 4.
Con el fin de determinar la al menos una profundidad codificada de las unidades de codificación que constituyen la unidad de codificación máxima 610, la unidad de determinación de unidad de codificación 120 del aparato 100 realiza una codificación para las unidades de codificación que se corresponden con cada profundidad que está incluida en la unidad de codificación máxima 610.
Un número de unidades de codificación más profunda de acuerdo con las profundidades que incluyen datos en el mismo intervalo y el mismo tamaño aumenta a medida que aumenta la profundidad. Por ejemplo, se requieren cuatro unidades de codificación que se corresponden con una profundidad de 2 para cubrir los datos que están incluidos en una unidad de codificación que se corresponde con una profundidad de 1. Por consiguiente, con el fin de comparar los resultados de codificación de los mismos datos de acuerdo con las profundidades, se codifican cada una de la unidad de codificación que se corresponde con la profundidad de 1 y cuatro unidades de codificación que se corresponden con la profundidad de 2.
Con el fin de realizar una codificación para una profundidad actual de entre la profundidad, se puede seleccionar un error de codificación mínimo para la profundidad actual mediante la realización de una codificación para cada unidad de predicción en las unidades de codificación que se corresponden con la profundidad actual, a lo largo del eje horizontal de la estructura jerárquica 600. Como alternativa, el error de codificación mínimo se puede buscar mediante la comparación de los errores de codificación mínimos de acuerdo con las profundidades, mediante la realización de una codificación para cada profundidad a medida que aumenta la profundidad a lo largo del eje vertical de la estructura jerárquica 600. Una profundidad y una partición que tiene el error de codificación mínimo en la unidad de codificación 610 se pueden seleccionar como la profundidad codificada y un tipo de partición de la unidad de codificación 610.
La figura 25 es un diagrama para explicar una relación entre una unidad de codificación 710 y unas unidades de transformación 720 de acuerdo con una realización a modo de ejemplo.
El aparato 100 o 200 codifica o descodifica una imagen de acuerdo con las unidades de codificación que tienen unos tamaños más pequeños que o iguales a una unidad de codificación máxima para cada unidad de codificación máxima. Los tamaños de las unidades de transformación para la transformación durante la codificación se pueden seleccionar sobre la base de las unidades de datos que no son más grandes que una unidad de codificación correspondiente.
Por ejemplo, en el aparato 100 o 200, si un tamaño de la unidad de codificación 710 es 64 x 64, la transformación se puede realizar mediante el uso de las unidades de transformación 720 que tienen un tamaño de 32 x 32.
Asimismo, los datos de la unidad de codificación 710 que tiene el tamaño de 64 x 64 se pueden codificar mediante la realización de la transformación sobre cada una de las unidades de transformación que tienen el tamaño de 32 x 32, 16x16, 8x8 y 4x4, que son más pequeños que 64x64 y, entonces, se puede seleccionar una unidad de transformación que tiene el error de codificación mínimo.
La figura 26 es un diagrama para explicar información de codificación de unas unidades de codificación que se corresponden con una profundidad codificada de acuerdo con una realización a modo de ejemplo.
La unidad de salida 130 del aparato 100 puede codificar y transmitir una información 800 acerca de un tipo de partición, una información 810 acerca de un modo de predicción, y una información 820 acerca de un tamaño de una
5
10
15
20
25
30
35
40
45
50
55
unidad de transformación para cada unidad de codificación que se corresponde con una profundidad codificada, como información acerca de un modo de codificación.
La información 800 indica una información acerca de una forma de una partición que se obtiene mediante la división de una unidad de predicción de una unidad de codificación actual, en la que la partición es una unidad de datos para la codificación de predicción de la unidad de codificación actual. Por ejemplo, una unidad de codificación actual CU_0 que tiene un tamaño de 2N x 2N se puede dividir en una cualquiera de una partición 802 que tiene un tamaño de 2N x 2N, una partición 804 que tiene un tamaño de 2N x N, una partición 806 que tiene un tamaño de N x 2N, y una partición 808 que tiene un tamaño de N x N. En el presente caso, la información 800 acerca de un tipo de partición se establece para indicar una de la partición 804 que tiene un tamaño de 2N x N, la partición 806 que tiene un tamaño de N x 2N, y la partición 808 que tiene un tamaño de N x N
La información 810 indica un modo de predicción de cada partición. Por ejemplo, la información 810 puede indicar un modo de codificación de predicción que se realiza sobre una partición que se indica mediante la información 800, es decir, un intra modo 812, un inter modo 814, o un modo de omisión 816.
La información 820 indica una unidad de transformación que va a estar basada en cuándo se realiza la transformación sobre una unidad de codificación actual. Por ejemplo, la unidad de transformación puede ser una primera unidad de intra transformación 822, una segunda unidad de intra transformación 824, una primera unidad de inter transformación 826 o una segunda unidad de intra transformación 828.
La unidad de extracción de datos de imagen y de información de codificación 220 del aparato 200 puede extraer y usar la información 800, 810 y 820 para la descodificación.
A pesar de que no se muestra en la figura 26, la información acerca de un modo de codificación puede incluir una información relacionada con la fusión, y la información relacionada con la fusión se puede establecer sobre la base de la información 810 acerca del modo de predicción tal como un inter modo, un intra modo, un modo de omisión, o un modo directo. Por ejemplo, si la información 810 acerca del modo de predicción es una información acerca de un modo de omisión, la información relacionada con la fusión se puede establecer de forma selectiva. Solo cuando la información 810 acerca del modo de predicción es una información acerca de un inter modo, no un modo de omisión y un modo directo, se puede establecer la información relacionada con la fusión.
La figura 27 es un diagrama que ilustra unas unidades de codificación más profunda de acuerdo con las profundidades de acuerdo con una realización a modo de ejemplo.
La información de división se puede usar para indicar un cambio de una profundidad. La información de división indica si una unidad de codificación de una profundidad actual se divide en unas unidades de codificación de una profundidad inferior.
Una unidad de predicción 910 para la codificación de predicción de una unidad de codificación 900 que tiene una profundidad de 0 y un tamaño de 2N_0x2N_0 puede incluir particiones de un tipo de partición 912 que tiene un tamaño de 2N_0 x 2N_0, un tipo de partición 914 que tiene un tamaño de 2N_0 x N_0, un tipo de partición 916 que tiene un tamaño de N_0x2N_0, y un tipo de partición 918 que tiene un tamaño de N_0 x N_0. La figura 9 solo ilustra los tipos de partición 912 a 918 que se obtienen mediante la división, de forma simétrica, de la unidad de predicción 910, pero un tipo de partición no se limita al mismo, y las particiones de la unidad de predicción 910 pueden incluir unas particiones asimétricas, unas particiones que tienen una forma previamente determinada y unas particiones que tienen una forma geométrica.
La codificación de predicción se realiza de forma repetida sobre una partición que tiene un tamaño de 2N_0 x 2N_0, dos particiones que tienen un tamaño de 2N_0 x N_0, dos particiones que tienen un tamaño de N_0 x 2N_0, y cuatro particiones que tienen un tamaño de N_0 x N_0, de acuerdo con los tipos de partición. La codificación de predicción en un intra modo y un inter modo se puede realizar sobre las particiones que tienen los tamaños de 2N_0 x 2N_0, N_0 x 2N_0, 2N_0 x N_0, y N_0 x N_0. La codificación de predicción en un modo de omisión se realiza solo sobre la partición que tiene el tamaño de 2N_0 x 2N_0.
Se comparan errores de codificación que incluyen la codificación de predicción en los tipos de partición 912 a 918, y se determina el error de codificación mínimo de entre los tipos de partición. Si un error de codificación es el mínimo en uno de los tipos de partición 912 a 916, la unidad de predicción 910 puede no dividirse en una profundidad inferior.
Si el error de codificación es el mínimo en el tipo de partición 918, una profundidad se cambia de 0 a 1 para dividir el tipo de partición 918 en la operación 920, y la codificación se realiza de forma repetida sobre las unidades de codificación 930 que tienen una profundidad de 1 y un tamaño de N_0 x N_0 para buscar un error de codificación mínimo.
Una unidad de predicción 940 para la codificación de predicción de la unidad de codificación 930 que tiene una profundidad de 1 y un tamaño de 2N_1 x2N_1 (= N_0x N_0) puede incluir particiones de un tipo de partición 942 que tiene un tamaño de 2N_1 x2N_1, un tipo de partición 944 que tiene un tamaño de 2N_1 xN_1, un tipo de
5
10
15
20
25
30
35
40
45
50
55
partición 946 que tiene un tamaño de N_1 x 2N_1, y un tipo de partición 948 que tiene un tamaño de N_1 x N_1.
Si un error de codificación es el mínimo en el tipo de partición 948, una profundidad se cambia de 1 a 2 para dividir el tipo de partición 948 en la operación 950, y la codificación se realiza de forma repetida sobre las unidades de codificación 960, que tienen una profundidad de 2 y un tamaño de N_2 x N_2 para buscar un error de codificación mínimo.
Cuando una profundidad máxima es d-1, una operación de división de acuerdo con las profundidades se puede realizar hasta cuando una profundidad se vuelve d -1, y la información de división se puede codificar como hasta cuando una profundidad es uno de 0 a d - 2. Dicho de otra forma, cuando se realiza una codificación hasta cuando la profundidad es d -1 después de que una unidad de codificación que se corresponde con una profundidad de d - 2 se haya dividido en la operación 970, una unidad de predicción 990 para la codificación de predicción de una unidad de codificación 980 que tiene una profundidad de d -1 y un tamaño de 2N_(d -1) x 2N_(d -1) puede incluir particiones de un tipo de partición 992 que tiene un tamaño de 2N_(d -1) x 2N_(d -1), un tipo de partición 994 que tiene un tamaño de 2N_(d -1) x N_(d -1), un tipo de partición 996 que tiene un tamaño de N_(d -1) x 2N_(d -1), y un tipo de partición 998 que tiene un tamaño de N_(d -1) x N_(d -1).
La codificación de predicción se puede realizar de forma repetida sobre una partición que tiene un tamaño de 2N_(d -1) x 2N_(d -1), dos particiones que tienen un tamaño de 2N_(d -1) x N_(d -1), dos particiones que tienen un tamaño de N_(d -1) x 2N_(d -1), cuatro particiones que tienen un tamaño de N_(d -1) x N_(d -1) de entre los tipos de partición 992 a 998 para buscar un tipo de partición que tiene un error de codificación mínimo.
Incluso cuando el tipo de partición 998 tiene el error de codificación mínimo, debido a que una profundidad máxima es d -1, una unidad de codificación CU_(d -1) que tiene una profundidad de d -1 deja de estar dividida a una profundidad inferior, y se determina que una profundidad codificada para las unidades de codificación que constituyen una unidad de codificación máxima actual 900 es d - 1 y se puede determinar que un tipo de partición de la unidad de codificación 900 es N_(d -1) x N_(d -1). Asimismo, debido a que la profundidad máxima es d -1 y una unidad de codificación mínima 980 que tiene una profundidad lo más inferior de d - 1 deja de estar dividida a una profundidad inferior, no se establece la información de división para una unidad de codificación 980.
Una unidad de datos 999 puede ser una 'unidad mínima' para la unidad de codificación máxima actual. Una unidad mínima puede ser una unidad de datos rectangular que se obtiene mediante la división de una unidad de codificación mínima 980 por 4. Mediante la realización de la codificación de forma repetida, el aparato 100 puede seleccionar una profundidad que tiene el error de codificación mínimo mediante la comparación de los errores de codificación de acuerdo con las profundidades de la unidad de codificación 900 para determinar una profundidad codificada, y establecer un tipo de partición correspondiente y un modo de predicción como un modo de codificación de la profundidad codificada.
En ese sentido, los errores de codificación mínimos de acuerdo con las profundidades se comparan en la totalidad de las profundidades de 1 a d, y una profundidad que tiene el error de codificación mínimo se puede determinar como una profundidad codificada. La profundidad codificada, el tipo de partición de la unidad de predicción y el modo de predicción se pueden codificar y transmitir como información acerca de un modo de codificación. Asimismo, debido a que una unidad de codificación se divide de una profundidad de 0 a una profundidad codificada, solo la información de división de la profundidad codificada se establece a 0, y la información de división de profundidades que excluyen la profundidad codificada se establece a 1.
La unidad de extracción de datos de imagen y de información de codificación 220 del aparato 200 puede extraer y usar la información acerca de la profundidad codificada y la unidad de predicción de la unidad de codificación 900 para descodificar la partición 912. El aparato 200 puede determinar una profundidad, en la que la información de división es 0, como una profundidad codificada mediante el uso de la información de división de acuerdo con las profundidades, y usar una información acerca de un modo de codificación de la profundidad correspondiente para la descodificación.
Las figuras 28 a 30 son unos diagramas para explicar una relación entre las unidades de codificación 1010, las unidades de predicción 1060 y las unidades de transformación 1070 de acuerdo con una realización a modo de ejemplo.
Las unidades de codificación 1010 son unas unidades de codificación que tienen una estructura de árbol, que se corresponden con las profundidades codificadas que son determinadas por el aparato 100, en una unidad de codificación máxima. Las unidades de predicción 1060 son particiones de las unidades de predicción de cada una de las unidades de codificación 1010, y las unidades de transformación 1070 son unas unidades de transformación de cada una de las unidades de codificación 1010.
Cuando una profundidad de una unidad de codificación máxima es 0 en las unidades de codificación 1010, las profundidades de las unidades de codificación 1012 y 1054 son 1, las profundidades de las unidades de codificación 1014, 1016, 1018, 1028, 1050 y 1052 son 2, las profundidades de las unidades de codificación 1020, 1022, 1024, 1026, 1030, 1032 y 1048 son 3, y las profundidades de las unidades de codificación 1040, 1042, 1044 y 1046 son 4.
5
10
15
20
25
30
35
40
En las unidades de predicción 1060, algunas unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050, 1052 y 1054 se dividen en particiones para la codificación de predicción. Dicho de otra forma, los tipos de partición en las unidades de codificación 1014, 1022, 1050 y 1054 tienen un tamaño de 2N x N, los tipos de partición en las unidades de codificación 1016, 1048 y 1052 tienen un tamaño de Nx2N, y un tipo de partición de la unidad de codificación 1032 tiene un tamaño de N x N. Las unidades de predicción y las particiones de las unidades de codificación 1010 son más pequeñas que o iguales a cada unidad de codificación.
La transformación o la transformación inversa se realiza sobre datos de imagen de la unidad de codificación 1052 en las unidades de transformación 1070 en una unidad de datos que es más pequeña que la unidad de codificación 1052. Asimismo, las unidades de codificación 1014, 1016, 1022, 1032, 1048, 1050 y 1052 en las unidades de transformación 1070 son diferentes de las de las unidades de predicción 1060 en términos de tamaños y formas. Dicho de otra forma, los aparatos 100 y 200 pueden realizar una intra predicción, una estimación de movimiento, una compensación de movimiento, una transformación y una transformación inversa de forma individual sobre una unidad de datos en la misma unidad de codificación.
Por consiguiente, la codificación se realiza de forma recursiva sobre cada una de las unidades de codificación que tienen una estructura jerárquica en cada región de una unidad de codificación máxima para determinar una unidad de codificación óptima y, por lo tanto, se pueden obtener unas unidades de codificación que tienen una estructura de árbol recursiva. La información de codificación puede incluir una información de división acerca de una unidad de codificación, una información acerca de un tipo de partición, una información acerca de un modo de predicción, y una información acerca de un tamaño de una unidad de transformación. La tabla 2 muestra la información de codificación que se puede establecer mediante los aparatos 100 y 200.
Tabla 2
- Información de división 0 (Codificación sobre una unidad de codificación que tiene un tamaño de 2N x 2N y profundidad actual de d)
- Información de división 1
- Modo de predicción
- Tipo de partición Tamaño de la unidad de transformación
- Intra
- Tipo de partición simétrico Tipo de partición asimétrico Información de división 0 de la unidad de transformación Información de división 1 de la unidad de transformación Codificar de forma repetida unas unidades de codificación que tienen una profundidad inferior de d + 1
- Inter Omisión (Solo
- 2N x 2N 2N x N N x 2N 2N x nU 2N x nD nL x 2N 2N x 2N N x N (Tipo simétrico) N / 2 x N / 2
- 2N x 2N)
- N x N nR x 2N (Tipo asimétrico)
La unidad de salida 130 del aparato 100 puede emitir la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol, y la unidad de extracción de datos de imagen y de información de codificación 220 del aparato 200 puede extraer la información de codificación acerca de las unidades de codificación que tienen una estructura de árbol a partir de un flujo de bits recibido.
La información de división indica si una unidad de codificación actual se divide en unas unidades de codificación de una profundidad inferior. Si la información de división de una profundidad actual d es 0, una profundidad, en la que una unidad de codificación actual deja de estar dividida en una profundidad inferior, es una profundidad codificada y, por lo tanto, una información acerca de un tipo de partición, un modo de predicción y un tamaño de una unidad de transformación se puede definir para la profundidad codificada. Si la unidad de codificación actual se divide adicionalmente de acuerdo con la información de división, la codificación se realiza de forma independiente sobre cuatro unidades de codificación divididas de una profundidad inferior.
Un modo de predicción puede ser uno de un intra modo, un inter modo, y un modo de omisión. El intra modo y el inter modo se pueden definir en todos los tipos de partición, y el modo de omisión se define solo en un tipo de partición que tiene un tamaño de 2N x 2N.
La información acerca del tipo de partición puede indicar unos tipos de partición simétricos que tienen unos tamaños de 2N x 2N, 2N x N, N x 2N, y N x N, que se obtienen mediante la división, de forma simétrica, de una altura o una anchura de una unidad de predicción, y unos tipos de partición asimétricos que tienen unos tamaños de 2N x nU, 2N x nD, nL x 2N, ynRx 2N, que se obtienen mediante la división, de forma asimétrica, de la altura o la anchura de la unidad de predicción. Los tipos de partición asimétricos que tienen los tamaños de 2N x nU y 2N x nD se pueden obtener respectivamente mediante la división de la altura de la unidad de predicción en 1 : 3 y 3: 1, y los tipos de partición asimétricos que tienen los tamaños de nL x 2N ynRx 2N se pueden obtener respectivamente mediante la división de la anchura de la unidad de predicción en 1 : 3 y 3 : 1
5
10
15
20
25
30
35
40
45
50
55
El tamaño de la unidad de transformación se puede establecer para dos tipos en el intra modo y dos tipos en el inter modo. Dicho de otra forma, si la información de división de la unidad de transformación es 0, el tamaño de la unidad de transformación puede ser 2N x2N, que es el tamaño de la unidad de codificación actual. Si la información de división de la unidad de transformación es 1, las unidades de transformación se pueden obtener mediante la división de la unidad de codificación actual. Asimismo, si un tipo de partición de la unidad de codificación actual que tiene el tamaño de 2N x 2N es un tipo de partición simétrico, un tamaño de una unidad de transformación puede ser N x N, y si el tipo de partición de la unidad de codificación actual es un tipo de partición asimétrico, el tamaño de la unidad de transformación puede ser N / 2 x N / 2.
La información de codificación acerca de las unidades de codificación que tienen una estructura de árbol puede incluir al menos una de una unidad de codificación que se corresponde con una profundidad codificada, una unidad de predicción, y una unidad mínima. La unidad de codificación que se corresponde con la profundidad codificada puede incluir al menos una de una unidad de predicción y una unidad mínima que contiene la misma información de codificación.
Por consiguiente, se determina si unas unidades de datos adyacentes están incluidas en la misma unidad de codificación que se corresponde con la profundidad codificada mediante la comparación de la información de codificación de las unidades de datos adyacentes. Asimismo, una unidad de codificación correspondiente que se corresponde con una profundidad codificada se determina mediante el uso de la información de codificación de una unidad de datos y, por lo tanto, se puede determinar una distribución de profundidades codificadas en una unidad de codificación máxima.
Por consiguiente, si una unidad de codificación actual se predice sobre la base de la información de codificación de unidades de datos adyacentes, se puede consultar y usar directamente la información de codificación de las unidades de datos en unas unidades de codificación más profunda adyacentes a la unidad de codificación actual.
Como alternativa, si una unidad de codificación actual se predice sobre la base de la información de codificación de unidades de datos adyacentes, las unidades de datos adyacentes a la unidad de codificación actual se buscan usando una información codificada de las unidades de datos, y se puede hacer referencia a las unidades de codificación adyacentes buscadas para predecir la unidad de codificación actual.
La figura 31 es un diagrama para explicar una relación entre una unidad de codificación, una unidad de predicción o una partición, y una unidad de transformación de acuerdo con una información de modo de codificación de la tabla 2.
Una unidad de codificación máxima 1300 incluye las unidades de codificación 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de las profundidades codificadas. En el presente caso, debido a que la unidad de codificación 1318 es una unidad de codificación de una profundidad codificada, la información de división se puede establecer a 0. Una información acerca de un tipo de partición de la unidad de codificación 1318 que tiene un tamaño de 2N x2N se puede establecer para uno de un tipo de partición 1322 que tiene un tamaño de 2N x2N, un tipo de partición 1324 que tiene un tamaño de 2N x N, un tipo de partición 1326 que tiene un tamaño de N x 2N, un tipo de partición 1328 que tiene un tamaño de N x N, un tipo de partición 1332 que tiene un tamaño de 2N x nU, un tipo de partición 1334 que tiene un tamaño de 2N x nD, un tipo de partición 1336 que tiene un tamaño de nLx2N, y un tipo de partición 1338 que tiene un tamaño de nR x 2N.
La información de división (indicador de tamaño de TU) de una unidad de transformación es un índice de transformación y, por lo tanto, un tamaño de la unidad de transformación que se corresponde con el índice de transformación puede variar de acuerdo con un tipo de unidad de predicción o un tipo de partición de una unidad de codificación.
Por ejemplo, cuando el tipo de partición se ajusta para ser simétrico, es decir, el tipo de partición 1322, 1324, 1326 o 1328, se establece una unidad de transformación 1342 que tiene un tamaño de 2n x2N si un indicador de tamaño de TU es 0, y se establece una unidad de transformación 1344 que tiene un tamaño de N x N si un indicador de tamaño de TU es 1.
Por otro lado, cuando el tipo de partición se ajusta para ser asimétrico, es decir, el tipo de partición 1332, 1334, 1336 o 1338, se establece una unidad de transformación 1352 que tiene un tamaño de 2N x 2N si un indicador de tamaño de TU es 0, y se establece una unidad de transformación 1354 que tiene un tamaño de N / 2 x N / 2 si un indicador de tamaño de TU es 1.
Haciendo referencia a la figura 18, el indicador de tamaño de TU es un indicador que tiene un valor o 0 o 1, pero el indicador de tamaño de TU no se limita a 1 bit, y una unidad de transformación se puede dividir de forma jerárquica teniendo una estructura de árbol mientras que el indicador de tamaño de TU aumenta a partir de 0. El indicador de tamaño de TU se puede usar como un ejemplo de un índice de transformación.
En este caso, un tamaño de una unidad de transformación que se ha usado en la práctica se puede expresar mediante el uso de un indicador de tamaño de TU de una unidad de transformación junto con un tamaño máximo y un tamaño mínimo de la unidad de transformación. El aparato 100 puede codificar una información de tamaño de unidad de transformación máximo, una información de tamaño de unidad de transformación mínimo, y un indicador
de tamaño de TU máximo. El resultado de la codificación de la información de tamaño de unidad de transformación máximo, la información de tamaño de unidad de transformación mínimo, y el indicador de tamaño de TU máximo se puede insertar en un SPS. El aparato 200 puede descodificar un vídeo mediante el uso de la información de tamaño de unidad de transformación máximo, la información de tamaño de unidad de transformación mínimo, y el indicador 5 de tamaño de TU máximo.
Por ejemplo, si un tamaño de una unidad de codificación actual es 64 x 64 y un tamaño de unidad de transformación máximo es 32 x 32, entonces un tamaño de una unidad de transformación puede ser 32 x 32 cuando un indicador de tamaño de TU es 0, puede ser 16 x 16 cuando el indicador de tamaño de TU es 1, y puede ser 8 x 8 cuando el indicador de tamaño de TU es 2.
10
5
10
15
20
25
30
35
40
45
50
Como otro ejemplo, si un tamaño de una unidad de codificación actual es 32 x 32 y un tamaño de unidad de transformación mínimo es 32 x 32, entonces un tamaño de una unidad de transformación puede ser 32 x 32 cuando el indicador de tamaño de TU es 0. En el presente caso, el indicador de tamaño de TU puede no ajustarse a un valor que no sea 0, debido a que el tamaño de la unidad de transformación puede no ser menor que 32 x 32.
Como otro ejemplo, si un tamaño de una unidad de codificación actual es 64 x 64 y un indicador de tamaño de TU máximo es 1, entonces el indicador de tamaño de TU puede ser 0 o 1. En el presente caso, el indicador de tamaño de TU puede no ajustarse a un valor que no sea 0 o 1.
Por lo tanto, si se define que el indicador de tamaño de TU máximo es 'MaxTransformSizelndex', un tamaño de unidad de transformación mínimo es 'MinTransformSize', y un tamaño de unidad de transformación es 'RootTuSize' cuando el indicador de tamaño de TU es 0, entonces un tamaño de unidad de transformación mínimo actual 'CurrMinTuSize' que se puede determinar en una unidad de codificación actual, se puede definir mediante la ecuación (1):
CurrMinTuSize = máx(MinTransformSize, RootTuS¡ze/(2AMaxTransformS¡zelndex))....... (1)
En comparación con el tamaño de unidad de transformación mínimo actual 'CurrMinTuSize' que se puede determinar en la unidad de codificación actual, un tamaño de unidad de transformación 'RootTuSize' cuando el indicador de tamaño de TU es 0 puede indicar un tamaño de unidad de transformación máximo que se puede seleccionar en el sistema. En la ecuación (1), 'RootTuSize / (2AMaxTransformSizelndex)' indica un tamaño de unidad de transformación cuando el tamaño de unidad de transformación 'RootTuSize', cuando el indicador de tamaño de TU es 0, se divide un número de veces que se corresponde con el indicador de tamaño de TU máximo, y 'MinTransformSize' indica un tamaño de transformación mínimo. Por lo tanto, un valor más pequeño de entre 'RootTuSize / (2AMaxTransformSizelndex)' y 'MinTransformSize' puede ser el tamaño de unidad de transformación mínimo actual 'CurrMinTuSize' que se puede determinar en la unidad de codificación actual.
El tamaño de unidad de transformación máximo RootTuSize puede variar de acuerdo con el tipo de un modo de predicción.
Por ejemplo, si un modo de predicción actual es un inter modo, entonces 'RootTuSize' se puede determinar mediante el uso de la ecuación (2) en lo sucesivo. En la ecuación (2), 'MaxTransformSize' indica un tamaño de unidad de transformación máximo, y 'PUSize' indica un tamaño de unidad de predicción actual.
RootTuSize = mín(MaxTransformSize, PUSize)........(2)
Es decir, si el modo de predicción actual es el inter modo, el tamaño de unidad de transformación 'RootTuSize' cuando el indicador de tamaño de TU es 0, puede ser un valor más pequeño de entre el tamaño de unidad de transformación máximo y el tamaño de unidad de predicción actual.
Si un modo de predicción de una unidad de partición actual es un intra modo, 'RootTuSize' se puede determinar mediante el uso de la ecuación (3) en lo sucesivo. En la ecuación (3), 'PartitionSize' indica el tamaño de la unidad de partición actual.
RootTuSize = mín(MaxTransformSize, PartitionSize)...........(3)
Es decir, si el modo de predicción actual es el intra modo, el tamaño de unidad de transformación 'RootTuSize' cuando el indicador de tamaño de TU es 0 puede ser un valor más pequeño de entre el tamaño de unidad de transformación máximo y el tamaño de la unidad de partición actual.
No obstante, el tamaño de unidad de transformación máximo actual 'RootTuSize' que varía de acuerdo con el tipo de un modo de predicción en una unidad de partición es solo un ejemplo y no se limita al mismo.
La figura 32 es un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol, de acuerdo con una realización a modo de ejemplo.
En la operación 1210, una imagen actual de un vídeo se divide en unas unidades de codificación máxima. En la operación 1220, los datos de imagen se pueden codificar como unidades de codificación de acuerdo con las profundidades para cada unidad de codificación máxima de la imagen actual, se puede seleccionar y determinar una profundidad que genera el error de codificación mínimo de acuerdo con una profundidad codificada, y se pueden determinar las unidades de codificación que tienen una estructura de árbol que está compuesta por unidades de codificación de la profundidad que se determina que es la profundidad codificada. Se pueden emitir datos de imagen de acuerdo con las unidades de codificación máxima codificadas de acuerdo con la unidad de codificación determinada.
5
10
15
20
25
30
35
40
45
50
55
60
En la operación 1230, se puede determinar si se realiza una fusión de unidades de datos entre unidades de datos colindantes sobre las unidades de predicción o las particiones de las unidades de codificación que tienen una estructura de árbol. La información relacionada con la predicción se puede compartir entre las unidades de datos fusionadas. La necesidad de una fusión de unidades de datos para compartir la información relacionada con la predicción con una unidad de datos colindante se puede analizar incluso a pesar de que un modo de predicción de una unidad de predicción actual o una partición actual de las unidades de codificación que tienen una estructura de árbol es un modo de omisión o un modo directo. En la operación 1230, una información acerca de un modo de codificación de las unidades de codificación que tienen la estructura de árbol se puede codificar para incluir una información relacionada con la fusión que incluye una información de fusión y una información de índice de fusión. Una información acerca del modo de codificación y los datos de imagen de la unidad de codificación máxima que se codifica sobre la base de unidades de codificación que tienen la estructura de árbol se pueden emitir en flujos de bits.
La figura 33 es un diagrama de flujo que ilustra un procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos sobre la base de unidades de codificación que tienen una estructura de árbol de acuerdo con una realización a modo de ejemplo.
En la operación 1310, se recibe y se analiza sintácticamente un flujo de bits de un vídeo codificado. En la operación 1320, los datos de imagen codificados de unos datos de imagen de imagen actual que se codifican para cada unidad de codificación de acuerdo con las unidades de codificación que tienen una estructura de árbol se extraen a partir del flujo de bits analizado sintácticamente de acuerdo con las unidades de codificación máxima, y se extrae una información acerca de una profundidad codificada y un modo de codificación. A partir de la información acerca de la profundidad codificada y el modo de codificación, se puede extraer la información relacionada con la fusión. Una posibilidad de extracción y lectura de la información relacionada con la fusión se puede determinar sobre la base de una información de modo de predicción. Por ejemplo, la información relacionada con la fusión se puede extraer sobre la base de una información de modo de omisión o una información directa para una unidad de predicción actual o una partición actual de las unidades de codificación que tienen la estructura de árbol. Asimismo, una información de fusión y una información de índice de fusión se pueden extraer como la información relacionada con la fusión. En la operación 1330, una información acerca de un tipo de partición, un modo de predicción, y una unidad de transformación de una unidad de predicción de las unidades de codificación que tienen la estructura de árbol se puede leer sobre la base de la información acerca del modo de codificación y la profundidad codificada de la unidad de codificación máxima, y se puede usar para descodificar los datos de imagen de la unidad de codificación máxima. Asimismo, se puede buscar un objeto a fusionar de entre una pluralidad de unidades de datos colindantes que colindan con una unidad de datos actual y se puede determinar una fusión de unidades de datos sobre la base de la información relacionada con la fusión. La estimación y la compensación de movimiento de la unidad de predicción actual o una partición actual se pueden realizar al inferir la información relacionada con la predicción de la unidad de predicción actual o la partición actual al compartir o al hacer referencia a la información relacionada con la predicción de una partición o unidad de predicción colindante fusionada. Se pueden restablecer los datos de imagen de la unidad de codificación máxima y se puede restablecer una imagen actual a través de una descodificación que incluye una estimación y una compensación de movimiento de acuerdo con las unidades de codificación que tienen la estructura de árbol. En el aparato 100 y el aparato 200, debido a que se examina una posibilidad de que se pueda realizar una fusión de unidades de datos para compartir una información relacionada con la predicción mutua acerca de los modos de predicción y unas particiones que tienen diversos modos de predicción, diversos tamaños y formas de acuerdo con una estructura de árbol, se realiza una fusión entre unidades de datos colindantes que tienen diversas posiciones, haciendo posible compartir, de ese modo, la información relacionada con la predicción. Por consiguiente, debido a que los datos redundantes se pueden retirar mediante el uso de una información periférica en un intervalo más amplio, se puede mejorar la eficiencia de codificación de los datos de imagen. Asimismo, debido a que una información de modo de predicción y una información relacionada con la fusión se codifican y se descodifican de forma jerárquica y continua en consideración de una relación cercana entre una posibilidad de fusión y diversos modos de predicción, se puede mejorar la eficiencia de codificación de información.
Los siguientes párrafos numerados definen aspectos útiles para la comprensión de la divulgación.
1. Un procedimiento de descodificación de un vídeo mediante el uso de una fusión de unidades de datos, comprendiendo el procedimiento analizar sintácticamente un flujo de bits recibido para extraer unos datos de vídeo codificados y una información de codificación y extraer una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción en la información de codificación; y analizar una aparición de fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos sobre la base de la información de modo de predicción extraída y la información relacionada con la fusión extraída, y realizar una inter predicción y una compensación de movimiento mediante el uso de una información relacionada con la predicción de la al menos una unidad de datos colindante sobre una unidad de datos actual que se fusiona con la al menos una unidad de datos colindante, para descodificar los datos de vídeo codificados de acuerdo con las unidades de datos que se determinan sobre la base de la información de codificación.
2. El procedimiento del párrafo 1, en el que: la unidad de datos actual comprende al menos una de una unidad de codificación que se obtiene mediante la división de la imagen con el fin de descodificar la imagen, y una unidad
5
10
15
20
25
30
35
40
45
50
55
60
de predicción que se obtiene mediante la división de la imagen para la descodificación de predicción de la imagen; la extracción y lectura comprende extraer y leer, para cada una de las unidades de datos, una información de modo de omisión que indica si un modo de predicción de la unidad de datos actual es un modo de omisión, y determinar, para cada una de las unidades de datos, si se extrae una información de fusión que indica si se fusionan entre sí la unidad de datos actual y la al menos una unidad de datos colindante sobre la base de la información de modo de omisión leída; y la descodificación comprende determinar la aparición de fusión con la al menos una unidad de datos colindante sobre la base de la información de fusión para cada una de las unidades de datos.
3. El procedimiento del párrafo 2, en el que la extracción y lectura comprende adicionalmente: extraer una información diferencial de vector de movimiento de la unidad de datos actual sobre la base de la información de fusión y determinar si se extrae una información de predicción auxiliar de la unidad de datos actual; y extraer una información de índice de fusión que indica una unidad de datos a fusionar con la unidad de datos actual a partir de la información relacionada con la fusión.
4. El procedimiento del párrafo 1, en el que si la unidad de datos actual se fusiona con al menos una unidad de datos colindante sobre la base de la información de fusión de la información relacionada con la fusión extraída, el análisis comprende: determinar al menos un grupo de unidades de datos candidatas que comprende unas unidades de datos que son candidatas de fusión con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual sobre la base de una información de índice de fusión en la información relacionada con la fusión; y determinar una unidad de datos a fusionar con la unidad de datos actual de entre las unidades de datos en el al menos un grupo de unidades de datos candidatas determinado.
5. El procedimiento del párrafo 1, en el que si la unidad de datos actual comprende una partición que se obtiene mediante la división de una unidad de predicción para la inter predicción de una imagen, el análisis sintáctico y la extracción comprende extraer una información de modo de omisión a partir de la información de modo de predicción para cada modo de predicción, y si la unidad de predicción se divide en particiones, extraer la información relacionada con la fusión para cada partición; la extracción comprende adicionalmente extraer de forma secuencial la información de modo de omisión, la información de unidad de predicción, la información de partición, y la información de fusión acerca de la unidad de predicción; no se realiza una fusión mutua entre particiones colindantes que se obtienen mediante la división de una unidad de datos para la inter predicción; y la información de partición comprende una información acerca de si la unidad de predicción se divide en particiones y una información acerca de un tipo de partición.
6. El procedimiento del párrafo 1, en el que: en un procedimiento de codificación de una imagen, con respecto a una unidad de codificación máxima que se obtiene mediante la división de la imagen en unas unidades de codificación con unos tamaños máximos previamente determinados, de acuerdo con unas regiones que se obtienen mediante la división, de forma jerárquica, de una unidad de codificación máxima a medida que aumenta una profundidad, si una profundidad codificada que es una profundidad que genera un error de codificación mínimo mediante la realización de una intra predicción, una inter predicción, una transformación y una cuantificación para cada una de al menos una unidad de datos de acuerdo con las profundidades se determina para formar unas unidades de codificación que tienen una estructura de árbol de acuerdo con la unidad de codificación máxima, el análisis sintáctico y la extracción comprende extraer una información de codificación que indica un procedimiento de codificación que incluye una partición o una unidad de predicción para la intra predicción o la inter predicción y datos codificados que se codifican sobre la base del modo de codificación para cada unidad de codificación de la profundidad codificada, en el que la unidad de datos actual es una unidad de predicción o una partición de la unidad de codificación de la profundidad codificada.
7. Un procedimiento de codificación de un vídeo mediante el uso de una fusión de unidades de datos, comprendiendo el procedimiento: determinar un modo de codificación que indica una unidad de datos actual para la codificación de una imagen y un procedimiento de codificación para la codificación de predicción que se realiza para la unidad de datos actual; determinar una aparición de fusión con al menos una unidad de datos colindante, que colinda con la unidad de datos actual, sobre la base de al menos uno de un modo de predicción y el modo de codificación; y determinar una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción sobre la base de la aparición determinada de fusión con la al menos una unidad de datos colindante y determinar una información de codificación de la unidad de datos actual que incluye la información de modo de predicción determinada, la información relacionada con la fusión determinada, y la información relacionada con la predicción determinada.
8. El procedimiento del párrafo 7, en el que: la unidad de datos actual comprende al menos una de una unidad de codificación que se obtiene mediante la división de la imagen con el fin de codificar la imagen, y una unidad de predicción que se obtiene mediante la división de la imagen para la codificación de predicción de la imagen; la determinación de la información de codificación comprende determinar, para cada unidad de datos, una información de modo de omisión que indica si el modo de predicción de la unidad de datos actual es un modo de omisión, y determinar, para cada unidad de datos, si se va a codificar una información de fusión que indica si se fusionan entre sí la unidad de datos actual y la al menos una unidad de datos colindante sobre la base de la información de modo de omisión determinada; la información de modo de omisión y la información de fusión se
5
10
15
20
25
30
35
40
45
50
55
60
determinan para cada una de las unidades de datos; y la unidad de datos actual comprende al menos una de una unidad de codificación y una unidad de predicción, cada una de las cuales se obtiene mediante la división de la imagen con el fin de codificar la imagen.
9. El procedimiento del párrafo 8, en el que la determinación de la información de codificación comprende adicionalmente: determinar y codificar una información de fusión acerca de la unidad de datos actual y una información de índice de fusión que indica una unidad de datos a fusionar como la información relacionada con la fusión; y codificar una información diferencial de vector de movimiento de la unidad de datos sobre la base de la información de fusión y determinar si se va a codificar una información de predicción auxiliar de la unidad de datos actual.
10. El procedimiento del párrafo 8, en el que la determinación de la aparición de fusión comprende: determinar al menos un grupo de unidades de datos candidatas que incluye unas unidades de datos que son candidatas de fusión con la unidad de datos actual en unas regiones que colindan con la unidad de datos actual; y buscar y determinar una unidad de datos a fusionar con la unidad de datos actual de entre las unidades de datos en el al menos un grupo de unidades de datos candidatas determinado.
11. El procedimiento del párrafo 8, en el que, si la unidad de datos actual comprende adicionalmente una partición que se obtiene mediante la división de la unidad de predicción para la inter predicción de la imagen, la determinación de la información de codificación comprende: codificar la información de modo de omisión en la información de modo de predicción para cada unidad de predicción, y si la unidad de predicción se divide en particiones, determinar la información relacionada con la fusión para cada partición; y codificar de forma secuencial la información de modo de omisión, la información de unidad de predicción, la información de partición y la información de fusión para cada unidad de predicción; no se realiza una fusión mutua entre particiones colindantes que se obtienen mediante la división de una unidad de datos para la inter predicción; y la información de partición comprende una información acerca de si la unidad de predicción se divide en particiones y una información acerca de un tipo de partición.
12. El procedimiento del párrafo 7, en el que la determinación del modo de codificación comprende: determinar el modo de codificación con respecto a una unidad de codificación máxima que se obtiene mediante la división de la imagen en unas unidades de codificación con unos tamaños máximos previamente determinados, de acuerdo con unas regiones que se obtienen mediante la división, de forma jerárquica, de la unidad de codificación máxima a medida que aumenta una profundidad, determinar una profundidad codificada que es una profundidad que genera un error de codificación mínimo mediante la realización de una intra predicción, una inter predicción, una transformación y una cuantificación para cada una de al menos una unidad de codificación de acuerdo con las profundidades, determinar un modo de codificación que indica un procedimiento de codificación que incluye una partición o una unidad de predicción para la intra predicción o la inter predicción para cada unidad de codificación de la profundidad codificada, y determinar unas unidades de codificación que tienen una estructura de árbol de acuerdo con la unidad de codificación máxima, en el que la unidad de datos actual es una unidad de predicción o una partición de la unidad de codificación de la profundidad codificada.
13. Un aparato para descodificar un vídeo mediante el uso de una fusión de unidades de datos, comprendiendo el aparato: un analizador sintáctico y unidad de extracción que analiza sintácticamente un flujo de bits recibido para extraer unos datos de vídeo codificados y una información de codificación y para extraer una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción en la información de codificación; y una unidad de fusión y descodificador de unidades de datos que analiza una aparición de fusión con al menos una unidad de datos colindante sobre la base de al menos uno de un modo de predicción y un modo de codificación de acuerdo con las unidades de datos sobre la base de la información de modo de predicción extraída y la información relacionada con la fusión extraída y realiza una inter predicción y una compensación de movimiento mediante el uso de una información relacionada con la predicción de la al menos una unidad de datos colindante sobre una unidad de datos actual que se fusiona con la unidad de datos colindante, para descodificar los datos de vídeo codificados de acuerdo con las unidades de datos que se determinan sobre la base de la información de codificación.
14. Un aparato para codificar un vídeo mediante el uso de una fusión de unidades de datos, comprendiendo el aparato: una unidad de determinación de modos de codificación que determina un modo de codificación que indica una unidad de datos actual para codificar una imagen y un procedimiento de codificación que incluye una codificación de predicción para la unidad de datos actual; una unidad de determinación de fusión de unidades de datos que determina una aparición de fusión con al menos una unidad de datos colindante, que colinda con la unidad de datos actual, sobre la base de al menos uno de un modo de predicción y el modo de codificación; y una unidad de determinación de información de codificación que determina una información de modo de predicción, una información relacionada con la fusión y una información relacionada con la predicción sobre la base de la aparición determinada de fusión con la unidad de datos colindante y determina una información de codificación de la unidad de datos actual que incluye la información de modo de predicción, la información relacionada con la fusión, y la información relacionada con la predicción.
15. Un medio de registro legible por ordenador que tiene, incorporado en el mismo, un programa para ejecutar uno de los procedimientos de los párrafos 1 y 7.
Una o más realizaciones a modo de ejemplo se pueden escribir como programas informáticos y se pueden implementar en ordenadores digitales de uso general que ejecutan los programas usando un medio de registro 5 legible por ordenador. Los ejemplos del medio de registro legible por ordenador incluyen medios de almacenamiento magnético (por ejemplo, rOm, discos flexibles, discos duros, etc.) y medios de registro óptico (por ejemplo, CD- ROM o DVD).
Claims (1)
- 51015202530REIVINDICACIONES1. Un aparato para decodificar un vídeo, comprendiendo el aparato un procesador que se configura para:obtener, desde un flujo de bits, un aviso de omisión para una unidad de codificación que indica si un modo de codificación para la unidad de codificación es un modo de omisión,cuando el aviso de omisión indica que el modo de codificación para la unidad de codificación no es el modo de omisión:obtener, desde el flujo de bits, información acerca del tipo de partición;determinar al menos una partición que incluye una partición desde la unidad de codificación basándose en lainformación acerca del tipo de partición; yobtener información de fusión para la partición; en el que,la información de fusión de la partición indica si la partición entre una o varias particiones está descodificada en un modo de fusión;cuando la información de fusión para la partición indica el modo de fusión, se obtiene un índice de fusión que indica un bloque entre un grupo de bloques candidatos para la partición desde el flujo de bits; y, realizar compensación de movimiento en la partición usando información de movimiento del bloque que indica el índice de fusión;caracterizado porque el grupo de bloques candidatos para la partición incluye uno o varios bloques de entre los siguientes tres bloques vecinos de la partición:un bloque inferior izquierdo ubicado sobre un lado izquierdo de un bloque situado más a la izquierda entre los bloques inferiores directamente debajo de un borde inferior de la partición, estando el bloque inferior izquierdo ubicado por debajo de un bloque más inferior entre los bloques izquierdos adyacentes a un borde izquierdo de la partición;un bloque superior izquierdo ubicado sobre un lado izquierdo de un bloque más a la izquierda entre bloques superiores directamente por encima de un borde superior de la partición, estando el bloque superior izquierdo ubicado por encima de un bloque más superior entre los bloques izquierdos adyacentes al borde izquierdo de la partición; y,un bloque superior derecho ubicado sobre un lado derecho de un bloque más a la derecha entre los bloques superiores directamente por encima del borde superior de la partición.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US36282910P | 2010-07-09 | 2010-07-09 | |
US362829P | 2010-07-09 | ||
US36795210P | 2010-07-27 | 2010-07-27 | |
US367952P | 2010-07-27 | ||
KR20110006486 | 2011-01-21 | ||
KR20110006486A KR101484281B1 (ko) | 2010-07-09 | 2011-01-21 | 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2688033T3 true ES2688033T3 (es) | 2018-10-30 |
Family
ID=45611872
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14193556.9T Active ES2614203T3 (es) | 2010-07-09 | 2011-07-07 | Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques |
ES15166150.1T Active ES2688033T3 (es) | 2010-07-09 | 2011-07-07 | Aparato para codificar vídeo usando fusión de bloques |
ES11803806.6T Active ES2613610T3 (es) | 2010-07-09 | 2011-07-07 | Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques |
ES15154330.3T Active ES2631031T3 (es) | 2010-07-09 | 2011-07-07 | Aparato de descodificación de vídeo mediante el uso de fusión de bloques |
ES15166149.3T Active ES2688031T3 (es) | 2010-07-09 | 2011-07-07 | Procedimiento de decodificación de vídeo usando fusión de bloques |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14193556.9T Active ES2614203T3 (es) | 2010-07-09 | 2011-07-07 | Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES11803806.6T Active ES2613610T3 (es) | 2010-07-09 | 2011-07-07 | Procedimiento y aparato para codificación de vídeo usando unión de bloques, y procedimiento y aparato para decodificación de vídeo usando unión de bloques |
ES15154330.3T Active ES2631031T3 (es) | 2010-07-09 | 2011-07-07 | Aparato de descodificación de vídeo mediante el uso de fusión de bloques |
ES15166149.3T Active ES2688031T3 (es) | 2010-07-09 | 2011-07-07 | Procedimiento de decodificación de vídeo usando fusión de bloques |
Country Status (24)
Country | Link |
---|---|
EP (2) | EP3442230B1 (es) |
JP (5) | JP5738991B2 (es) |
KR (7) | KR101484281B1 (es) |
CN (6) | CN104869408B (es) |
AU (1) | AU2011274722B2 (es) |
BR (5) | BR122020014007B1 (es) |
CA (5) | CA2886724C (es) |
CY (1) | CY1118484T1 (es) |
DK (1) | DK2580912T3 (es) |
ES (5) | ES2614203T3 (es) |
HR (5) | HRP20170129T1 (es) |
HU (5) | HUE031789T2 (es) |
LT (5) | LT2924996T (es) |
MX (1) | MX2013000345A (es) |
MY (5) | MY156223A (es) |
PH (4) | PH12015500918B1 (es) |
PL (4) | PL2858366T3 (es) |
PT (5) | PT2858366T (es) |
RS (4) | RS55668B1 (es) |
RU (6) | RU2013105501A (es) |
SG (6) | SG10201503383PA (es) |
SI (4) | SI2924996T1 (es) |
TR (1) | TR201813132T4 (es) |
ZA (1) | ZA201300578B (es) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3567852T3 (da) | 2009-03-23 | 2023-01-16 | Ntt Docomo Inc | Billedforudsigelsesafkodningsindretning og billedforudsigelsesafkodningsfremgangsmåde |
WO2012005520A2 (en) | 2010-07-09 | 2012-01-12 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging |
KR101484281B1 (ko) * | 2010-07-09 | 2015-01-21 | 삼성전자주식회사 | 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치 |
ES2820437T3 (es) * | 2010-07-20 | 2021-04-21 | Ntt Docomo Inc | Método de codificación predictiva de imágenes, dispositivo de decodificación predictiva de imágenes, método de decodificación predictiva de imágenes y programa de decodificación predictiva de imágenes |
KR102126374B1 (ko) * | 2010-11-04 | 2020-06-24 | 지이 비디오 컴프레션, 엘엘씨 | 블록 병합 및 스킵 모드를 지원하는 화상 코딩 |
CN103229507B (zh) | 2010-11-25 | 2017-09-08 | Lg电子株式会社 | 使用信号通知图像信息的方法和使用该方法来解码图像信息的方法 |
US11284081B2 (en) | 2010-11-25 | 2022-03-22 | Lg Electronics Inc. | Method for signaling image information, and method for decoding image information using same |
JP2012209911A (ja) * | 2010-12-20 | 2012-10-25 | Sony Corp | 画像処理装置および方法 |
US10171813B2 (en) | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
KR101492105B1 (ko) * | 2011-08-29 | 2015-02-11 | 주식회사 아이벡스피티홀딩스 | Amvp 모드에서 영상 부호화 방법 |
WO2013109124A1 (ko) * | 2012-01-19 | 2013-07-25 | 삼성전자 주식회사 | 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
AU2012200345B2 (en) * | 2012-01-20 | 2014-05-01 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding the significance map residual coefficients of a transform unit |
KR101895389B1 (ko) * | 2012-11-27 | 2018-10-18 | 연세대학교 산학협력단 | 영상 부호화 방법 및 장치 |
CN104104964B (zh) | 2013-04-09 | 2019-03-12 | 乐金电子(中国)研究开发中心有限公司 | 一种深度图像帧间编码、解码方法、编码器及解码器 |
US9497485B2 (en) | 2013-04-12 | 2016-11-15 | Intel Corporation | Coding unit size dependent simplified depth coding for 3D video coding |
CN105659602B (zh) * | 2013-10-14 | 2019-10-08 | 微软技术许可有限责任公司 | 用于视频和图像编码的帧内块复制预测模式的编码器侧选项 |
KR102275639B1 (ko) | 2013-10-14 | 2021-07-08 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 비디오 및 영상 코딩 및 디코딩에 대한 기본 색상 인덱스 맵 모드의 특징 |
KR102257269B1 (ko) | 2013-10-14 | 2021-05-26 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 비디오 및 이미지 코딩 및 디코딩을 위한 인트라 블록 카피 예측 모드의 피쳐 |
US10469863B2 (en) | 2014-01-03 | 2019-11-05 | Microsoft Technology Licensing, Llc | Block vector prediction in video and image coding/decoding |
US10390034B2 (en) | 2014-01-03 | 2019-08-20 | Microsoft Technology Licensing, Llc | Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area |
US11284103B2 (en) | 2014-01-17 | 2022-03-22 | Microsoft Technology Licensing, Llc | Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning |
US10542274B2 (en) | 2014-02-21 | 2020-01-21 | Microsoft Technology Licensing, Llc | Dictionary encoding and decoding of screen content |
US10368091B2 (en) | 2014-03-04 | 2019-07-30 | Microsoft Technology Licensing, Llc | Block flipping and skip mode in intra block copy prediction |
WO2015149698A1 (en) | 2014-04-01 | 2015-10-08 | Mediatek Inc. | Method of motion information coding |
WO2015192353A1 (en) | 2014-06-19 | 2015-12-23 | Microsoft Technology Licensing, Llc | Unified intra block copy and inter prediction modes |
US20160029022A1 (en) * | 2014-07-25 | 2016-01-28 | Mediatek Inc. | Video processing apparatus with adaptive coding unit splitting/merging and related video processing method |
EP3202150B1 (en) | 2014-09-30 | 2021-07-21 | Microsoft Technology Licensing, LLC | Rules for intra-picture prediction modes when wavefront parallel processing is enabled |
EP4418654A2 (en) * | 2014-10-31 | 2024-08-21 | Samsung Electronics Co., Ltd | Video encoding device and video decoding device using high-precision skip encoding and method thereof |
US9591325B2 (en) | 2015-01-27 | 2017-03-07 | Microsoft Technology Licensing, Llc | Special case handling for merged chroma blocks in intra block copy prediction mode |
WO2016178485A1 (ko) * | 2015-05-05 | 2016-11-10 | 엘지전자 주식회사 | 영상 코딩 시스템에서 코딩 유닛 처리 방법 및 장치 |
CN106664405B (zh) | 2015-06-09 | 2020-06-09 | 微软技术许可有限责任公司 | 用调色板模式对经逸出编码的像素的稳健编码/解码 |
JP6866369B2 (ja) * | 2015-11-24 | 2021-04-28 | サムスン エレクトロニクス カンパニー リミテッド | 符号化順序符号化方法及びその装置、該復号方法及びその装置 |
JP2018535607A (ja) * | 2015-11-24 | 2018-11-29 | サムスン エレクトロニクス カンパニー リミテッド | 映像を符号化/復号する方法、及びその装置 |
CN114401402B (zh) * | 2016-07-05 | 2024-06-14 | 株式会社Kt | 用于处理视频信号的方法和装置 |
US11095892B2 (en) | 2016-09-20 | 2021-08-17 | Kt Corporation | Method and apparatus for processing video signal |
KR102353778B1 (ko) * | 2016-10-11 | 2022-01-20 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
KR20180045530A (ko) | 2016-10-26 | 2018-05-04 | 디지털인사이트 주식회사 | 임의의 블록 분할을 사용하는 비디오 코딩 방법 및 장치 |
WO2018128380A1 (ko) * | 2017-01-03 | 2018-07-12 | 엘지전자(주) | 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 |
CN116866553A (zh) * | 2017-01-16 | 2023-10-10 | 世宗大学校产学协力团 | 影像解码/编码方法以及传送比特流的方法 |
KR102390413B1 (ko) * | 2017-03-03 | 2022-04-25 | 에스케이텔레콤 주식회사 | 영상 부호화 또는 복호화하기 위한 장치 및 방법 |
KR102672759B1 (ko) | 2017-09-28 | 2024-06-05 | 삼성전자주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US10986349B2 (en) | 2017-12-29 | 2021-04-20 | Microsoft Technology Licensing, Llc | Constraints on locations of reference blocks for intra block copy prediction |
WO2019194514A1 (ko) * | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
US11671619B2 (en) | 2018-07-02 | 2023-06-06 | Intellectual Discovery Co., Ltd. | Video coding method and device using merge candidate |
KR20240055147A (ko) | 2018-10-10 | 2024-04-26 | 삼성전자주식회사 | 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치 |
WO2020084476A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block based prediction |
CN111083491B (zh) | 2018-10-22 | 2024-09-20 | 北京字节跳动网络技术有限公司 | 细化运动矢量的利用 |
WO2020085953A1 (en) * | 2018-10-25 | 2020-04-30 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods for inter prediction |
CN113056917B (zh) * | 2018-11-06 | 2024-02-06 | 北京字节跳动网络技术有限公司 | 为视频处理使用具有几何分割的帧间预测 |
WO2020098644A1 (en) | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Bandwidth control methods for inter prediction |
CN113170171B (zh) * | 2018-11-20 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 组合帧间帧内预测模式的预测细化 |
CN117319644A (zh) | 2018-11-20 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 基于部分位置的差计算 |
US20200169757A1 (en) * | 2018-11-23 | 2020-05-28 | Mediatek Inc. | Signaling For Multi-Reference Line Prediction And Multi-Hypothesis Prediction |
GB2580084B (en) * | 2018-12-20 | 2022-12-28 | Canon Kk | Video coding and decoding |
CN111355958B (zh) * | 2018-12-21 | 2022-07-29 | 华为技术有限公司 | 视频解码方法及装置 |
WO2020177755A1 (en) | 2019-03-06 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Usage of converted uni-prediction candidate |
KR102610709B1 (ko) | 2019-04-02 | 2023-12-05 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 디코더 측 움직임 벡터 유도 |
US11616966B2 (en) * | 2019-04-03 | 2023-03-28 | Mediatek Inc. | Interaction between core transform and secondary transform |
CN113647102A (zh) * | 2019-04-09 | 2021-11-12 | 北京达佳互联信息技术有限公司 | 用于在视频编解码中用信号发送合并模式的方法和装置 |
US11496755B2 (en) | 2019-12-28 | 2022-11-08 | Tencent America LLC | Method and apparatus for video coding |
CN115955565B (zh) * | 2023-03-15 | 2023-07-04 | 深圳传音控股股份有限公司 | 处理方法、处理设备及存储介质 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5608458A (en) * | 1994-10-13 | 1997-03-04 | Lucent Technologies Inc. | Method and apparatus for a region-based approach to coding a sequence of video images |
KR100223170B1 (ko) * | 1996-07-22 | 1999-10-15 | 윤종용 | 영역기반 동영상부호화시스템의 영역분할 및움직임추정을 동시에최적화하기 위한 방법 및 장치 |
US6043846A (en) * | 1996-11-15 | 2000-03-28 | Matsushita Electric Industrial Co., Ltd. | Prediction apparatus and method for improving coding efficiency in scalable video coding |
EP0945022B1 (en) * | 1996-12-18 | 2003-02-26 | Thomson Consumer Electronics, Inc. | Efficient fixed-length block compression and decompression |
JP2004208259A (ja) * | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
US7720154B2 (en) * | 2004-11-12 | 2010-05-18 | Industrial Technology Research Institute | System and method for fast variable-size motion estimation |
KR100772873B1 (ko) * | 2006-01-12 | 2007-11-02 | 삼성전자주식회사 | 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더 |
JP4763549B2 (ja) * | 2006-08-18 | 2011-08-31 | 富士通セミコンダクター株式会社 | フレーム間予測処理装置、画像符号化装置、及び画像復号化装置 |
RU2426267C2 (ru) * | 2007-01-08 | 2011-08-10 | Нокиа Корпорейшн | Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала |
US8923399B2 (en) * | 2007-01-24 | 2014-12-30 | Lg Electronics Inc. | Method and an apparatus for processing a video signal |
RU2472305C2 (ru) * | 2007-02-23 | 2013-01-10 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ кодирования видео и способ декодирования видео, устройства для этого, программы для этого и носители хранения, на которых хранятся программы |
JP5666293B2 (ja) | 2007-04-12 | 2015-02-12 | トムソン ライセンシングThomson Licensing | ビデオ・エンコーディング、およびデコーディングのためのスキップ/ダイレクトモードのコンテクストに依存するマージのための方法と装置 |
BRPI0810517A2 (pt) * | 2007-06-12 | 2014-10-21 | Thomson Licensing | Métodos e aparelho suportando estrutura de sintaxe de vídeo de multipasso para dados de seção |
KR102139535B1 (ko) * | 2007-10-16 | 2020-07-30 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
JP2009239852A (ja) * | 2008-03-28 | 2009-10-15 | Fujifilm Corp | 画像処理装置及び画像処理方法 |
WO2010041855A2 (en) * | 2008-10-06 | 2010-04-15 | Lg Electronics Inc. | A method and an apparatus for processing a video signal |
KR100930744B1 (ko) * | 2009-03-04 | 2009-12-09 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
WO2011125211A1 (ja) * | 2010-04-08 | 2011-10-13 | 株式会社 東芝 | 画像符号化方法及び画像復号化方法 |
EP3703369B1 (en) * | 2010-04-13 | 2024-07-24 | GE Video Compression, LLC | Sample region merging |
KR101484281B1 (ko) * | 2010-07-09 | 2015-01-21 | 삼성전자주식회사 | 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치 |
-
2011
- 2011-01-21 KR KR20110006486A patent/KR101484281B1/ko active IP Right Grant
- 2011-07-07 EP EP18191860.8A patent/EP3442230B1/en active Active
- 2011-07-07 MY MYPI2013000069A patent/MY156223A/en unknown
- 2011-07-07 MY MYPI2015000881A patent/MY178325A/en unknown
- 2011-07-07 PT PT141935569T patent/PT2858366T/pt unknown
- 2011-07-07 ES ES14193556.9T patent/ES2614203T3/es active Active
- 2011-07-07 SG SG10201503383PA patent/SG10201503383PA/en unknown
- 2011-07-07 CN CN201510206248.8A patent/CN104869408B/zh active Active
- 2011-07-07 BR BR122020014007-0A patent/BR122020014007B1/pt active IP Right Grant
- 2011-07-07 SG SG2014001556A patent/SG196797A1/en unknown
- 2011-07-07 ES ES15166150.1T patent/ES2688033T3/es active Active
- 2011-07-07 CA CA2886724A patent/CA2886724C/en active Active
- 2011-07-07 CA CA2886964A patent/CA2886964C/en active Active
- 2011-07-07 MY MYPI2015000879A patent/MY178332A/en unknown
- 2011-07-07 PL PL14193556T patent/PL2858366T3/pl unknown
- 2011-07-07 PT PT118038066T patent/PT2580912T/pt unknown
- 2011-07-07 BR BR122020014021-6A patent/BR122020014021B1/pt active IP Right Grant
- 2011-07-07 DK DK11803806.6T patent/DK2580912T3/da active
- 2011-07-07 CN CN201510204652.1A patent/CN104869405B/zh active Active
- 2011-07-07 PL PL11803806T patent/PL2580912T3/pl unknown
- 2011-07-07 SI SI201131577T patent/SI2924996T1/sl unknown
- 2011-07-07 SG SG2013001276A patent/SG186970A1/en unknown
- 2011-07-07 LT LTEP15166150.1T patent/LT2924996T/lt unknown
- 2011-07-07 HU HUE11803806A patent/HUE031789T2/en unknown
- 2011-07-07 PL PL15166150T patent/PL2924996T3/pl unknown
- 2011-07-07 LT LTEP15166149.3T patent/LT2924995T/lt unknown
- 2011-07-07 RS RS20170127A patent/RS55668B1/sr unknown
- 2011-07-07 LT LTEP14193556.9T patent/LT2858366T/lt unknown
- 2011-07-07 LT LTEP11803806.6T patent/LT2580912T/lt unknown
- 2011-07-07 PT PT15166149T patent/PT2924995T/pt unknown
- 2011-07-07 RS RS20181078A patent/RS57674B1/sr unknown
- 2011-07-07 SG SG10201503378VA patent/SG10201503378VA/en unknown
- 2011-07-07 MY MYPI2015000880A patent/MY178329A/en unknown
- 2011-07-07 BR BR122020014018-6A patent/BR122020014018B1/pt active IP Right Grant
- 2011-07-07 SI SI201131096A patent/SI2897365T1/sl unknown
- 2011-07-07 ES ES11803806.6T patent/ES2613610T3/es active Active
- 2011-07-07 CA CA2886721A patent/CA2886721C/en active Active
- 2011-07-07 BR BR122020014015-1A patent/BR122020014015B1/pt active IP Right Grant
- 2011-07-07 CA CA2886960A patent/CA2886960C/en active Active
- 2011-07-07 CN CN201510204802.9A patent/CN104869406B/zh active Active
- 2011-07-07 TR TR2018/13132T patent/TR201813132T4/tr unknown
- 2011-07-07 BR BR112013000555-6A patent/BR112013000555B1/pt active IP Right Grant
- 2011-07-07 SG SG10201503381WA patent/SG10201503381WA/en unknown
- 2011-07-07 MY MYPI2014003581A patent/MY189716A/en unknown
- 2011-07-07 RS RS20170099A patent/RS55650B1/sr unknown
- 2011-07-07 LT LTEP15154330.3T patent/LT2897365T/lt unknown
- 2011-07-07 JP JP2013519569A patent/JP5738991B2/ja active Active
- 2011-07-07 RS RS20170128A patent/RS55677B1/sr unknown
- 2011-07-07 ES ES15154330.3T patent/ES2631031T3/es active Active
- 2011-07-07 HU HUE15166149A patent/HUE041270T2/hu unknown
- 2011-07-07 PT PT15166150T patent/PT2924996T/pt unknown
- 2011-07-07 HU HUE15154330A patent/HUE033265T2/en unknown
- 2011-07-07 PL PL15154330T patent/PL2897365T3/pl unknown
- 2011-07-07 CA CA2804780A patent/CA2804780C/en active Active
- 2011-07-07 MX MX2013000345A patent/MX2013000345A/es active IP Right Grant
- 2011-07-07 CN CN201510203206.9A patent/CN104869404B/zh active Active
- 2011-07-07 HU HUE14193556A patent/HUE033266T2/en unknown
- 2011-07-07 SG SG10201503379SA patent/SG10201503379SA/en unknown
- 2011-07-07 SI SI201131088A patent/SI2580912T1/sl unknown
- 2011-07-07 HU HUE15166150A patent/HUE041712T2/hu unknown
- 2011-07-07 EP EP15166150.1A patent/EP2924996B1/en active Active
- 2011-07-07 AU AU2011274722A patent/AU2011274722B2/en active Active
- 2011-07-07 ES ES15166149.3T patent/ES2688031T3/es active Active
- 2011-07-07 CN CN201180043660.2A patent/CN103155563B/zh active Active
- 2011-07-07 RU RU2013105501/08A patent/RU2013105501A/ru not_active Application Discontinuation
- 2011-07-07 SI SI201131095A patent/SI2858366T1/sl unknown
- 2011-07-07 PT PT151543303T patent/PT2897365T/pt unknown
- 2011-07-07 CN CN201510204900.2A patent/CN104869407B/zh active Active
-
2013
- 2013-01-22 ZA ZA2013/00578A patent/ZA201300578B/en unknown
-
2014
- 2014-05-07 KR KR1020140054390A patent/KR101524643B1/ko active IP Right Grant
- 2014-05-13 RU RU2014119390/08A patent/RU2586035C2/ru active
- 2014-07-30 KR KR1020140097620A patent/KR101529995B1/ko active IP Right Grant
- 2014-07-30 KR KR1020140097621A patent/KR101529996B1/ko active IP Right Grant
- 2014-07-30 KR KR1020140097622A patent/KR101559875B1/ko active IP Right Grant
- 2014-07-30 KR KR1020140097624A patent/KR101653274B1/ko active IP Right Grant
- 2014-07-30 KR KR1020140097623A patent/KR101559876B1/ko active IP Right Grant
-
2015
- 2015-02-26 JP JP2015037274A patent/JP5873195B2/ja active Active
- 2015-02-26 JP JP2015037276A patent/JP5945022B2/ja active Active
- 2015-02-26 JP JP2015037277A patent/JP5873196B2/ja active Active
- 2015-02-26 JP JP2015037275A patent/JP5945021B2/ja active Active
- 2015-04-23 PH PH12015500918A patent/PH12015500918B1/en unknown
- 2015-04-23 PH PH12015500917A patent/PH12015500917A1/en unknown
- 2015-04-23 PH PH12015500919A patent/PH12015500919B1/en unknown
- 2015-04-23 PH PH12015500916A patent/PH12015500916A1/en unknown
- 2015-05-13 RU RU2015117936/08A patent/RU2575990C1/ru active
- 2015-05-13 RU RU2015117985/08A patent/RU2575982C1/ru active
- 2015-05-13 RU RU2015117980/08A patent/RU2577182C1/ru active
- 2015-05-13 RU RU2015118007/08A patent/RU2575983C1/ru active
-
2017
- 2017-01-25 CY CY20171100103T patent/CY1118484T1/el unknown
- 2017-01-26 HR HRP20170129TT patent/HRP20170129T1/hr unknown
- 2017-02-02 HR HRP20170168TT patent/HRP20170168T1/hr unknown
- 2017-02-02 HR HRP20170169TT patent/HRP20170169T1/hr unknown
-
2018
- 2018-09-13 HR HRP20181468TT patent/HRP20181468T1/hr unknown
- 2018-09-13 HR HRP20181469TT patent/HRP20181469T1/hr unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2688033T3 (es) | Aparato para codificar vídeo usando fusión de bloques | |
ES2706485T3 (es) | Aparato de codificación de vídeo teniendo en cuenta la orden de exploración de unidades de codificación que tienen estructura jerárquica | |
ES2533304T3 (es) | Método y aparato para codificar vídeo por predicción de movimiento usando una partición arbitraria, y método y aparato para decodificar vídeo por predicción de movimiento usando una partición arbitraria | |
ES2811038T3 (es) | Procedimiento y aparato para codificar vídeo y aparato para decodificar vídeo considerando un orden de omisión y de división | |
ES2578609T3 (es) | Procedimiento y aparato de codificación de vídeo, y procedimiento y aparato de descodificación de vídeo | |
ES2612715T3 (es) | Procedimiento y aparato de codificación de vídeo y procedimiento y aparato de decodificación de vídeo, basándose en estructura jerárquica de unidad de codificación | |
ES2793963T3 (es) | Procedimiento de codificación y dispositivo de vídeo usando unidad de datos de estructura jerárquica, y procedimiento de decodificación y dispositivo del mismo | |
ES2691980T3 (es) | Procedimiento de decodificación de imágenes | |
ES2632573T3 (es) | Procedimiento y aparato para codificar vídeo mediante la compensación de valores de píxel de acuerdo con grupos de píxeles, y procedimiento y aparato para descodificar vídeo mediante la misma | |
BR122020013760B1 (pt) | Método para decodificar um vídeo através filtração em malha com base nas unidades de codificação, e aparelho de decodificação de vídeo para decodificar um vídeo através filtração em malha com base em unidades de codificação | |
BR122021004600B1 (pt) | Método de decodificar uma imagem, e método de codificação de uma imagem |