ES2633153B1 - Procedimiento y aparato para intra-predicción en pantalla - Google Patents
Procedimiento y aparato para intra-predicción en pantalla Download PDFInfo
- Publication number
- ES2633153B1 ES2633153B1 ES201731046A ES201731046A ES2633153B1 ES 2633153 B1 ES2633153 B1 ES 2633153B1 ES 201731046 A ES201731046 A ES 201731046A ES 201731046 A ES201731046 A ES 201731046A ES 2633153 B1 ES2633153 B1 ES 2633153B1
- Authority
- ES
- Spain
- Prior art keywords
- prediction
- block
- pixel
- pixels
- intra
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/48—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Procedimiento y aparato para intra-predicción en pantalla.#La presente invención se refiere a un procedimiento y aparato para la intra-predicción. El procedimiento de intra-predicción para un descodificador, según la presente invención, comprende las etapas de descodificación por entropía de un flujo de bits recibido, la generación de píxeles de referencia a usar en la intra-predicción de una unidad de predicción; la generación de un bloque de predicción a partir de los píxeles de referencia, en base a una modalidad de predicción para la unidad de predicción, y la reconstrucción de una imagen a partir del bloque de predicción y un bloque residual, que se obtiene como resultado de la codificación por entropía, en donde los píxeles de referencia y/o los píxeles del bloque de predicción son predichos en base a un píxel de base, y el valor del píxel predicho puede ser la suma del valor de píxel del píxel de base y la diferencia entre los valores de pixel del pixel de base y el pixel generado.
Description
5
10
15
20
25
30
Otro aspecto más de la presente invención es proporcionar un procedimiento de generación de un píxel de referencia sobre la base de un bloque vecino intra-modal, en una posición de un píxel vecino en modalidad de inter-predicción, y utilizar el píxel de referencia para la intra- predicción cuando se emplea la intra-predicción restringida (CIP).
Otro aspecto más de la presente invención es proporcionar un procedimiento de generación de un píxel de referencia teniendo en cuenta las variaciones en el valor del píxel cuando se genera el píxel de referencia sobre la base de un bloque vecino intra-modal, en una posición de píxel vecino en modalidad de inter-predicción.
Solución Técnica
Una realización de la presente invención proporciona un procedimiento de intra-predicción de un codificador, incluyendo el procedimiento la generación de píxeles de referencia para la intra-predicción con respecto a una unidad de predicción de entrada, la determinación de una intra-modalidad para la unidad de predicción, la generación de un bloque de predicción basada en los píxeles de referencia y la intra-modalidad, y la generación de un bloque residual para la unidad de predicción y el bloque de predicción, en el que al menos uno de los píxeles de referencia y los píxeles del bloque de predicción se predice sobre la base de un píxel de base, y un valor de píxel del píxel predicho es una suma de un valor de píxel del píxel de base y una variación en el valor de píxel entre el píxel de base y el píxel generado.
Un píxel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de predicción, se puede establecer como un primer píxel de base, un valor obtenido mediante la aplicación de una variación en el valor de píxel entre el primer píxel de base y un píxel más bajo entre los píxeles de referencia de un bloque vecino, dispuesto en un límite izquierdo del bloque de predicción, y una variación en el valor de píxel entre el primer píxel de base y un píxel más a la derecha entre los píxeles de referencia de un bloque vecino, dispuesto en un límite superior del bloque de predicción con respecto al píxel de base, puede ser fijado como un valor de píxel de un segundo píxel de base, como un píxel en diagonal en una esquina inferior derecha del bloque de predicción, y los valores de píxel de los píxeles de la diagonal del bloque de predicción se pueden predecir a partir del primer píxel de base y del segundo píxel de base.
5
10
15
20
25
30
Aquí, los píxeles no diagonales del bloque de predicción se predicen por interpolación o extrapolación utilizando los píxeles diagonales y los píxeles de los bloques vecinos en los límites superior y / o izquierdo del bloque de predicción.
Además, un píxel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de predicción, se puede establecer como el píxel de base, y un valor obtenido mediante la aplicación de una variación en el valor de píxel entre el píxel de base y un píxel vecino, dispuesto en la misma fila como un píxel de destino de predicción entre los píxeles de referencia de un bloque vecino, dispuesto en un límite izquierdo del bloque de predicción, y una variación en el valor de píxel entre el píxel de base y un píxel vecino, dispuesto en la misma columna que el píxel de destino de predicción, entre los píxeles de referencia de un bloque vecino, dispuesto en un límite superior del bloque de predicción con respecto al píxel de base, puede ser predicho como un valor de píxel del píxel de destino de predicción.
Además, un píxel dispuesto en la misma fila o columna que un píxel de destino de predicción, entre los píxeles de los bloques vecinos, dispuestos en el límite izquierdo o superior del bloque de predicción, se puede establecer como el píxel de base, y un valor obtenido mediante la aplicación de una variación en el valor de píxel, entre el píxel de base y el píxel de predicción, para el píxel de base puede ser predicho como un valor de píxel del píxel de destino de predicción.
Aquí, el píxel de destino de predicción puede ser un píxel diagonal del bloque de predicción, y un píxel no diagonal del bloque de predicción puede ser predicho por interpolación, usando el píxel diagonal y los píxeles de los bloques vecinos.
El procedimiento de intra-predicción puede incluir además la generación de un píxel de referencia, dispuesto en un límite entre un bloque inter-modal y la unidad de predicción cuando un bloque vecino a la unidad de predicción es el bloque inter-modal, en el que un píxel dispuesto en un límite de la unidad de predicción, entre los píxeles de un bloque intra- modal, dispuesto en un lado izquierdo o en el lado inferior del píxel de referencia, puede establecerse como un primer píxel de base, un píxel dispuesto en el límite de la unidad de predicción, entre los píxeles de un bloque intra-modal, dispuesto sobre un lado derecho o un lado superior del píxel de referencia, se puede establecer como un segundo píxel de base, y
5
10
15
20
25
30
el píxel de referencia puede ser generado sobre la base de una distancia entre el primer píxel de base y el píxel de referencia, y una distancia desde el segundo píxel de base al píxel de referencia.
Aquí, un valor de píxel del primer píxel de base puede ser un valor de píxel promedio de los píxeles dispuestos en el límite de la unidad de predicción, entre los píxeles del bloque intra- modal al que pertenece el primer píxel de base, y un valor de píxel del segundo píxel de base puede ser un valor medio de píxel de los píxeles dispuestos en el límite de la unidad de predicción, entre los píxeles del bloque intra-modal al que pertenece la segunda referencia de base. Además, un valor de píxel del primer píxel de base puede ser un valor de píxel del píxel de referencia cuando un bloque intra-modal está dispuesto sólo en el lado izquierdo o en el lado inferior del píxel de referencia, y un valor de píxel del segundo píxel de base puede ser un valor de píxel del píxel de referencia, cuando un bloque intra-modal está dispuesto sólo en el lado derecho o el lado superior del píxel de referencia.
Otra realización de la presente invención proporciona un procedimiento de intra-predicción de un descodificador, incluyendo el procedimiento la descodificación por entropía de un flujo de bits recibido, la generación de un píxel de referencia utilizado para la intra-predicción de una unidad de predicción, la generación de un bloque de predicción desde el píxel de referencia sobre la base de una modalidad de predicción para la unidad de predicción, y la reconstrucción de una imagen a partir de un bloque residual obtenido por la descodificación por entropía, y del bloque de predicción, en el que al menos uno de los píxeles de referencia y los píxeles del bloque de predicción se predice sobre la base de un píxel de base, y un valor de píxel del píxel predicho es una suma de un valor de píxel del píxel de base y una variación en el valor de píxel entre el píxel de base y el píxel generado.
Un píxel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de predicción, se puede establecer como un primer píxel de base, un valor obtenido mediante la aplicación de una variación en el valor de píxel entre el primer píxel de base y un píxel más bajo entre los píxeles de referencia de un bloque vecino, dispuesto en un límite izquierdo del bloque de predicción, y una variación en el valor de píxel entre el primer píxel de base y un píxel más a la derecha entre los píxeles de referencia de un bloque vecino, dispuesto en un límite superior del bloque de predicción con respecto al píxel de base, puede ser fijado como un valor de píxel de un segundo píxel de base, como un píxel en
5
10
15
20
25
30
diagonal en una esquina inferior derecha del bloque de predicción, y los valores de píxel de los píxeles de la diagonal del bloque de predicción se pueden predecir a partir del primer píxel de base y del segundo píxel de base.
Aquí, los píxeles no diagonales del bloque de predicción pueden ser predichos por interpolación o extrapolación, utilizando los píxeles diagonales y los píxeles de los bloques vecinos en los límites superiores y / o izquierdos del bloque de predicción.
Un píxel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de predicción, se puede establecer como el píxel de base, y un valor obtenido mediante la aplicación de una variación en el valor de píxel, entre el píxel de base y un píxel vecino, dispuesto en la misma fila que un píxel de destino de predicción, entre los píxeles de referencia de un bloque vecino, dispuesto en un límite izquierdo del bloque de predicción, y una variación en el valor de píxel, entre el píxel de base y un píxel vecino, dispuesto en la misma columna que el píxel de destino de predicción, entre los píxeles de referencia de un bloque vecino, dispuesto en un límite superior del bloque de predicción con respecto al píxel de base, puede ser predicho como un valor de píxel del píxel de destino de predicción.
Además, un píxel dispuesto en la misma fila o columna que un píxel de destino de predicción, entre los píxeles de los bloques vecinos, dispuestos en un límite izquierdo o superior del bloque de predicción, se puede establecer como el píxel de base, y un valor obtenido mediante la aplicación de una variación en el valor de píxel, entre el píxel de base y el píxel de predicción, para el píxel de base puede ser predicho como un valor de píxel del píxel de destino de predicción.
Aquí, el píxel de destino de predicción puede ser un píxel diagonal del bloque de predicción, y un píxel no diagonal del bloque de predicción puede ser predicho por interpolación, usando el píxel diagonal y los píxeles de los bloques vecinos.
La intra-predicción puede incluir además la generación de un píxel de referencia, dispuesto en un límite entre un bloque intra-modal y la unidad de predicción, cuando un bloque vecino a la unidad de predicción es el bloque inter-modal, en el que un píxel dispuesto en un límite de la unidad de predicción, entre los píxeles de un bloque intra-modal, dispuesto en un lado izquierdo o en un lado inferior del píxel de referencia, puede ser establecido como un primer
5
10
15
20
25
30
píxel de base, un píxel dispuesto en el límite de la unidad de predicción, entre los píxeles de un bloque intra-modal, dispuesto sobre un lado derecho o un lado superior del píxel de referencia, se puede establecer como un segundo píxel de base, y el píxel de referencia puede ser generado sobre la base de una distancia entre el primer píxel de base y el píxel de referencia, y una distancia entre el segundo píxel de base y el píxel de referencia.
Aquí, un valor de píxel del primer píxel de base puede ser un valor de píxel promedio de píxeles dispuestos en el límite de la unidad de predicción, entre los píxeles del bloque intra- modal al que pertenece el primer píxel de base, y un valor de píxel del segundo píxel de base puede ser un valor medio de píxel de los píxeles dispuestos en el límite de la unidad de predicción, entre los píxeles del bloque intra-modal al que pertenece la segunda referencia de base. Además, un valor de píxel del primer píxel de base puede ser un valor de píxel del píxel de referencia cuando un bloque intra-modal está dispuesto sólo en el lado izquierdo o en el lado inferior del píxel de referencia, y un valor de píxel del segundo píxel de base puede ser un valor de píxel del píxel de referencia, cuando un bloque intra-modal está dispuesto sólo en el lado derecho o el lado superior del píxel de referencia.
El descodificador puede adquirir una instrucción para generar los píxeles del bloque de predicción, en base al píxel de base, mediante la descodificación por entropía. Además, el descodificador puede adquirir una instrucción para generar los píxeles de referencia, en base al píxel de base, mediante la descodificación por entropía.
Efectos ventajosos
Como se ha descrito anteriormente, de acuerdo a la presente invención, la intra-predicción sobre una textura con direccionalidad puede lograrse efectivamente, en consideración de las variaciones de los píxeles de referencia de los bloques vecinos.
Además, la predicción plana puede llevarse a cabo teniendo en cuenta las variaciones en los valores de píxeles de los bloques vecinos con respecto a un bloque de predicción, mejorando así la eficacia de la predicción.
Además, cuando se emplea la intra-predicción restringida (CIP), se genera un píxel de referencia sobre la base de un bloque vecino intra-modal, en una posición de un píxel vecino
5
10
15
20
25
30
intra-modal, y se utiliza para la intra-predicción, teniendo en cuenta las variaciones en el valor de píxel, mejorando por ello la eficacia de la predicción.
Descripción de los dibujos
La FIG. 1 es un diagrama de bloques que ilustra una configuración de un codificador de vídeo de acuerdo a una realización ejemplar de la presente invención.
La FIG. 2 es un diagrama de bloques que ilustra esquemáticamente una configuración de un módulo de intra-predicción, de acuerdo a una realización ejemplar de la presente invención.
La FIG. 3 es un diagrama de bloques que ilustra una configuración de un descodificador de vídeo, de acuerdo a una realización ejemplar de la presente invención.
La FIG. 4 ilustra esquemáticamente un procedimiento de predicción plana.
La FIG. 5 ilustra esquemáticamente un procedimiento alternativo de predicción plana.
La FIG. 6 ilustra esquemáticamente que un píxel diagonal de un bloque actual de predicción se predice primero.
La FIG. 7 ilustra esquemáticamente un procedimiento de obtención de otros valores de píxel en el bloque de predicción, en base al píxel diagonal.
La FIG. 8 ilustra esquemáticamente un procedimiento de predicción de un valor de píxel teniendo en cuenta un valor de píxel de referencia y una variación con respecto a un píxel de referencia.
La FIG. 9 ilustra esquemáticamente un procedimiento de obtención, primero, de píxeles diagonales de un bloque de predicción y luego, los valores de píxel de los píxeles restantes.
La FIG. 10 ilustra esquemáticamente que los píxeles diagonales se obtienen primero y que los píxeles distintos a los píxeles diagonales se obtienen en el mismo procedimiento que se utiliza para los píxeles diagonales.
5
10
15
20
25
30
La FIG. 11 ilustra esquemáticamente un procedimiento de CIP.
La FIG. 12 ilustra esquemáticamente un procedimiento alternativo de CIP.
La FIG. 13 ilustra esquemáticamente que un sistema de acuerdo a la presente invención lleva a cabo la CIP en consideración de las variaciones en el valor de píxel.
La FIG. 14 es un diagrama de flujo que ilustra esquemáticamente una operación del codificador en el sistema de acuerdo a la presente invención.
La FIG. 15 ilustra una dirección de predicción de una modalidad de intra-predicción. La FIG. 16 es un diagrama de flujo que ilustra esquemáticamente una operación del descodificador en el sistema de acuerdo a la presente invención.
Modo de Invención
Aunque los elementos mostrados en los dibujos se muestran de forma independiente, con el fin de describir diferentes características y funciones de un codificador / descodificador de vídeo, una configuración de este tipo no indica que cada elemento esté construido por un componente de hardware o componente de software por separado. Es decir, los elementos están dispuestos de forma independiente y por lo menos dos elementos se pueden combinar en un solo elemento, o bien un solo elemento se pueden dividir en una pluralidad de elementos para realizar funciones. Es de señalar que las realizaciones en las que algunos elementos se integran en un elemento combinado y / o un elemento se divide en múltiples elementos separados, están incluidas en el ámbito de la presente invención, sin apartarse de la esencia de la presente invención.
En lo sucesivo, las realizaciones ejemplares de la presente invención se describirán en detalle con referencia a los dibujos adjuntos. Los números iguales de referencia en los dibujos se refieren a elementos iguales en toda su extensión, y las descripciones redundantes de elementos iguales se omitirán en el presente documento.
La FIG. 1 es un diagrama de bloques que ilustra una configuración de un codificador de vídeo de acuerdo a una realización ejemplar de la presente invención. Haciendo referencia a
5
10
15
20
25
30
la FIG. 1, el codificador de vídeo incluye un módulo 110 de partición de imágenes, un módulo 120 de inter-predicción, un módulo 125 de intra-predicción, un módulo 130 de transformación, un módulo 135 de cuantización, un módulo 140 de descuantización, un módulo 145 de transformación inversa, un filtro 150 de desbloqueo, una memoria 160, un módulo 165 de reordenamiento y un módulo 170 de codificación por entropía. El módulo 110 de partición de imágenes puede recibir la entrada de una imagen actual y dividir la imagen en al menos una unidad de codificación. Una unidad de codificación es una unidad de codificación realizada por el codificador de vídeo y puede ser también denominada una CU. Una unidad de codificación puede ser subdividida recursivamente, con una profundidad basada en una estructura de árbol de cuatro ramas. Una unidad de codificación que tiene un tamaño máximo se denomina una unidad máxima de codificación (LCU), y una unidad de codificación con un tamaño mínimo, una unidad mínima de codificación (SCU). Una unidad de codificación puede tener un tamaño de 8 x 8, 16 x 16, 32 x 32 o 64 x 64. El módulo 110 de partición de imágenes puede partir o dividir la unidad de codificación para generar una unidad de predicción y una unidad de transformación. La unidad de predicción puede ser también denominada una PU, y la unidad de transformación puede ser también denominada una TU.
En una modalidad de inter-predicción, el módulo 120 de inter-predicción puede llevar a cabo la estimación de movimiento (ME) y la compensación de movimiento (MC). El módulo 120 de inter-predicción genera un bloque de predicción basado en la información sobre al menos una de las imágenes anteriores y posteriores de la imagen actual, lo que puede denominarse una predicción entre tramas.
El módulo 120 de inter-predicción está provisto de un bloque de destino de predicción particionado y al menos un bloque de referencia almacenado en la memoria 160. El módulo 120 de inter-predicción realiza la estimación del movimiento usando el bloque de destino de predicción y el bloque de referencia. El módulo 120 de inter-predicción genera información de movimiento que incluye un vector de movimiento (MV), un índice del bloque de referencia y una modalidad de predicción como resultado de la estimación de movimiento.
Además, el módulo 120 de inter-predicción realiza la compensación de movimiento utilizando la información de movimiento y el bloque de referencia. Aquí, el módulo 120 de inter-predicción genera y emite un bloque de predicción que corresponde a un bloque de
5
10
15
20
25
30
entrada desde el bloque de referencia.
La información de movimiento es codificada por entropía para formar un flujo de bits comprimido, que se transmite desde el codificador de vídeo a un descodificador de vídeo. En una modalidad de intra-predicción, el módulo 125 de intra-predicción puede generar un bloque de predicción en base a la información sobre un píxel en la imagen actual. La intra- predicción también se denomina predicción intra-trama. En la modalidad de intra-predicción, un bloque de destino de predicción y un bloque reconstruido, reconstruido mediante la codificación y descodificación, son introducidos en el módulo 125 de intra-predicción. Aquí, el bloque reconstruido es una imagen que no ha sido sometida al filtro de desbloqueo. El bloque reconstruido puede ser un bloque de predicción anterior.
La FIG. 2 es un diagrama de bloques que ilustra esquemáticamente una configuración del módulo de intra-predicción, de acuerdo a una realización ejemplar de la presente invención.
Haciendo referencia a la FIG. 2, el módulo de intra-predicción incluye un módulo 210 de generación de píxeles de referencia, un módulo 220 de determinación de modalidad de intra-predicción y un módulo 230 de generación de bloques de predicción.
El módulo 210 de generación de píxeles de referencia genera un píxel de referencia necesario para la intra-predicción. Los píxeles en una línea vertical en el extremo derecho de un bloque izquierdo vecino a un bloque de destino de predicción y los píxeles en una línea horizontal más baja de un bloque superior vecino a un bloque de destino de predicción se utilizan para generar el píxel de referencia. Por ejemplo, cuando el bloque de destino de predicción tiene un tamaño N, 2N píxeles en cada una de las direcciones izquierda y superior se usan como píxeles de referencia. El píxel de referencia se puede utilizar tal como está o mediante el filtrado de intra-allanamiento adaptable (AIS). Cuando el píxel de referencia se somete al filtrado AIS, se señaliza la información acerca del filtrado AIS. El módulo 220 de determinación de modalidad de intra-predicción recibe la entrada del bloque de destino de predicción y el bloque reconstruido. El módulo 220 de determinación de la modalidad de intra-predicción selecciona una modalidad que reduzca al mínimo la cantidad de información a codificar entre las modalidades de predicción, utilizando la imagen de entrada y la información de salidas en la modalidad de predicción. Aquí, se puede usar una función de coste prefijado, o una transformada de Hadamard.
5
10
15
20
25
30
El módulo 230 de generación de bloques de predicción recibe la entrada de la información sobre la modalidad de predicción y el píxel de referencia. El módulo 230 de generación de bloques de predicción predice espacialmente y compensa un valor de píxel del bloque de destino de predicción, utilizando la información sobre la modalidad de predicción y un valor de píxel del píxel de referencia, generando por ello un bloque de predicción.
La información sobre la modalidad de predicción es codificada por entropía para formar un flujo de bits comprimido junto con los datos de vídeo, y transmitida desde el codificador de vídeo al descodificador de vídeo. El descodificador de vídeo utiliza la información sobre la modalidad de predicción cuando genera un bloque de intra-predicción.
Con referencia nuevamente a la FIG. 1, un bloque diferencial se genera por diferencia entre el bloque de destino de predicción y el bloque de predicción generado en la modalidad de inter-predicción o intra-predicción, y se introduce en el módulo 130 de transformación. El módulo 130 de transformación transforma el bloque diferencial en una unidad de transformación, para generar un coeficiente de transformación.
Un bloque de transformación con una unidad de transformación tiene una estructura de árbol de cuatro ramas, dentro de tamaños máximos y mínimos y, por lo tanto, no está limitado a un tamaño predeterminado. Cada bloque de transformación tiene una señal que indica si el bloque actual está o no dividido en sub-bloques, en donde, cuando la señal es 1, el bloque de transformación actual puede estar dividido en cuatro sub-bloques. La transformación discreta del coseno (DCT) se puede utilizar para la transformación.
El módulo 135 de cuantización puede cuantizar los valores transformados por el módulo 130 de transformación. Un coeficiente de cuantización puede cambiar sobre la base de un bloque o la importancia de una imagen. El coeficiente de transformación cuantizado puede ser proporcionado al módulo 165 de reordenamiento y al módulo 140 de descuantización. El módulo 165 de reordenamiento puede cambiar un bloque bidimensional (2D) de los coeficientes de transformación en un vector unidimensional (1D) de coeficientes de transformación, mediante el escaneo, con el fin de mejorar la eficacia en la codificación por entropía. El módulo 165 de reordenamiento puede cambiar el orden de escaneo en base a estadísticas estocásticas para mejorar la eficacia de la codificación por entropía.
5
10
15
20
25
30
El módulo 170 de codificación por entropía codifica por entropía los valores obtenidos por el módulo 165 de reordenamiento, y los valores codificados conforman un flujo de bits comprimido, que se almacena o transmite a través de una capa de abstracción de red (NAL).
El módulo 140 de descuantización recibe y descuantiza los coeficientes de transformación cuantizados por el módulo 135 de cuantización, y el módulo 145 de transformación inversa transforma inversamente los coeficientes de la transformación, generando por ello un bloque diferencial reconstruido. El bloque diferencial reconstruido se fusiona con el bloque de predicción generado por el módulo 120 de inter-predicción o el módulo 125 de intra- predicción, para generar un bloque reconstruido. El bloque reconstruido se proporciona al módulo 125 de intra-predicción y al filtro 150 de desbloqueo.
El filtro 150 de desbloqueo filtra el bloque reconstruido para eliminar una distorsión en un límite entre bloques que se produce en los procesos de codificación y descodificación, y proporciona un resultado filtrado a un filtro de bucle adaptable (ALF) 155.
El ALF 155 realiza el filtrado para reducir al mínimo un error entre el bloque de destino de predicción y el bloque final reconstruido. El ALF 155 realiza el filtrado en base a un valor que resulta de comparar el bloque reconstruido filtrado por el filtro 150 de desbloqueo y el bloque actual de destino de predicción, y una información de coeficiente de filtro en el ALF 155 se carga en una cabecera de tajada y se transmite desde el codificador al descodificador.
La memoria 160 puede almacenar el bloque reconstruido final, obtenido a través del ALF 155, y el bloque reconstruido almacenado (final) puede ser proporcionado al módulo 120 de inter-predicción para llevar a cabo la inter-predicción.
La FIG. 3 es un diagrama de bloques que ilustra una configuración de un descodificador de vídeo de acuerdo a una realización ejemplar de la presente invención. Haciendo referencia a la FIG. 3 , el descodificador de vídeo incluye un módulo 310 de descodificación por entropía, un módulo 315 de reordenamiento, un módulo 320 de descuantización, un módulo 325 de transformación inversa, un módulo 330 de inter-predicción, un módulo 335 de intra- predicción, un filtro 340 de desbloqueo, un ALF 345 y una memoria 350.
El módulo 310 de descodificación por entropía recibe un flujo de bits comprimido desde una NAL. El módulo 310 de descodificación por entropía descodifica por entropía el flujo de bits
5
10
15
20
25
30
recibido, y también descodifica por entropía una modalidad de predicción y la información de vectores de movimiento, si el flujo de bits incluye la modalidad de predicción y la información de vectores de movimiento. Un coeficiente de transformación, o señal diferencial, descodificado por entropía se proporciona al 315 módulo de reordenamiento. El módulo 315 de reordenamiento escanea inversamente el coeficiente de transformación, o señal diferencial, para generar un bloque bidimensional de coeficientes de transformación.
El módulo 320 de descuantización recibe y descuantiza los coeficientes de transformación descodificados por entropía y reordenados. El módulo 325 de transformación inversa transforma inversamente los coeficientes de transformación descuantizados para generar un bloque diferencial.
El bloque diferencial puede fusionarse con un bloque de predicción generado por el módulo 330 de inter-predicción o el módulo 335 de intra-predicción, para generar un bloque reconstruido. El bloque reconstruido se proporciona al módulo 335 de intra-predicción y al filtro 340 de desbloqueo. El módulo 330 de inter-predicción y el módulo 335 de intra- predicción pueden realizar las mismas operaciones que el módulo 120 de inter-predicción y el módulo 125 de intra-predicción del codificador de vídeo.
El filtro 340 de desbloqueo filtra el bloque reconstruido para eliminar una distorsión en un límite entre bloques que se produce en los procesos de codificación y descodificación, y proporciona un resultado filtrado al ALF 345. El ALF 345 realiza el filtrado para reducir al mínimo un error entre el bloque de destino de predicción y el bloque finalmente reconstruido. La memoria 160 puede almacenar el bloque final reconstruido obtenido a través del ALF 345, y el bloque reconstruido almacenado (final) puede ser proporcionado al módulo 330 de inter-predicción para llevar a cabo la inter-predicción.
Mientras tanto, en una zona con cambios insignificantes en la textura, por ejemplo, un fondo monótono del cielo o del mar, se usa la intra-predicción plana para mejorar aún más la eficacia de codificación.
La intra-predicción se clasifica en predicción direccional, predicción DC y predicción plana, en donde la predicción plana puede ser un concepto ampliado de la predicción DC. Aunque la predicción plana puede ser incluida, a grandes rasgos, en la predicción DC, la predicción plana puede cubrir un procedimiento de predicción del que no se ocupa la predicción DC.
5
10
15
20
25
30
Por ejemplo, la predicción DC es preferible para una textura uniforme, mientras que la predicción plana es eficaz para la predicción de bloque, en un píxel, de valores que tengan direccionalidad.
La presente memoria ilustra un procedimiento para mejorar la eficacia de la predicción plana con respecto a una textura con direccionalidad, utilizando variaciones en los valores de píxel de los píxeles de referencia de los bloques vecinos.
La FIG. 4 ilustra esquemáticamente un procedimiento de predicción plana.
Haciendo referencia a la FIG. 4 (A), se predice un valor 425 de píxel de un píxel en una esquina inferior derecha de un bloque actual 420. El valor 425 de píxel del píxel en la esquina inferior derecha del bloque actual se puede predecir como un valor DC. Haciendo referencia a la FIG. 4 (B), se predicen los valores de píxel de los píxeles situados en un límite derecho del bloque actual, y los valores de píxel de los píxeles situados en un límite inferior del bloque actual. Por ejemplo, un valor 445 de píxel situado en la frontera derecha del bloque actual puede ser predicho por interpolación lineal de un valor 450 de píxel de un bloque superior y el valor 425 de DC. Además, un valor 435 de píxel situado en el límite inferior del bloque actual puede ser predicho por interpolación lineal de un valor 430 de píxel de un bloque izquierdo y el valor 425 de DC.
Haciendo referencia a la FIG. 4 (C), los valores de píxel de los píxeles restantes, distintos al píxel de la esquina inferior derecha, los píxeles en el límite derecho y los píxeles en el límite inferior en el bloque actual, se puede predecir mediante interpolación bilineal, utilizando los valores de píxeles de los bloques superior e izquierdo y los valores de píxeles ya predichos en el bloque actual. Por ejemplo, un valor 475 de píxel en el bloque actual se puede predecir por interpolación usando un valor 460 de píxel del bloque superior, un valor 455 de píxel del bloque izquierdo, el valor 445 de píxel ya predicho situado en el límite derecho del bloque actual y el valor 435 de píxel ya predicho situado en el límite inferior del bloque actual.
Haciendo referencia a la FIG. 4 (D), las muestras de predicción (muestras predichas) obtenidas mediante el proceso anterior pueden ser refinadas. Por ejemplo, un valor X 485 de píxel en el bloque actual puede ser refinado utilizando un valor T 480 de muestra superior y un valor L 490 de muestra izquierda. Específicamente, el X' refinado a partir de X se puede
5
10
15
20
25
30
obtener por X' = {(X << 1) + L + T + 1} >> 2. Aquí, "x << y" indica que la expresión entera de x complementaria al dos se desplaza aritméticamente a la izquierda en una unidad binaria y, mientras que "x >> y" indica que la expresión entera de x complementaria al dos se desplaza aritméticamente a la derecha en la unidad binaria y.
La FIG. 5 ilustra esquemáticamente un procedimiento alternativo de predicción plana. En el procedimiento de la FIG. 5, los valores de píxel de los píxeles situados en diagonal en un píxel actual se predicen primero, y los valores de píxel de los píxeles restantes en el bloque actual se predicen usando los valores de píxel predichos. Para facilitar la descripción, los píxeles situados en diagonal desde la parte superior izquierda a la inferior derecha, entre los píxeles que construyen el bloque, se denominan píxeles diagonales a continuación.
Haciendo referencia a la FIG. 5 (A), los valores de píxel de los píxeles diagonales 540 de un bloque actual 510 se predicen usando un valor 520 de píxel de un bloque de referencia superior y un valor 530 de píxel de un bloque de referencia izquierdo. Por ejemplo, un valor de píxel de un píxel P diagonal en el bloque actual se puede obtener utilizando un valor de píxel de un píxel RefSuperior situado en un límite entre el bloque actual y el bloque superior entre los píxeles del bloque superior, y un valor de píxel de un píxel RefIzquierda situado en el límite entre el bloque actual y el bloque izquierdo, entre los píxeles del bloque izquierdo, mediante P = (RefIzquierda + RefSuperior +1) >> 1.
Haciendo referencia a la FIG. 5 (B), los valores de píxel de los píxeles en el bloque actual 510, distintos a los píxeles diagonales 540, se pueden obtener por interpolación lineal, utilizando el valor de píxel obtenido en la FIG. 5 (A) y los valores de píxel de los píxeles de los bloques superior e izquierdo en los límites. Por ejemplo, P1 se puede obtener usando el píxel RefSuperior del bloque superior y el píxel P diagonal obtenido, mediante P1 = (RefSuperior * d2 + P * d1) / (d1 + d2). Además, P2 se puede obtener mediante P2 = (RefIzquierda * d3 + P * d4) (d3 + d4).
Mientras tanto, los procedimientos de predicción plana ilustrados en las FIGS. 4 y 5 son eficaces para una textura uniforme sin direccionalidad, mientras que estos procedimientos pueden tener eficacia reducida en la predicción en un caso de una textura con direccionalidad, tales como los píxeles luma, en los que la luminancia cambia esencialmente en una dirección, por ejemplo, una dirección horizontal, pero apenas cambia en otra dirección, por ejemplo, una dirección vertical.
5
10
15
20
25
30
Por lo tanto, puede ser necesaria la intra-predicción plana, teniendo en cuenta las variaciones en los valores de píxel. La intra-predicción plana según la presente invención selecciona o predice un valor de píxel de base y aplica las variaciones en los valores de píxeles, entre un píxel de base y un píxel de destino, en el valor del píxel de base, prediciendo por ello un valor de píxel del píxel de destino.
En lo sucesivo, se describirán ejemplos de la presente invención con referencia a los dibujos.
Ejemplo 1
La FIG. 6 ilustra esquemáticamente que un píxel diagonal Pii de un bloque de predicción actual se predice primero. Aunque la FIG. 6 ilustra un bloque de predicción de 8 x 8, para facilitar la descripción, la presente invención puede también ser aplicada a un bloque de predicción de N x N, sin estar limitada al bloque de predicción de 8 x 8.
En el Ejemplo 1 mostrado en la FIG. 6, los píxeles diagonales del bloque de predicción actual se predicen primero en base a un píxel de referencia (Ri0 y / o R0j, 0 < i , j < 8 en el caso de un bloque de predicción de 8 x 8) de un bloque de referencia vecino al bloque de predicción actual.
Es decir, después de que se obtienen los píxeles diagonales Pii, otros valores de píxel en el bloque de predicción se pueden obtener por interpolación o extrapolación, usando valores (Rij) de píxeles de referencia del bloque vecino, y los Pii.
La FIG. 7 ilustra esquemáticamente un procedimiento de obtención de los otros valores de píxel en el bloque de predicción en base a los píxeles diagonales.
En la presente invención, la predicción plana se lleva a cabo en consideración de los cambios en los valores de píxeles. Por ejemplo, como se muestra en la FIG. 7 (A), cuando los valores de píxeles de referencia aumentan tanto en una dirección x (a la derecha) como en una dirección y (hacia abajo), también es más probable que los valores de píxel en el bloque de predicción aumenten en una dirección inferior derecha. En este caso, un valor de
5
10
15
20
25
30
píxel de P88 en una esquina inferior derecha del bloque de predicción puede predecirse primero, y otros píxeles pueden ser predichos en base al valor de píxel de P88.
Para predecir el valor de P88, definiendo un valor de píxel del píxel R00 de referencia en una esquina superior izquierda del bloque de predicción actual como un valor de píxel del píxel de base, una variación, entre el píxel de base y el píxel P88 de destino de predicción en el bloque de predicción, puede ser aplicada al valor de píxel del píxel de base. Por ejemplo, un valor de píxel del píxel de destino P88 puede ser obtenido por la Ecuación 1. Para facilitar la descripción, los Rij, o los Pij, ilustrados en los dibujos y la memoria se presentan como Rij y Pij.
[Ecuación 1]
Cuando se obtiene P88, los otros píxeles diagonales Pii pueden ser obtenidos por la Ecuación 2.
[Ecuación 2]
En este caso, dado que el presente ejemplo ilustra el bloque de predicción de 8 x 8, i puede ser 1, 2, ..., 8. Aunque el Ejemplo 1 ilustra el bloque de predicción de 8 x 8 para facilitar la descripción, en un bloque de predicción de N x N, los Pii pueden obtenerse como Pii = R00 + (i / N) P88.
Como se muestra en la FIG. 7 (B), incluso cuando el valor del píxel de referencia disminuye tanto en la dirección x (a la derecha) como en la dirección y (hacia abajo), un valor de píxel de P88 en la esquina inferior derecha del bloque de predicción se puede obtener en consideración de las variaciones en los valores de píxel decrecientes, y los demás valores
18
5
10
15
20
25
30
de los píxeles pueden ser predichos basándose en el valor de píxel de P88. En este caso, P88 puede ser obtenido por la Ecuación 3.
[Ecuación 3]
Cuando se obtiene P88, los otros píxeles diagonales en el bloque de predicción se pueden obtener por la Ecuación 4.
[Ecuación 4]
Aquí, i puede ser 1,2, ..., 8.
Como se muestra en la FIG. 7 (C), cuando los valores de píxel de referencia aumentan en una dirección superior derecha, los píxeles situados entre la parte inferior izquierda y la parte superior derecha en el bloque de predicción se obtienen primero sobre la base de las variaciones en los valores de píxeles, a diferencia de lo que ocurre en las FIGS. 7 (A) y 7 (B). Por ejemplo, se obtiene un valor de píxel de P81 en la esquina inferior izquierda del bloque de predicción, y los valores de los píxeles restantes se pueden predecir en base al valor de píxel de P81. En este caso, P81 puede obtenerse por la Ecuación 5.
[Ecuación 5]
Cuando se obtiene P81, los píxeles diagonales restantes (de parte inferior izquierda a superior izquierda) en el bloque de predicción se pueden obtener por la Ecuación 6.
5
10
15
20
25
30
[Ecuación 6]
Aquí, i puede ser 1,2, ..., 8.
También, como se muestra en la FIG. 7 (D), cuando los valores de píxeles de referencia aumentan en una dirección inferior izquierda, los píxeles diagonales situados desde la parte inferior izquierda a la parte superior derecha en el bloque de predicción se obtienen primero en base a las variaciones en los valores de píxeles. Por ejemplo, se obtiene el valor de píxel de P81 en la esquina inferior izquierda del bloque de predicción, y los valores de los píxeles restantes se pueden predecir en base al valor de píxel de P81. En este caso, P81 puede obtenerse por la Ecuación 7.
[Ecuación 7]
Cuando se obtiene P81, los píxeles diagonales restantes (de la parte inferior izquierda a la superior izquierda) en el bloque de predicción se pueden obtener por la Ecuación 8.
[Ecuación 8]
Aquí, i puede ser 1,2, ..., 8.
A la vista de las cargas de cálculo, la aproximación de los cálculos de raíces cuadradas para
20
obtener los píxeles diagonales puede ser considerada como en la Ecuación 9.
[Ecuación 9]
5
Posteriormente, los otros valores de píxel en el bloque de predicción se pueden obtener por interpolación o extrapolación, usando los valores de predicción de los píxeles diagonales, los valores de píxeles de referencia superiores y los valores de píxeles de referencia izquierdos.
10 En las FIGS. 7 (A) y 7 (B), los píxeles Pij en el bloque de predicción se puede obtener mediante interpolación, utilizando los píxeles diagonales Pii y los píxeles R de referencia del bloque vecino. Aquí, se puede usar una interpolación mostrada en la Ecuación 10.
[Ecuación 10] 15
o
20 Aquí, d1 es una distancia desde el píxel R0j o Rj0 del bloque vecino, utilizado para la interpolación, hasta el píxel Pij de destino de predicción, y d2 es una distancia desde el píxel diagonal Pii, utilizado para la interpolación, hasta el píxel Pij de destino de predicción. Además, en las FIGS. 7 (C) y 7 (D), el píxel Pi, obtenido por interpolación entre los píxeles en el bloque de predicción, se puede obtener por la Ecuación 11.
25
[Ecuación 11]
d, + d~
\
)
o
Aquí , i + j < 9 , y di es una distancia entre el píxel R0j o Rj0 del bloque vecino, utilizado para 5 la interpolación, y el píxel Pij de destino de predicción, y d2 es una distancia desde el píxel diagonal Pii, utilizado para la interpolación, hasta el píxel Pij de destino de predicción. Aquí, aunque la Ecuación 11 se utiliza para la interpolación a fin de obtener el píxel Pij del bloque de predicción, se pueden emplear varios procedimientos de interpolación en la presente invención, sin estar limitada a los mismos.
10 Mientras tanto, en las FIGS. 7 (C) y 7 (D), hay un píxel Pe obtenido por extrapolación entre los píxeles del bloque de predicción. Aquí, una extrapolación mostrada en la Ecuación 12 puede ser usada para obtener el píxel en el bloque de predicción.
[Ecuación 12]
15
o
20 En este caso, i + j > 9 y P es un píxel diagonal utilizado para la extrapolación. Además, como se ha descrito anteriormente, d1 y d2 son, respectivamente, una distancia desde el píxel de referencia hasta el píxel Pij de destino de predicción, y una distancia desde el píxel Pii al píxel Pij de destino de predicción.
25
Ejemplo 2
La FIG. 8 ilustra esquemáticamente otro procedimiento de predicción de un valor de píxel
5
10
15
20
25
30
teniendo en cuenta un valor de píxel de base y una variación con respecto a un píxel de base. Aunque la FIG. 8 ilustra un bloque de predicción de 8 x 8 para facilitar la descripción, la presente invención puede también ser aplicada a un bloque de predicción de N x N, sin estar limitado al bloque de predicción de 8 x 8.
La FIG. 8 ilustra un píxel P00 de referencia, situado en la esquina superior izquierda del bloque de predicción, como un píxel base. En el Ejemplo 2, un píxel Pij de destino de predicción se obtiene mediante la aplicación de variaciones verticales y horizontales entre el píxel de referencia y el valor del píxel de base.
Por ejemplo, el píxel Pij de destino se obtiene mediante la Ecuación 13.
[Ecuación 13]
Pij = ROO+Ax+Ay
Aquí, Ay = Ri0 - R00, ax = R0j - R00, y 1 < i, j < 8 en el caso del bloque de predicción de 8x8.
Por ejemplo, con referencia a la FIG. 8, un píxel P33 se obtiene por P33 = R00 + ax + Ay, según la Ecuación 7. Aquí, ax y Ay son las variaciones en el valor de píxel en la dirección x y las direcciones y desde el píxel de base, de R00 a P33.
Alternativamente, con referencia a la FIG. 8, un píxel P76 se obtiene por P76 = R00 + ax'+ △y', según la Ecuación 13. Aquí, ax' y Ay' son variaciones en el valor de píxel en la dirección x y las direcciones y desde el píxel base, de R00 a P76.
Ejemplo 3
La FIG. 9 ilustra esquemáticamente otro procedimiento de obtención, primero, de píxeles de la diagonal de un bloque de predicción, y luego los valores de píxel de los píxeles restantes.
Aunque la FIG. 5 ilustra que los píxeles diagonales se obtienen en base a un valor medio de dos píxeles en una dirección horizontal / vertical de un bloque vecino al bloque de predicción
actual, el Ejemplo 3 mostrado en la FIG. 9 lleva los píxeles diagonales teniendo en cuenta las variaciones.
Haciendo referencia a la FIG. 9 (A), los píxeles de la diagonal del bloque de predicción se
/ o izquierdos del bloque de predicción. Por ejemplo, los píxeles diagonales Pii se predicen por la Ecuación 14.
[Ecuación 14]
10
Por ejemplo, con referencia a la FIG. 9 (A), P33 puede ser predicho por P33 = R03 + Ay o 15 P33 = R30 + ax, de acuerdo a la Ecuación 14. ax y Ay son, respectivamente, las variaciones en valores de píxel en la dirección x de un píxel de base, R30 a P33, y en la dirección y de un píxel de base, R03 a P33.
Haciendo referencia a la FIG. 9 (B), otros píxeles Pij del bloque actual, distintos a los píxeles 20 diagonales, se puede predecir por interpolación lineal, usando los valores de predicción de los píxeles diagonales y los píxeles de referencia R00, R10 a R80 y R01 a R08 de los bloques vecinos en los límites superiores e izquierdos del bloque actual.
Por ejemplo, un valor Pij de píxel puede ser predicho por la Ecuación 15.
25
[Ecuación 15]
5 predicen usando valores de píxel de los bloques vecinos situados en los límites superiores y
o
p.._ ROjxd2+Piixdl J 31+32
o
5
10
15
20
25
30
di es una distancia desde el píxel R0j o Pi0 de los bloques vecinos, usados para la interpolación, hasta el píxel Pij de destino de predicción, y d2 es una distancia desde el píxel diagonal Pii, utilizado para la interpolación, hasta el píxel Pij de destino de predicción.
Ejemplo 4
La FIG. 10 ilustra esquemáticamente que los píxeles diagonales se obtienen primero y que los píxeles distintos a los píxeles diagonales se obtienen en el mismo procedimiento que se utiliza para los píxeles diagonales.
En la FIG. 10, los píxeles diagonales pueden ser predichos de la misma manera que se ilustra en la FIG. 9. Por lo tanto, con referencia a la FIG. 10 (A), un píxel diagonal P33 de un bloque de predicción actual puede ser predicho por P33 = R03 + Ay o P33 = R30 + ax.
Posteriormente, otros píxeles Pij del bloque actual, distintos a los píxeles diagonales, pueden ser predichos por interpolación lineal, usando los valores de predicción de los píxeles diagonales y los píxeles de referencia R00, R10 a R80 y R01 a R08 de los bloques vecinos en los límites superiores e izquierdos del bloque actual.
Aquí, se puede utilizar el mismo procedimiento que se utiliza para obtener píxeles diagonales. Por ejemplo, un píxel Pij puede ser predicho por la Ecuación 16.
[Ecuación 16]
Pij = R0j+Ay Pij = Ri0+Ax
Aquí, Ay = Ri0 - R00, Ax = R0j - R00 y 1 < i, j < 8 en el caso del bloque de predicción de 8x8.
5
10
15
20
25
30
Por ejemplo, con referencia a la FIG. 10, P37 puede obtenerse por P37 = R07 + Ay o P37 = R70 + ax, según la Ecuación 16.
Mientras tanto, la acumulación de errores menores resultantes de la aritmética de enteros por parte del codificador o descodificador, durante un largo tiempo, puede causar un grave error. Además, cuando se produce un error de transmisión en un bloque vecino a un bloque actual, una falta de coincidencia surge entre el codificador y el descodificador, o la propagación del error. Por ejemplo, cuando se produce un error en el bloque vecino, se cambian los valores de los píxeles sobre un límite del bloque vecino. En este caso, cuando el descodificador utiliza un píxel con un valor de píxel cambiado como un píxel de referencia, el error se propaga al bloque actual. Por lo tanto, se necesita una herramienta para evitar dicho problema, por ejemplo, una herramienta de codificación tal como la intra-predicción restringida (CIP).
La FIG. 11 ilustra esquemáticamente un procedimiento de la CIP.
En el procedimiento de la FIG. 11, si hay un bloque cualquiera, en modalidad de interpredicción, vecino a un macrobloque T actual, se utiliza solamente una modalidad DC de intra-predicción, y un valor de predicción de DC se fija en 128.
Aquí, un valor de píxel de un bloque predicho por la modalidad de inter-predicción entre los bloques vecinos no se utiliza como un valor de píxel de referencia. Por lo tanto, en este procedimiento, se emplea obligatoriamente una modalidad de predicción de DC, excluyendo incluso la información disponible, por ejemplo, los píxeles vecinos en modalidad de intra- predicción.
La FIG. 12 ilustra esquemáticamente un procedimiento alternativo de CIP.
En el procedimiento de la FIG. 12, un valor de píxel de un bloque predicho en la modalidad de intra-predicción entre los bloques vecinos se utiliza como un valor de píxel de referencia, y un valor de píxel de un bloque predicho en la modalidad de inter-predicción se obtiene utilizando bloques vecinos en modalidad de intra-predicción. Por lo tanto, se pueden usar no sólo la modalidad de DC, sino también otras modalidades de intra-predicción.
5
10
15
20
25
30
Haciendo referencia a la FIG. 12, entre los bloques vecinos a un bloque T actual de predicción, los valores de píxeles 1210, 1220 y 1230 de los bloques A, B, D, E, F, H e I, predichos por la modalidad de inter-predicción, se obtienen utilizando píxeles de bloques predichos por la modalidad de intra-predicción.
Por ejemplo, cuando los píxeles predichos de la modalidad de intra-predicción están presentes en ambos lados derecho e izquierdo de una muestra de destino de la interpredicción, un valor Pt de píxel de un bloque predicho por la modalidad de inter-predicción se obtiene por la Ecuación 17.
[Ecuación 17]
Aquí, Pt es una muestra de destino de inter-predicción, Plb es una muestra de intra- predicción izquierda o inferior y Pra es una muestra de intra-predicción derecha o superior. Además, cuando una muestra de intra-predicción está presente solamente en cualquiera de los lados de la muestra de destino de inter-predicción, un valor Pt de píxel de un bloque predicho por la modalidad de inter-predicción se obtiene por la Ecuación 18.
[Ecuación 18]
o
El procedimiento de la FIG. 12 utiliza la modalidad de intra-predicción más adecuadamente que el procedimiento de la FIG. 11, pero utiliza un valor medio de los valores de píxel disponibles en la modalidad de intra-predicción, o un valor de píxel disponible por sí mismo en la modalidad de intra-predicción, como un valor de píxel de un bloque vecino predicho en la modalidad de inter-predicción, sin tener en cuenta la variación en los valores de píxeles.
Por lo tanto, se necesita un procedimiento de CIP que tenga en cuenta las variaciones de valores de píxel.
5
10
15
20
25
30
Ejemplo 5
La FIG. 13 ilustra esquemáticamente que un sistema de acuerdo a la presente invención realiza la CIP en consideración de las variaciones de valores de píxel.
El procedimiento de la FIG. 13, utilizando variaciones en los valores de píxeles de ambos píxeles para la interpolación, logra una predicción más precisa de un valor de píxel de destino que el procedimiento de la FIG. 12, que utiliza un valor medio de ambos valores de píxel como un valor de píxel a obtener. Por ejemplo, un píxel PT, entre los valores 1310, 1320 y 1330 de píxeles a obtener, puede ser obtenido por la Ecuación 19.
[Ecuación 19]
_ P^gXd2r\-P^XCÜ
T d\+d2
Aquí, Pt es una muestra de destino de predicción, Plb es una muestra de intra-predicción izquierda o inferior y Pra es una muestra de intra-predicción derecha o superior. Además, como se muestra en la FIG. 13, d1 es una distancia entre Plb y Pt y d2 es una distancia entre Pra y Pt.
Por ejemplo, con referencia a la FIG. 13, Pt1 puede obtenerse de (Plb1 * d21 + Pra1 * d11) / (d11 + d21), y Pt2 puede obtenerse de (Plb2 * d22 + Pra2 * d12) / (d12 + d22).
Si una muestra de intra-predicción a utilizar para la interpolación está presente, bien en los lados derecho e izquierdo, o bien en los lados superior e inferior, de la muestra Pt de destino de predicción solamente, Pt = Plb o Pt = Pra. Además, si no hay ningún bloque predicho en la modalidad de intra-predicción vecino al bloque T de destino de predicción, un valor de píxel en la misma posición que en una imagen anterior se puede copiar para su uso como un valor de píxel de referencia.
Los valores promedio de los intra-píxeles en el límite pueden ser utilizados como valores de Plb o Pra. Por ejemplo, en la FIG. 3, cuando Pt está situado en una fila 1320 inferior de
5
10
15
20
25
30
píxeles de un bloque E o un bloque D, un valor medio de los cuatro píxeles más bajos de un bloque C en la modalidad de intra-predicción puede ser utilizado como Pra, y un valor promedio de los ocho píxeles más a la derecha de un bloque G puede ser utilizado como Plb. En este caso, un punto de referencia de d1 es un píxel superior entre los píxeles más a la derecha del bloque G, y un punto de referencia de d2 es un píxel más a la izquierda entre los píxeles más bajos del bloque C.
Además, la interpolación lineal da un efecto de allanamiento sobre los píxeles en los límites y, por tanto, el intra-allanamiento adaptable (AIS) puede ser desactivado. Aquí, en la modalidad de predicción DC, el filtrado de píxeles en un límite del bloque de predicción puede ser activado.
La FIG. 14 es un diagrama de flujo que ilustra esquemáticamente una operación del codificador en el sistema de acuerdo a la presente invención.
Haciendo referencia a la FIG. 14, se ingresa una nueva unidad de predicción de una imagen actual (S1410). La unidad de predicción (PU) puede ser una unidad básica para la intra- predicción y la inter-predicción. La unidad de predicción puede ser un bloque más pequeño que una unidad de codificación (CU) y puede tener una forma rectangular, no necesariamente una forma cuadrada. La intra-predicción de la unidad de predicción es llevada a cabo básicamente por un bloque de 2N x 2N o de N x N.
Posteriormente, se obtiene un píxel de referencia necesario para la intra-predicción (S1420). Los píxeles en una línea vertical más a la derecha de un bloque izquierdo vecino a un bloque de predicción actual y los píxeles en una línea horizontal más baja de un bloque superior vecino al bloque de predicción actual se utilizan para generar el píxel de referencia. Cuando el bloque de predicción tiene un tamaño N, se usan en total 2N píxeles de los bloques izquierdo y superior como píxeles de referencia.
Aquí, los píxeles en la línea vertical más a la derecha del bloque izquierdo vecino al bloque de predicción actual y los píxeles en la fila horizontal más baja del bloque superior vecino al bloque de predicción actual se pueden usar como los píxeles de referencia, bien como están o bien mediante el allanamiento.
5
10
15
20
25
30
Cuando se emplea el allanamiento, la información de allanamiento también puede ser señalizada al descodificador. Por ejemplo, cuando se realiza el allanamiento, se puede emplear un filtro de AIS, en el que pueden usarse los coeficientes [1, 2, 1] o [1, 1, 4, 1, 1] de filtro. Entre estos dos coeficientes, el segundo coeficiente de filtro puede proporcionar un límite más nítido. Como se ha mencionado anteriormente, la información que incluye usar o no un filtro, un tipo de filtro a usar y un coeficiente de filtro puede ser señalizada al descodificador.
Mientras tanto, cuando la CIP se utiliza para generar el píxel de referencia, un valor señal_CIP se fija en 1. Cuando se aplica la CIP, sólo los píxeles de los bloques vecinos codificados en la modalidad de intra-predicción se usan como píxeles de referencia, y los píxeles de los bloques vecinos codificados en la modalidad de inter-predicción no se usan como píxeles de referencia. En este caso, como se muestra en la FIG. 13, los píxeles (muestras de predicción de destino) correspondientes a las posiciones de los píxeles de los bloques vecinos codificados en la modalidad de inter-predicción se generan como píxeles de referencia, mediante la interpolación de los píxeles de referencia vecinos codificados en la modalidad de intra-predicción, o bien los píxeles de referencia vecinos codificados en la modalidad de intra-predicción se copian y se utilizan como píxeles de referencia correspondientes a las posiciones de los píxeles de los bloques vecinos codificados en la modalidad de inter-predicción.
Por ejemplo, cuando los píxeles de predicción, en la modalidad de intra-predicción, están presentes en ambos lados derecho e izquierdo, y los lados inferiores de una muestra de destino de inter-predicción, la muestra Pt de predicción de destino, situada en un bloque predicho en la modalidad de inter-predicción puede obtenerse por la Ecuación 11. Además, cuando una muestra de intra-predicción está presente solamente a cada lado de la muestra de predicción de destino, la muestra PT de predicción de destino, situada en una ubicación de bloque predicha en la modalidad de inter-predicción, puede obtenerse por la Ecuación 12. En la Ecuación 11 y / o la Ecuación 12, los valores medios de los correspondientes píxeles de la modalidad de intra-predicción pueden ser utilizados como valores de Plb y Pra. Si no hay ningún bloque vecino predicho en la modalidad de intra-predicción, un valor de píxel en la misma posición que en una imagen anterior puede ser copiado para su uso como un valor de píxel de referencia.
Dado que la interpolación lineal da un efecto de allanamiento sobre los píxeles en los
límites, puede ser eficaz desactivar el AIS al usar la CIP.
Posteriormente, se determina una modalidad de intra-predicción (S1430).
5 La modalidad de intra-predicción está determinada por una unidad de predicción (PU), en la que una modalidad de predicción óptima se determina a la vista de la relación entre la velocidad de bits requerida y la magnitud de la distorsión.
Por ejemplo, cuando la optimización de la distorsión de velocidad (RDO) está activada, 10 puede seleccionarse una modalidad para reducir al mínimo el coste J = R + rD (R es la velocidad de bits, D es la magnitud de la distorsión y r es una variable de Lagrange). Aquí, se necesita una descodificación local exhaustiva, en cuyo caso la complejidad puede aumentar.
15 Cuando la RDO está desactivada, puede seleccionarse una modalidad de predicción para reducir al mínimo una diferencia absoluta media (MAD), sometiendo un error de predicción a la transformación de Hadamard.
La Tabla 1 ilustra un cierto número de modalidades de predicción con respecto a un 20 componente luma, de acuerdo al tamaño de un bloque de unidad de predicción.
[Tabla 1]
- Tamaño del
- Número de modalidades de
- bloque
- predicción
- 4 x 4
- 17
- 8 x 8
- 34
- 16 x 16
- 34
- 32 x 32
- 34
- 64 x 64
- 3
25 La FIG. 15 ilustra una dirección de predicción de una modalidad de intra-predicción. Haciendo referencia a la FIG. 15, un número 0 de modalidad es una modalidad vertical, en
la que se lleva a cabo la predicción en una dirección vertical, utilizando un valor de píxel de
31
5
10
15
20
25
30
un bloque vecino. Un número 1 de modalidad es una modalidad horizontal en la que se lleva a cabo la predicción en una dirección horizontal, usando un valor de píxel de un bloque vecino. Un número 2 de modalidad es una modalidad de DC, en la que se genera un bloque de predicción utilizando un valor medio de píxel de un bloque de destino de predicción actual, por ejemplo, un valor luma en el caso de píxeles de luma, y un valor croma en el caso de los píxeles de croma. En otras modalidades, que se muestran en la FIG. 15, la predicción se lleva a cabo usando los valores de píxel de los bloques vecinos, según los ángulos correspondientes.
En la modalidad de DC, los píxeles de predicción superiores y los píxeles de predicción más a la izquierda pueden ser filtrados para mejorar la eficacia de la predicción. Aquí, la intensidad de filtrado puede llegar a ser más alta para un bloque más pequeño. Los otros píxeles internos en el bloque de predicción actual pueden no ser filtrados.
Mientras tanto, puede utilizarse una modalidad plana para reflejar la direccionalidad, en lugar de la modalidad de DC. En la modalidad plana, un valor de la Señal_plana, entre la información transmitida desde el codificador al descodificador, se fija en 1. Cuando se utiliza la modalidad plana, no se utiliza la modalidad de DC. Por lo tanto, cuando se utiliza la modalidad de DC en lugar de la modalidad plana, el valor de la Señal_plana se fija en 0.
Cuando se emplea la modalidad plana, pueden usarse los mismos procedimientos de predicción, según lo descrito anteriormente en las FIGS. 6 a 10. Aquí, el descodificador puede llevar a cabo una operación de RDO, descrita anteriormente, con el fin de seleccionar el procedimiento óptimo. Si es necesario, pueden ser usados juntos dos o más procedimientos entre los procedimientos anteriores. El codificador señaliza al descodificador información acerca de qué procedimiento selecciona el codificador entre los procedimientos de predicción en la modalidad plana ilustrada en las FIGS. 6 a 10.
Con respecto a un píxel de referencia de un componente de croma, se puede emplear una intra-predicción direccional unificada (UDI) de un bloque de luma, ya que está en un número 4 de modalidad, lo que se denomina una modalidad de DM. En un número 0 de modalidad, se genera un bloque de predicción utilizando una relación lineal entre luma y croma, que se denomina una modalidad de modelo lineal (LM). Un número 1 de modalidad es una modalidad vertical, en la que se lleva a cabo la predicción en la dirección vertical, y se
5
10
15
20
25
30
corresponde con el número 0 de modalidad de la luma. Un número 2 de modalidad es una línea horizontal, en la que se lleva a cabo la predicción en la dirección horizontal, y se corresponde con el número 1 de modalidad de la luma. Un número 3 de modalidad es una modalidad de DC, en la que se genera un bloque de predicción utilizando un valor promedio de croma de un bloque de destino de predicción actual, y se corresponde con el número 2 de modalidad de la luma.
Volviendo a la FIG. 14, el codificador codifica una modalidad de predicción del bloque actual (S1440). El codificador codifica una modalidad de predicción para un bloque componente de luma y un bloque componente de croma del bloque de predicción actual. Aquí, ya que la modalidad de predicción del bloque de destino de predicción actual se correlaciona en grado sumo con una modalidad de predicción de un bloque vecino, el bloque de destino de predicción actual se codifica usando la modalidad de predicción del bloque vecino, reduciendo por ello la cantidad de bits. Además, se determina una modalidad más probable (MPM) del bloque de destino de predicción actual y, en consecuencia, la modalidad de predicción del bloque de destino de predicción actual puede ser codificada utilizando la MPM.
Posteriormente, se obtienen un valor de píxel del bloque de predicción actual y un valor diferencial, en un píxel, para el valor de píxel del bloque de predicción, generando por ello una señal residual (S1450).
La señal residual generada es transformada y codificada (S1460). La señal residual se puede codificar utilizando un núcleo de transformación, en el que el núcleo de codificación de la transformación tiene un tamaño de 2 x 2, 4 x 4, 8 x 8, 16 x 16, 32 x 32 o 64 x 64. Un coeficiente C de transformación se genera para la transformación, que puede ser un bloque bidimensional de coeficientes de transformación. Por ejemplo, para un bloque de nxn, un coeficiente de transformación puede ser calculado por la Ecuación 20.
[Ecuación 20]
Aquí, C (n, n) es una matriz de coeficientes de transformación de n * n, T (n, n) es una
33
5
10
15
20
25
30
matriz nuclear de transformación de n * n y B (n, n) es una matriz de n * n para un bloque de destino de predicción.
Cuando m = hN, n = 2N y h = 1/2, un coeficiente C de transformación para un bloque de m * n o n * m puede obtenerse por dos procedimientos. En primer lugar, el bloque diferencial de m * n o n * m se divide en cuatro bloques de m * m y se aplica un núcleo de transformación a cada bloque, generando por ello el coeficiente de transformación. Alternativamente, un núcleo de transformación se aplica al bloque diferencial de m * n o n * m, generando por ello el coeficiente de transformación.
El codificador determina cuál transmitir, entre la señal residual y el coeficiente de transformación (S1470). Por ejemplo, cuando se lleva a cabo adecuadamente la predicción, la señal residual puede ser transmitida como es, sin codificación de transformación.
La determinación en cuanto a cuál transmitir, entre la señal residual y el coeficiente de transformación, puede llevarse a cabo mediante la RDO, o similares. Las funciones de costes, antes y después de la codificación de transformación, se comparan para minimizar los costes. Cuando se determina un tipo de señal a transmitir, es decir, la señal residual o el coeficiente de transformación, para el bloque de predicción actual, un tipo de la señal transmitida también se señaliza al descodificador.
Posteriormente, el codificador escanea el coeficiente de transformación (S1480). Un bloque bidimensional cuantizado de coeficientes de transformación puede ser convertido en un vector unidimensional de coeficientes de transformación mediante el escaneo.
El coeficiente de transformación escaneado y la modalidad de intra-predicción son codificados por entropía (S1490). La información codificada se conforma como un flujo de bits comprimido, que puede ser transmitido o almacenado a través de una NAL.
La FIG. 16 es un diagrama de flujo que ilustra esquemáticamente una operación del descodificador en el sistema de acuerdo a la presente invención.
Haciendo referencia a la FIG. 16, el descodificador descodifica por entropía un flujo de bits recibido (S1610). Aquí, un tipo de bloque se puede obtener a partir de una tabla de
5
10
15
20
25
30
codificación de longitud variable (VLC), y puede obtenerse una modalidad de predicción de un bloque actual de destino de descodificación. Cuando el flujo de bits recibido puede incluir información lateral necesaria para descodificar, tal como información sobre una unidad de codificación, una unidad de predicción y una unidad de transformación, la información sobre el filtrado de AIS, la información sobre la limitación de un contador de modalidad de predicción, la información sobre modalidades de predicción no utilizadas, la información sobre reordenamiento de modalidades de predicción, la información sobre procedimientos de transformación y la información sobre los procedimientos de escaneo, y la información lateral, es descodificada por entropía, junto con el flujo de bits.
La información descodificada puede confirmar si una señal transmitida para el bloque actual de destino de descodificación es una señal residual o un coeficiente de transformación para un bloque diferencial. Una señal residual, o vector unidimensional de coeficientes de transformación para el bloque diferencial, se obtiene para el bloque actual de destino de descodificación.
Posteriormente, el descodificador genera un bloque residual (S1620).
El descodificador escanea inversamente la señal residual descodificada por entropía, o el coeficiente de transformación, para generar un bloque bidimensional. Aquí, un bloque residual puede ser generado a partir de la señal residual, y un bloque bidimensional de coeficientes de transformación puede ser generado a partir del coeficiente de transformación.
Los coeficientes de transformación son descuantizados. Los coeficientes de transformación descuantizados son transformados inversamente, y el bloque residual para la señal residual se genera mediante la transformación inversa. La transformación inversa de un bloque de n * n puede ser expresada por la Ecuación 11.
El descodificador genera píxeles de referencia (S1630). Aquí, el descodificador genera el píxel de referencia haciendo referencia a la información sobre si el filtrado de AIS se aplica o no, y sobre un tipo de filtro utilizado señalizado y transmitido por el codificador. Del mismo modo en el proceso de codificación, los píxeles en una línea vertical más a la derecha de un bloque izquierdo ya descodificado y reconstruido, y vecino al bloque de destino de descodificación actual, y los píxeles en una línea horizontal más baja de un bloque superior
5
10
15
20
25
30
vecino al bloque de destino de descodificación, se utilizan para la generación del píxel de referencia.
Mientras tanto, cuando un valor de la Señal_CIP, recibido por el descodificador, se fija en 1, lo que significa que el codificador utiliza la CIP para una imagen de destino, el descodificador genera el píxel de referencia en consecuencia. Por ejemplo, sólo los píxeles de los bloques vecinos codificados en la modalidad de intra-predicción se usan como píxeles de referencia, mientras que los píxeles de los bloques vecinos codificados en la modalidad de inter-predicción no se usan como píxeles de referencia. En este caso, como se ilustra en la FIG. 6, los píxeles (muestras de predicción de destino) correspondientes a las posiciones de los píxeles de los bloques vecinos codificados en la modalidad de inter-predicción se generan como píxeles de referencia mediante la interpolación de los píxeles de referencia vecinos, codificados en la modalidad de intra-predicción, o bien los píxeles de referencia vecinos codificados en la modalidad de intra-predicción pueden ser copiados y utilizados como píxeles de referencia correspondientes a las posiciones de los píxeles de los bloques vecinos codificados en la modalidad de inter-predicción.
Por ejemplo, cuando los píxeles de la modalidad de intra-predicción están presentes tanto en los lados derechos e izquierdos, como en los lados superiores e inferiores, de una muestra de inter-predicción de destino, la muestra Pt de predicción de destino, situada en un bloque predicho en la modalidad de inter-predicción se obtiene por la Ecuación 17. Además, cuando una muestra intra-predicha sólo está presente a cada lado de la muestra de predicción de destino, la muestra PT de predicción de destino, situada en una ubicación de bloque predicha en la modalidad de inter-predicción, puede ser obtenida por la Ecuación 18. En la Ecuación 17 y / o la Ecuación 18, los valores medios de los correspondientes píxeles de la modalidad de intra-predicción pueden ser utilizados como valores de Plb o Pra. Si no hay ningún bloque vecino predicho en la modalidad de intra-predicción, un valor de píxel en la misma posición que en una imagen anterior puede ser copiado para su uso como un valor de píxel de referencia.
Cuando el codificador emplea el filtrado de AIS, es decir, cuando se aplica el allanamiento y, por lo tanto, el AIS está activado, el descodificador también realiza un filtrado de AIS en la generación del píxel de referencia, de acuerdo al procedimiento de generación de píxeles de referencia utilizado por el codificador. El descodificador puede determinar un coeficiente de filtro sobre la base de información de tipo de filtro entre la información recibida. Por ejemplo,
cuando hay dos coeficientes de filtro [1, 2, 1] o [1, 1,4, 1, 1], un coeficiente de filtro indicado en la información de tipo de filtro puede ser utilizado entre los dos coeficientes de filtro.
A continuación, se genera un bloque de predicción para el bloque de destino de 5 descodificación, utilizando el píxel de referencia y la modalidad de predicción descodificada por entropía del bloque de destino de descodificación actual (S1640).
Un proceso de generación del bloque de predicción es el mismo que un proceso de determinación de la modalidad de predicción, y de generación del bloque de predicción por 10 el codificador. Cuando la modalidad de predicción del bloque actual es una modalidad plana, un procedimiento de predicción plana, utilizado para generar el bloque de predicción, se puede identificar mediante el análisis de la información señalizada. Aquí, el descodificador puede generar el bloque de predicción en base a la información identificada de acuerdo a una modalidad utilizada, entre las modalidades de planas ilustradas en las FIGS. 6 a 10.
15 A continuación, se genera un bloque reconstruido mediante la adición, por parte de un píxel, de un valor de píxel del bloque de predicción y un valor de píxel del bloque diferencial, es decir, un bloque reconstruido (S1670).
5
10
15
20
25
30
REIVINDICACIONES
1. Un procedimiento de descodificación de una señal de vídeo, que comprende: obtener muestras de referencia en base a muestras contiguas adyacentes a un bloque actual, utilizándose las muestras de referencia para una intra-predicción del bloque actual; realizar la intra-predicción para el bloque actual usando las muestras de referencia; obtener una muestra de reconstrucción del bloque actual mediante la adición de una muestra de predicción obtenida realizando la intra-predicción en el bloque actual y una muestra residual relacionada con el bloque actual; y aplicar un filtro de desbloqueo a la muestra de reconstrucción del bloque actual, en el que la obtención de las muestras de referencia comprende:determinar, en base a un modo de predicción de un bloque contiguo, si al menos una de las muestras contiguas incluidas en el bloque contiguo es una muestra no disponible, especificando el modo de predicción si el bloque contiguo está codificado en una interpredicción o en la intra-predicción; y realizar una sustitución para la muestra no disponible que no se utiliza para la intra-predicción del bloque actual utilizando una muestra situada en un lado de la muestra no disponible entre las muestras contiguas adyacentes al bloque actual cuando la muestra no disponible está presente entre las muestras contiguas adyacentes al bloque actual, en el que la muestra situada en el un lado de la muestra no disponible está situada en un lado inferior de la muestra no disponible cuando la muestra no disponible es una muestra contigua izquierda adyacente al bloque actual y la muestra situada en el un lado de la muestra no disponible está situada en un lado izquierdo de la muestra no disponible cuando la muestra no disponible es una muestra contigua superior adyacente al bloque actual.
2. El procedimiento de la reivindicación 1, en el que la determinación de si la al menos una de las muestras contiguas es la muestra no disponible, se basa en un indicador de intra- predicción restringido además del modo de predicción relativo al bloque contiguo, especificando el indicador de intra-predicción restringido si la muestra contigua en el bloque contiguo codificado en la inter-predicción se utiliza para la intra-predicción del bloque actual.
3. El procedimiento según la reivindicación 2, en el que cuando el modo de predicción relativo al bloque contiguo especifica que el bloque contiguo está codificado en la interpredicción, y el indicador de intra-predicción restringido especifica que la muestra contigua en el bloque contiguo no se utiliza para la intra-predicción del bloque actual, se determina
Claims (1)
- ES 2 633 153 A2que la al menos una de las muestras contiguas incluidas en el bloque contiguo es la muestra no disponible.
imagen1 FIG. 1130135 155 170imagen2 ES 2 633 153 A2
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0048130 | 2011-05-20 | ||
KR20110048130 | 2011-05-20 | ||
KR1020110065210A KR101383775B1 (ko) | 2011-05-20 | 2011-06-30 | 화면 내 예측 방법 및 장치 |
KR10-2011-0065210 | 2011-06-30 |
Publications (3)
Publication Number | Publication Date |
---|---|
ES2633153A2 ES2633153A2 (es) | 2017-09-19 |
ES2633153R1 ES2633153R1 (es) | 2017-11-03 |
ES2633153B1 true ES2633153B1 (es) | 2018-10-10 |
Family
ID=48179115
Family Applications (11)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201631171A Active ES2597433B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631169A Active ES2597432B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201390093A Active ES2450643B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631168A Active ES2597431B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201630382A Active ES2570027B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631172A Active ES2597459B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201531015A Active ES2545039B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631170A Active ES2597458B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631167A Active ES2596027B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201731046A Active ES2633153B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631081A Active ES2612388B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
Family Applications Before (9)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201631171A Active ES2597433B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631169A Active ES2597432B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201390093A Active ES2450643B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631168A Active ES2597431B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201630382A Active ES2570027B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631172A Active ES2597459B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201531015A Active ES2545039B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631170A Active ES2597458B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
ES201631167A Active ES2596027B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201631081A Active ES2612388B1 (es) | 2011-05-20 | 2012-05-14 | Procedimiento y aparato para intra-predicción en pantalla |
Country Status (13)
Country | Link |
---|---|
US (11) | US9154803B2 (es) |
EP (1) | EP2712192A4 (es) |
KR (12) | KR101383775B1 (es) |
CN (20) | CN107613295B (es) |
AU (2) | AU2012259700B2 (es) |
BR (1) | BR112013029931B1 (es) |
CA (2) | CA2958027C (es) |
ES (11) | ES2597433B1 (es) |
GB (4) | GB2506039B (es) |
PL (1) | PL231066B1 (es) |
RU (6) | RU2576502C2 (es) |
SE (6) | SE541011C2 (es) |
WO (1) | WO2012161444A2 (es) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100882949B1 (ko) | 2006-08-17 | 2009-02-10 | 한국전자통신연구원 | 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법 |
WO2012081895A1 (ko) | 2010-12-13 | 2012-06-21 | 한국전자통신연구원 | 인트라 예측 방법 및 그 장치 |
US9462272B2 (en) * | 2010-12-13 | 2016-10-04 | Electronics And Telecommunications Research Institute | Intra prediction method and apparatus |
KR101383775B1 (ko) * | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
KR20120140181A (ko) * | 2011-06-20 | 2012-12-28 | 한국전자통신연구원 | 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치 |
US20130016769A1 (en) | 2011-07-17 | 2013-01-17 | Qualcomm Incorporated | Signaling picture size in video coding |
US9948938B2 (en) * | 2011-07-21 | 2018-04-17 | Texas Instruments Incorporated | Methods and systems for chroma residual data prediction |
WO2014003421A1 (ko) * | 2012-06-25 | 2014-01-03 | 한양대학교 산학협력단 | 비디오 부호화 및 복호화를 위한 방법 |
US9386306B2 (en) * | 2012-08-15 | 2016-07-05 | Qualcomm Incorporated | Enhancement layer scan order derivation for scalable video coding |
JP5798539B2 (ja) | 2012-09-24 | 2015-10-21 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法 |
US10003818B2 (en) * | 2013-10-11 | 2018-06-19 | Sony Corporation | Video coding system with intra prediction mechanism and method of operation thereof |
WO2015057947A1 (en) * | 2013-10-17 | 2015-04-23 | Huawei Technologies Co., Ltd. | Improved reference pixel selection and filtering for intra coding of depth map |
WO2016072732A1 (ko) * | 2014-11-04 | 2016-05-12 | 삼성전자 주식회사 | 텍스쳐 합성 기반 예측 모드를 이용하는 비디오 부호화/복호화 방법 및 장치 |
US10148953B2 (en) * | 2014-11-10 | 2018-12-04 | Samsung Electronics Co., Ltd. | System and method for intra prediction in video coding |
EP3262837A4 (en) * | 2015-02-25 | 2018-02-28 | Telefonaktiebolaget LM Ericsson (publ) | Encoding and decoding of inter pictures in a video |
US20160373770A1 (en) * | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10841593B2 (en) | 2015-06-18 | 2020-11-17 | Qualcomm Incorporated | Intra prediction and intra mode coding |
WO2017014412A1 (ko) * | 2015-07-20 | 2017-01-26 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인트라 예측 방법 및 장치 |
EP3340632B1 (en) * | 2015-08-19 | 2021-08-11 | LG Electronics Inc. | Method and device for processing video signals |
US10136131B2 (en) * | 2015-09-11 | 2018-11-20 | Beamr Imaging Ltd. | Video coding apparatus and method |
WO2017082670A1 (ko) * | 2015-11-12 | 2017-05-18 | 엘지전자 주식회사 | 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치 |
KR20180075483A (ko) | 2015-11-24 | 2018-07-04 | 삼성전자주식회사 | 픽셀의 기울기에 기초하여 인트라 또는 인터 예측 블록을 후처리하는 방법 및 장치 |
WO2017142327A1 (ko) * | 2016-02-16 | 2017-08-24 | 삼성전자 주식회사 | 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치 |
US10390026B2 (en) * | 2016-03-25 | 2019-08-20 | Google Llc | Smart reordering in recursive block partitioning for advanced intra prediction in video coding |
KR20180129863A (ko) * | 2016-04-25 | 2018-12-05 | 엘지전자 주식회사 | 영상 코딩 시스템에서 영상 디코딩 방법 및 장치 |
CN114189682A (zh) * | 2016-04-26 | 2022-03-15 | 英迪股份有限公司 | 图像解码方法、图像编码方法以及传输比特流的方法 |
CN116506607A (zh) | 2016-08-01 | 2023-07-28 | 韩国电子通信研究院 | 图像编码/解码方法和设备以及存储比特流的记录介质 |
CA3048242C (en) * | 2016-12-28 | 2023-10-31 | Arris Enterprises Llc | Improved video bitstream coding |
US10917660B2 (en) * | 2017-01-13 | 2021-02-09 | Vid Scale, Inc. | Prediction approaches for intra planar coding |
CN116193110A (zh) * | 2017-01-16 | 2023-05-30 | 世宗大学校产学协力团 | 影像编码/解码方法 |
EP3577899A4 (en) * | 2017-01-31 | 2020-06-17 | Sharp Kabushiki Kaisha | SYSTEMS AND METHODS FOR SCALING TRANSFORM COEFFICIENT LEVEL VALUES |
US11496747B2 (en) | 2017-03-22 | 2022-11-08 | Qualcomm Incorporated | Intra-prediction mode propagation |
EP3410708A1 (en) * | 2017-05-31 | 2018-12-05 | Thomson Licensing | Method and apparatus for intra prediction with interpolation |
JP2019041165A (ja) * | 2017-08-23 | 2019-03-14 | 富士通株式会社 | 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム |
US20190110052A1 (en) * | 2017-10-06 | 2019-04-11 | Futurewei Technologies, Inc. | Bidirectional intra prediction |
GB2567861A (en) | 2017-10-27 | 2019-05-01 | Sony Corp | Image data encoding and decoding |
KR20190056888A (ko) * | 2017-11-17 | 2019-05-27 | 삼성전자주식회사 | 비디오 부호화 장치 및 방법 |
US10645381B2 (en) * | 2018-04-30 | 2020-05-05 | Google Llc | Intra-prediction for smooth blocks in image/video |
JP7473478B2 (ja) * | 2018-06-18 | 2024-04-23 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | イントラ予測におけるplanarモード及びdcモードの境界フィルタリング |
US11277644B2 (en) | 2018-07-02 | 2022-03-15 | Qualcomm Incorporated | Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching |
KR102022375B1 (ko) * | 2018-08-22 | 2019-09-18 | (주)넥서스일렉트로닉스 | Uhd tv용 업스케일 칩셋 모듈 |
CN110896476B (zh) * | 2018-09-13 | 2021-11-26 | 阿里巴巴(中国)有限公司 | 图像处理方法、装置及存储介质 |
US11303885B2 (en) | 2018-10-25 | 2022-04-12 | Qualcomm Incorporated | Wide-angle intra prediction smoothing and interpolation |
GB2580036B (en) * | 2018-12-19 | 2023-02-01 | British Broadcasting Corp | Bitstream decoding |
KR20200083321A (ko) * | 2018-12-28 | 2020-07-08 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN112673637B (zh) * | 2019-03-12 | 2024-07-26 | 苹果公司 | 用于对图像信号进行编码/解码的方法及其装置 |
US20220217405A1 (en) * | 2019-04-03 | 2022-07-07 | Lg Electronics Inc. | Video or image coding for modifying reconstructed picture |
CN111836043A (zh) * | 2019-04-15 | 2020-10-27 | 中兴通讯股份有限公司 | 码块的预测、解码方法及装置 |
EP3970377B1 (en) * | 2019-06-21 | 2023-08-30 | Huawei Technologies Co., Ltd. | Method and apparatus of quantizing coefficients for matrix-based intra prediction technique |
WO2020256597A1 (en) * | 2019-06-21 | 2020-12-24 | Huawei Technologies Co., Ltd. | Matrix-based intra prediction for still picture and video coding |
US20220286688A1 (en) * | 2019-06-21 | 2022-09-08 | Vid Scale, Inc. | Precision refinement for motion compensation with optical flow |
WO2021029744A1 (ko) | 2019-08-14 | 2021-02-18 | 엘지전자 주식회사 | 루마 샘플 위치를 참조하여 크로마 블록의 예측 모드를 결정하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
KR20210133395A (ko) | 2020-04-29 | 2021-11-08 | 삼성전자주식회사 | 이미지 부호화 장치, 이미지 센싱 장치 및 이미지 부호화 장치의 동작 방법 |
Family Cites Families (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5122873A (en) * | 1987-10-05 | 1992-06-16 | Intel Corporation | Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels |
ATE109604T1 (de) | 1987-12-22 | 1994-08-15 | Philips Nv | Videosignalkodierung und -dekodierung mit einem adaptiven filter. |
GB8729878D0 (en) | 1987-12-22 | 1988-02-03 | Philips Electronic Associated | Processing sub-sampled signals |
US4903124A (en) * | 1988-03-17 | 1990-02-20 | Canon Kabushiki Kaisha | Image information signal transmission apparatus |
DE68905214T2 (de) * | 1988-04-15 | 1993-09-09 | Philips Nv | Einrichtung zur kodierung von signalen, die eine folge von bildern darstellen und uebertragungssystem von fernsehbildern mit hoher aufloesung mit einer solchen einrichtung. |
FR2633137B1 (fr) * | 1988-06-21 | 1990-11-09 | Labo Electronique Physique | Systeme d'emission et reception de television a haute definition a estimateur de vitesses ameliore et a debit de donnees reduit |
US5335019A (en) * | 1993-01-14 | 1994-08-02 | Sony Electronics, Inc. | Digital video data quantization error detection as applied to intelligent dynamic companding |
WO2003053066A1 (en) * | 2001-12-17 | 2003-06-26 | Microsoft Corporation | Skip macroblock coding |
CN101448162B (zh) * | 2001-12-17 | 2013-01-02 | 微软公司 | 处理视频图像的方法 |
JP3900000B2 (ja) * | 2002-05-07 | 2007-03-28 | ソニー株式会社 | 符号化方法及び装置、復号方法及び装置、並びにプログラム |
US20030231795A1 (en) | 2002-06-12 | 2003-12-18 | Nokia Corporation | Spatial prediction based intra-coding |
JP4324844B2 (ja) | 2003-04-25 | 2009-09-02 | ソニー株式会社 | 画像復号化装置及び画像復号化方法 |
RU2329615C2 (ru) * | 2003-12-01 | 2008-07-20 | Самсунг Электроникс Ко., Лтд. | Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления |
KR100596706B1 (ko) | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
KR100597402B1 (ko) | 2003-12-01 | 2006-07-06 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
CN100536573C (zh) * | 2004-01-16 | 2009-09-02 | 北京工业大学 | 基于方向的dc预测方法及用于视频编码的帧内预测方法 |
KR20050112445A (ko) * | 2004-05-25 | 2005-11-30 | 경희대학교 산학협력단 | 예측 부호화/복호화 장치, 예측 부호화/복호화 방법 및 그방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한기록매체 |
KR101204788B1 (ko) | 2004-06-03 | 2012-11-26 | 삼성전자주식회사 | 영상의 공간 예측 부호화 방법, 부호화 장치, 복호화 방법및 복호화 장치 |
US7953152B1 (en) * | 2004-06-28 | 2011-05-31 | Google Inc. | Video compression and encoding method |
WO2006004331A1 (en) * | 2004-07-07 | 2006-01-12 | Samsung Electronics Co., Ltd. | Video encoding and decoding methods and video encoder and decoder |
KR100654436B1 (ko) * | 2004-07-07 | 2006-12-06 | 삼성전자주식회사 | 비디오 코딩 방법과 디코딩 방법, 및 비디오 인코더와디코더 |
EP1779673A1 (en) | 2004-07-15 | 2007-05-02 | Qualcomm Incorporated | H.264 spatial error concealment based on the intra-prediction direction |
CN1275469C (zh) * | 2004-11-10 | 2006-09-13 | 华中科技大学 | 一种复杂度可分级的帧内预测方法 |
KR100679025B1 (ko) | 2004-11-12 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치 |
KR100679031B1 (ko) | 2004-12-03 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치 |
US20060133507A1 (en) | 2004-12-06 | 2006-06-22 | Matsushita Electric Industrial Co., Ltd. | Picture information decoding method and picture information encoding method |
US8885707B2 (en) * | 2005-04-01 | 2014-11-11 | Panasonic Corporation | Image decoding apparatus and image decoding method |
JP4427003B2 (ja) * | 2005-05-23 | 2010-03-03 | オリンパスイメージング株式会社 | データ符号化装置、データ復号化装置、データ符号化方法、データ復号化方法、プログラム |
KR100716999B1 (ko) * | 2005-06-03 | 2007-05-10 | 삼성전자주식회사 | 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치 |
JP2007043651A (ja) | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
US9055298B2 (en) | 2005-07-15 | 2015-06-09 | Qualcomm Incorporated | Video encoding method enabling highly efficient partial decoding of H.264 and other transform coded information |
US8155189B2 (en) * | 2005-10-19 | 2012-04-10 | Freescale Semiconductor, Inc. | System and method of coding mode decision for video encoding |
KR101246294B1 (ko) * | 2006-03-03 | 2013-03-21 | 삼성전자주식회사 | 영상의 인트라 예측 부호화, 복호화 방법 및 장치 |
KR100716142B1 (ko) * | 2006-09-04 | 2007-05-11 | 주식회사 이시티 | 스테레오스코픽 영상 데이터의 전송 방법 |
US9014280B2 (en) * | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
JP2008153802A (ja) | 2006-12-15 | 2008-07-03 | Victor Co Of Japan Ltd | 動画像符号化装置及び動画像符号化プログラム |
KR101365574B1 (ko) | 2007-01-29 | 2014-02-20 | 삼성전자주식회사 | 영상 부호화 방법 및 장치, 복호화 방법 및 장치 |
KR101369224B1 (ko) * | 2007-03-28 | 2014-03-05 | 삼성전자주식회사 | 움직임 보상 필터링을 이용한 영상 부호화, 복호화 방법 및장치 |
JP2008271371A (ja) * | 2007-04-24 | 2008-11-06 | Sharp Corp | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラム |
JP4799477B2 (ja) * | 2007-05-08 | 2011-10-26 | キヤノン株式会社 | 画像符号化装置及び画像符号化方法 |
KR101378338B1 (ko) | 2007-06-14 | 2014-03-28 | 삼성전자주식회사 | 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치 |
US8913670B2 (en) * | 2007-08-21 | 2014-12-16 | Blackberry Limited | System and method for providing dynamic deblocking filtering on a mobile device |
US8254450B2 (en) | 2007-08-23 | 2012-08-28 | Nokia Corporation | System and method for providing improved intra-prediction in video coding |
CN100562114C (zh) * | 2007-08-30 | 2009-11-18 | 上海交通大学 | 视频解码方法与解码装置 |
KR102037328B1 (ko) * | 2007-10-16 | 2019-10-28 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR101228020B1 (ko) | 2007-12-05 | 2013-01-30 | 삼성전자주식회사 | 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치 |
CN101483780B (zh) * | 2008-01-07 | 2011-08-24 | 华为技术有限公司 | 一种帧内dc预测的方法及装置 |
JP5111127B2 (ja) * | 2008-01-22 | 2012-12-26 | キヤノン株式会社 | 動画像符号化装置及びその制御方法、並びに、コンピュータプログラム |
KR101394209B1 (ko) * | 2008-02-13 | 2014-05-15 | 삼성전자주식회사 | 영상의 인트라 예측 부호화 방법 |
EP2101504B1 (en) * | 2008-03-09 | 2012-07-25 | LG Electronics Inc. | Video coding using template matching |
KR20090097688A (ko) | 2008-03-12 | 2009-09-16 | 삼성전자주식회사 | 영상의 인트라 예측 부호화/복호화 방법 및 장치 |
JP5400133B2 (ja) * | 2008-04-15 | 2014-01-29 | オランジュ | 線形形状の画素区画にスライスされた画像または画像シーケンスの符号化および復号 |
US20090262801A1 (en) * | 2008-04-17 | 2009-10-22 | Qualcomm Incorporated | Dead zone parameter selections for rate control in video coding |
EP2266321B1 (en) | 2008-04-23 | 2017-12-13 | Telefonaktiebolaget LM Ericsson (publ) | Template-based pixel block processing |
ES2620447T3 (es) | 2008-05-07 | 2017-06-28 | Lg Electronics, Inc. | Procedimiento y aparato para decodificar una señal de vídeo |
KR101596829B1 (ko) | 2008-05-07 | 2016-02-23 | 엘지전자 주식회사 | 비디오 신호의 디코딩 방법 및 장치 |
EP2286547B1 (en) | 2008-05-09 | 2017-07-19 | Lg Electronics Inc. | Apparatus and method for transmission opportunity in mesh network |
US20090316788A1 (en) * | 2008-06-23 | 2009-12-24 | Thomson Licensing | Video coding method with non-compressed mode and device implementing the method |
KR20100020441A (ko) * | 2008-08-12 | 2010-02-22 | 엘지전자 주식회사 | 비디오 신호 처리 방법 |
US8213503B2 (en) * | 2008-09-05 | 2012-07-03 | Microsoft Corporation | Skip modes for inter-layer residual video coding and decoding |
CN101677406B (zh) * | 2008-09-19 | 2011-04-20 | 华为技术有限公司 | 一种视频编解码的方法及装置 |
KR101306834B1 (ko) * | 2008-09-22 | 2013-09-10 | 에스케이텔레콤 주식회사 | 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법 |
WO2010041858A2 (en) * | 2008-10-06 | 2010-04-15 | Lg Electronics Inc. | A method and an apparatus for decoding a video signal |
CN102204256B (zh) * | 2008-10-31 | 2014-04-09 | 法国电信公司 | 图像预测方法和系统 |
JP5238523B2 (ja) | 2009-01-13 | 2013-07-17 | 株式会社日立国際電気 | 動画像符号化装置、動画像復号化装置、および、動画像復号化方法 |
TWI380654B (en) * | 2009-02-11 | 2012-12-21 | Univ Nat Chiao Tung | The control method of transmitting streaming audio/video data and architecture thereof |
US8798158B2 (en) * | 2009-03-11 | 2014-08-05 | Industry Academic Cooperation Foundation Of Kyung Hee University | Method and apparatus for block-based depth map coding and 3D video coding method using the same |
JP5169978B2 (ja) | 2009-04-24 | 2013-03-27 | ソニー株式会社 | 画像処理装置および方法 |
US9113169B2 (en) | 2009-05-07 | 2015-08-18 | Qualcomm Incorporated | Video encoding with temporally constrained spatial dependency for localized decoding |
CN101674475B (zh) * | 2009-05-12 | 2011-06-22 | 北京合讯数通科技有限公司 | 一种h.264/svc的自适应层间纹理预测方法 |
JP5597968B2 (ja) | 2009-07-01 | 2014-10-01 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
KR101510108B1 (ko) * | 2009-08-17 | 2015-04-10 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
KR101452860B1 (ko) | 2009-08-17 | 2014-10-23 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
KR101507344B1 (ko) * | 2009-08-21 | 2015-03-31 | 에스케이 텔레콤주식회사 | 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체 |
FR2952497B1 (fr) | 2009-11-09 | 2012-11-16 | Canon Kk | Procede de codage et de decodage d'un flux d'images; dispositifs associes |
JP2011146980A (ja) * | 2010-01-15 | 2011-07-28 | Sony Corp | 画像処理装置および方法 |
KR20110113561A (ko) | 2010-04-09 | 2011-10-17 | 한국전자통신연구원 | 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치 |
US8619857B2 (en) | 2010-04-09 | 2013-12-31 | Sharp Laboratories Of America, Inc. | Methods and systems for intra prediction |
EP2559239A2 (en) * | 2010-04-13 | 2013-02-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction |
US9083974B2 (en) * | 2010-05-17 | 2015-07-14 | Lg Electronics Inc. | Intra prediction modes |
CN101877792B (zh) * | 2010-06-17 | 2012-08-08 | 无锡中星微电子有限公司 | 帧内模式预测方法与装置、编码器 |
PL3125552T3 (pl) | 2010-08-17 | 2018-09-28 | M&K Holdings Inc. | Sposób przywracania trybu intra-predykcji |
KR101719448B1 (ko) * | 2010-09-27 | 2017-03-23 | 엘지전자 주식회사 | 블록 분할 방법 및 복호화 장치 |
US20120121018A1 (en) * | 2010-11-17 | 2012-05-17 | Lsi Corporation | Generating Single-Slice Pictures Using Paralellel Processors |
KR102696949B1 (ko) * | 2010-12-08 | 2024-08-20 | 엘지전자 주식회사 | 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치 |
US20120163457A1 (en) | 2010-12-28 | 2012-06-28 | Viktor Wahadaniah | Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus |
US9930366B2 (en) | 2011-01-28 | 2018-03-27 | Qualcomm Incorporated | Pixel level adaptive intra-smoothing |
CN102685505B (zh) * | 2011-03-10 | 2014-11-05 | 华为技术有限公司 | 帧内预测的方法和预测装置 |
KR101383775B1 (ko) * | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
-
2011
- 2011-06-30 KR KR1020110065210A patent/KR101383775B1/ko active IP Right Grant
-
2012
- 2012-05-14 BR BR112013029931-2A patent/BR112013029931B1/pt active IP Right Grant
- 2012-05-14 ES ES201631171A patent/ES2597433B1/es active Active
- 2012-05-14 RU RU2013152690/08A patent/RU2576502C2/ru active
- 2012-05-14 CN CN201710911187.4A patent/CN107613295B/zh not_active Expired - Fee Related
- 2012-05-14 GB GB1321333.5A patent/GB2506039B/en active Active
- 2012-05-14 CN CN201710912307.2A patent/CN107517378B/zh not_active Expired - Fee Related
- 2012-05-14 GB GB1712865.3A patent/GB2559438B/en active Active
- 2012-05-14 CN CN201710909564.0A patent/CN108055537B/zh not_active Expired - Fee Related
- 2012-05-14 ES ES201631169A patent/ES2597432B1/es active Active
- 2012-05-14 CN CN201710911231.1A patent/CN107592532B/zh not_active Expired - Fee Related
- 2012-05-14 CN CN201710909571.0A patent/CN107547894B/zh not_active Expired - Fee Related
- 2012-05-14 ES ES201390093A patent/ES2450643B1/es active Active
- 2012-05-14 RU RU2016101534A patent/RU2628160C1/ru active
- 2012-05-14 EP EP12788733.9A patent/EP2712192A4/en not_active Withdrawn
- 2012-05-14 CN CN201710912363.6A patent/CN107517379B/zh active Active
- 2012-05-14 CN CN201710911191.0A patent/CN107592531B/zh active Active
- 2012-05-14 CN CN201710912304.9A patent/CN107566833B/zh not_active Expired - Fee Related
- 2012-05-14 WO PCT/KR2012/003744 patent/WO2012161444A2/ko active Application Filing
- 2012-05-14 ES ES201631168A patent/ES2597431B1/es active Active
- 2012-05-14 CN CN201710909497.2A patent/CN107786870B/zh not_active Expired - Fee Related
- 2012-05-14 RU RU2015156465A patent/RU2628154C1/ru active
- 2012-05-14 ES ES201630382A patent/ES2570027B1/es active Active
- 2012-05-14 GB GB1712867.9A patent/GB2560394B/en active Active
- 2012-05-14 CN CN201710911829.0A patent/CN107566832B/zh not_active Expired - Fee Related
- 2012-05-14 ES ES201631172A patent/ES2597459B1/es active Active
- 2012-05-14 US US14/118,973 patent/US9154803B2/en active Active
- 2012-05-14 RU RU2015156464A patent/RU2628157C1/ru active
- 2012-05-14 CA CA2958027A patent/CA2958027C/en active Active
- 2012-05-14 RU RU2016101539A patent/RU2628161C1/ru active
- 2012-05-14 RU RU2015156467A patent/RU2628153C1/ru active
- 2012-05-14 PL PL407846A patent/PL231066B1/pl unknown
- 2012-05-14 ES ES201531015A patent/ES2545039B1/es active Active
- 2012-05-14 CN CN201710909575.9A patent/CN107592530B/zh active Active
- 2012-05-14 CN CN201710912286.4A patent/CN107592546B/zh active Active
- 2012-05-14 SE SE1651173A patent/SE541011C2/sv unknown
- 2012-05-14 ES ES201631170A patent/ES2597458B1/es active Active
- 2012-05-14 CN CN201410646265.9A patent/CN104378645B/zh active Active
- 2012-05-14 SE SE1551664A patent/SE539822C2/sv unknown
- 2012-05-14 AU AU2012259700A patent/AU2012259700B2/en active Active
- 2012-05-14 ES ES201631167A patent/ES2596027B1/es active Active
- 2012-05-14 SE SE537736D patent/SE537736C3/xx unknown
- 2012-05-14 CN CN201710911186.XA patent/CN107659816B/zh active Active
- 2012-05-14 CN CN201610847470.0A patent/CN106851315B/zh active Active
- 2012-05-14 CA CA2836888A patent/CA2836888C/en active Active
- 2012-05-14 CN CN201710909400.8A patent/CN107786871B/zh not_active Expired - Fee Related
- 2012-05-14 SE SE1351441A patent/SE537736C2/sv unknown
- 2012-05-14 GB GB1712866.1A patent/GB2556649B/en active Active
- 2012-05-14 SE SE1550476A patent/SE538196C2/sv unknown
- 2012-05-14 CN CN201710911180.2A patent/CN107592545B/zh active Active
- 2012-05-14 ES ES201731046A patent/ES2633153B1/es active Active
- 2012-05-14 CN CN201280035395.8A patent/CN103703773B/zh active Active
- 2012-05-14 SE SE1651172A patent/SE541010C2/sv unknown
- 2012-05-14 ES ES201631081A patent/ES2612388B1/es active Active
- 2012-05-14 CN CN201710912306.8A patent/CN107517377B/zh active Active
- 2012-05-14 CN CN201710911255.7A patent/CN107613296B/zh not_active Expired - Fee Related
-
2014
- 2014-01-22 KR KR1020140007853A patent/KR101458794B1/ko active IP Right Grant
- 2014-03-31 KR KR1020140038231A patent/KR101453898B1/ko active IP Right Grant
- 2014-03-31 KR KR1020140038230A patent/KR101453897B1/ko active IP Right Grant
- 2014-03-31 KR KR1020140038232A patent/KR101453899B1/ko active IP Right Grant
- 2014-09-18 KR KR20140124085A patent/KR101508894B1/ko active IP Right Grant
- 2014-09-18 KR KR20140124086A patent/KR101508291B1/ko active IP Right Grant
- 2014-10-08 KR KR20140135608A patent/KR101508895B1/ko active IP Right Grant
- 2014-10-08 KR KR20140135606A patent/KR101508292B1/ko active IP Right Grant
- 2014-10-08 KR KR20140135607A patent/KR101508486B1/ko active IP Right Grant
- 2014-10-08 KR KR1020140135609A patent/KR101552631B1/ko active IP Right Grant
-
2015
- 2015-01-26 US US14/606,007 patent/US9288503B2/en active Active
- 2015-01-26 US US14/606,008 patent/US9432695B2/en active Active
- 2015-04-06 KR KR20150048599A patent/KR20150043278A/ko not_active Application Discontinuation
- 2015-11-30 AU AU2015261728A patent/AU2015261728B2/en active Active
- 2015-12-15 US US14/968,958 patent/US9445123B2/en not_active Expired - Fee Related
- 2015-12-30 US US14/983,745 patent/US9432669B2/en active Active
-
2016
- 2016-07-26 US US15/219,654 patent/US9749639B2/en active Active
- 2016-07-26 US US15/219,354 patent/US9756341B2/en active Active
- 2016-07-27 US US15/220,426 patent/US9584815B2/en active Active
- 2016-07-27 US US15/220,437 patent/US9749640B2/en active Active
- 2016-07-27 US US15/220,459 patent/US9843808B2/en active Active
-
2017
- 2017-11-02 US US15/801,355 patent/US10158862B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2633153B1 (es) | Procedimiento y aparato para intra-predicción en pantalla | |
ES2541807T3 (es) | Procedimiento y aparato para decodificar una señal de vídeo | |
AU2016219672A1 (en) | Method and apparatus for intra prediction within display screen | |
ES2459890A2 (es) | Método de predicción intra, y codificador y descodificador que lo usan |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2633153 Country of ref document: ES Kind code of ref document: B1 Effective date: 20181010 |