ES2633153A2 - Procedimiento y aparato para intra-predicción en pantalla - Google Patents

Procedimiento y aparato para intra-predicción en pantalla Download PDF

Info

Publication number
ES2633153A2
ES2633153A2 ES201731046A ES201731046A ES2633153A2 ES 2633153 A2 ES2633153 A2 ES 2633153A2 ES 201731046 A ES201731046 A ES 201731046A ES 201731046 A ES201731046 A ES 201731046A ES 2633153 A2 ES2633153 A2 ES 2633153A2
Authority
ES
Spain
Prior art keywords
prediction
block
pixel
intra
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201731046A
Other languages
English (en)
Other versions
ES2633153B1 (es
ES2633153R1 (es
Inventor
Kwon JAE CHEOL
Kim JOO YOUNG
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KT Corp filed Critical KT Corp
Publication of ES2633153A2 publication Critical patent/ES2633153A2/es
Publication of ES2633153R1 publication Critical patent/ES2633153R1/es
Application granted granted Critical
Publication of ES2633153B1 publication Critical patent/ES2633153B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data

Abstract

Procedimiento y aparato para intra-predicción en pantalla. La presente invención se refiere a un procedimiento y aparato para la intra-predicción. El procedimiento de intra-predicción para un descodificador, según la presente invención, comprende las etapas de descodificación por entropía de un flujo de bits recibido, la generación de píxeles de referencia a usar en la intra-predicción de una unidad de predicción; la generación de un bloque de predicción a partir de los píxeles de referencia, en base a una modalidad de predicción para la unidad de predicción, y la reconstrucción de una imagen a partir del bloque de predicción y un bloque residual, que se obtiene como resultado de la codificación por entropía, en donde los píxeles de referencia y/o los píxeles del bloque de predicción son predichos en base a un píxel de base, y el valor del píxel predicho puede ser la suma del valor de píxel del píxel de base y la diferencia entre los valores de pixel del pixel de base y el pixel generado.

Description

5
10
15
20
25
30
DESCRIPCION
Procedimiento y aparato para intra-prediccion en pantalla Campo tecnico
La presente invention se refiere a una tecnica de procesamiento de v^deo y, mas espedficamente, a un procedimiento de intra-prediccion en la codification / descodificacion de information de video.
Antecedentes
Recientemente, las demandas de imagenes de alta resolution y de alta calidad han aumentado en varios campos de aplicaciones. Como las imagenes tienen mayor resolucion y mayor calidad, la cantidad de informacion en las imagenes tambien aumenta. En consecuencia, cuando los datos de video se transfieren utilizando medios tales como las lmeas existentes de banda ancha, cableadas e inalambricas, o se almacenan en medios convencionales de almacenamiento, aumentan los costes de transferencia y almacenamiento de los datos de video.
Por lo tanto, las tecnicas de compresion de video de alta eficacia se pueden utilizar para transmitir, almacenar o reproducir con eficacia imagenes con una resolucion superior y una calidad superior.
Divulgation Problema tecnico
Un aspecto de la presente invencion es proporcionar un procedimiento de realization de intra-prediccion efectiva en una textura con direccionalidad, en consideration de las variaciones de los pixeles de referencia de los bloques vecinos.
Otro aspecto de la presente invencion es proporcionar un procedimiento de realizacion de prediction plana teniendo en cuenta las variaciones en los valores de pixeles de los bloques adyacentes a un bloque de prediccion al realizar la intra-prediccion.
5
10
15
20
25
30
Otro aspecto mas de la presente invencion es proporcionar un procedimiento de generation de un p^xel de referencia sobre la base de un bloque vecino intra-modal, en una position de un pixel vecino en modalidad de inter-prediccion, y utilizar el pixel de referencia para la intra- prediccion cuando se emplea la intra-prediccion restringida (CIP).
Otro aspecto mas de la presente invencion es proporcionar un procedimiento de generacion de un pixel de referencia teniendo en cuenta las variaciones en el valor del pixel cuando se genera el pixel de referencia sobre la base de un bloque vecino intra-modal, en una posicion de pixel vecino en modalidad de inter-prediccion.
Solution Tecnica
Una realization de la presente invencion proporciona un procedimiento de intra-prediccion de un codificador, incluyendo el procedimiento la generacion de pixeles de referencia para la intra-prediccion con respecto a una unidad de prediction de entrada, la determination de una intra-modalidad para la unidad de prediccion, la generacion de un bloque de prediccion basada en los pixeles de referencia y la intra-modalidad, y la generacion de un bloque residual para la unidad de prediccion y el bloque de prediccion, en el que al menos uno de los pixeles de referencia y los pixeles del bloque de prediccion se predice sobre la base de un pixel de base, y un valor de pixel del pixel predicho es una suma de un valor de pixel del pixel de base y una variation en el valor de pixel entre el pixel de base y el pixel generado.
Un pixel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de prediccion, se puede establecer como un primer pixel de base, un valor obtenido mediante la aplicacion de una variacion en el valor de pixel entre el primer pixel de base y un pixel mas bajo entre los pixeles de referencia de un bloque vecino, dispuesto en un limite izquierdo del bloque de prediccion, y una variacion en el valor de pixel entre el primer pixel de base y un pixel mas a la derecha entre los pixeles de referencia de un bloque vecino, dispuesto en un limite superior del bloque de prediccion con respecto al pixel de base, puede ser fijado como un valor de pixel de un segundo pixel de base, como un pixel en diagonal en una esquina inferior derecha del bloque de prediccion, y los valores de pixel de los pixeles de la diagonal del bloque de prediccion se pueden predecir a partir del primer pixel de base y del segundo pixel de base.
5
10
15
20
25
30
Aqw, los p^xeles no diagonales del bloque de prediction se predicen por interpolation o extrapolation utilizando los p^xeles diagonales y los pixeles de los bloques vecinos en los limites superior y / o izquierdo del bloque de prediccion.
Ademas, un pixel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de prediccion, se puede establecer como el pixel de base, y un valor obtenido mediante la aplicacion de una variation en el valor de pixel entre el pixel de base y un pixel vecino, dispuesto en la misma fila como un pixel de destino de prediccion entre los pixeles de referencia de un bloque vecino, dispuesto en un limite izquierdo del bloque de prediccion, y una variacion en el valor de pixel entre el pixel de base y un pixel vecino, dispuesto en la misma columna que el pixel de destino de prediccion, entre los pixeles de referencia de un bloque vecino, dispuesto en un limite superior del bloque de prediccion con respecto al pixel de base, puede ser predicho como un valor de pixel del pixel de destino de prediccion.
Ademas, un pixel dispuesto en la misma fila o columna que un pixel de destino de prediccion, entre los pixeles de los bloques vecinos, dispuestos en el limite izquierdo o superior del bloque de prediccion, se puede establecer como el pixel de base, y un valor obtenido mediante la aplicacion de una variacion en el valor de pixel, entre el pixel de base y el pixel de prediccion, para el pixel de base puede ser predicho como un valor de pixel del pixel de destino de prediccion.
Aqui, el pixel de destino de prediccion puede ser un pixel diagonal del bloque de prediccion, y un pixel no diagonal del bloque de prediccion puede ser predicho por interpolacion, usando el pixel diagonal y los pixeles de los bloques vecinos.
El procedimiento de intra-prediccion puede incluir ademas la generation de un pixel de referencia, dispuesto en un limite entre un bloque inter-modal y la unidad de prediccion cuando un bloque vecino a la unidad de prediccion es el bloque inter-modal, en el que un pixel dispuesto en un limite de la unidad de prediccion, entre los pixeles de un bloque intramodal, dispuesto en un lado izquierdo o en el lado inferior del pixel de referencia, puede establecerse como un primer pixel de base, un pixel dispuesto en el limite de la unidad de prediccion, entre los pixeles de un bloque intra-modal, dispuesto sobre un lado derecho o un lado superior del pixel de referencia, se puede establecer como un segundo pixel de base, y
5
10
15
20
25
30
el p^xel de referencia puede ser generado sobre la base de una distancia entre el primer pixel de base y el pixel de referencia, y una distancia desde el segundo pixel de base al pixel de referencia.
Aqw, un valor de pixel del primer pixel de base puede ser un valor de pixel promedio de los pixeles dispuestos en el Kmite de la unidad de prediction, entre los pixeles del bloque intramodal al que pertenece el primer pixel de base, y un valor de pixel del segundo pixel de base puede ser un valor medio de pixel de los pixeles dispuestos en el limite de la unidad de prediccion, entre los pixeles del bloque intra-modal al que pertenece la segunda referencia de base. Ademas, un valor de pixel del primer pixel de base puede ser un valor de pixel del pixel de referencia cuando un bloque intra-modal esta dispuesto solo en el lado izquierdo o en el lado inferior del pixel de referencia, y un valor de pixel del segundo pixel de base puede ser un valor de pixel del pixel de referencia, cuando un bloque intra-modal esta dispuesto solo en el lado derecho o el lado superior del pixel de referencia.
Otra realization de la presente invention proporciona un procedimiento de intra-prediccion de un descodificador, incluyendo el procedimiento la descodificacion por entropia de un flujo de bits recibido, la generation de un pixel de referencia utilizado para la intra-prediccion de una unidad de prediccion, la generacion de un bloque de prediccion desde el pixel de referencia sobre la base de una modalidad de prediccion para la unidad de prediccion, y la reconstruction de una imagen a partir de un bloque residual obtenido por la descodificacion por entropia, y del bloque de prediccion, en el que al menos uno de los pixeles de referencia y los pixeles del bloque de prediccion se predice sobre la base de un pixel de base, y un valor de pixel del pixel predicho es una suma de un valor de pixel del pixel de base y una variation en el valor de pixel entre el pixel de base y el pixel generado.
Un pixel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de prediccion, se puede establecer como un primer pixel de base, un valor obtenido mediante la aplicacion de una variacion en el valor de pixel entre el primer pixel de base y un pixel mas bajo entre los pixeles de referencia de un bloque vecino, dispuesto en un limite izquierdo del bloque de prediccion, y una variacion en el valor de pixel entre el primer pixel de base y un pixel mas a la derecha entre los pixeles de referencia de un bloque vecino, dispuesto en un limite superior del bloque de prediccion con respecto al pixel de base, puede ser fijado como un valor de pixel de un segundo pixel de base, como un pixel en
5
10
15
20
25
30
diagonal en una esquina inferior derecha del bloque de prediction, y los valores de p^xel de los p^xeles de la diagonal del bloque de prediccion se pueden predecir a partir del primer p^xel de base y del segundo pixel de base.
Aqui, los pixeles no diagonales del bloque de prediccion pueden ser predichos por interpolation o extrapolation, utilizando los pixeles diagonales y los pixeles de los bloques vecinos en los limites superiores y / o izquierdos del bloque de prediccion.
Un pixel de referencia de un bloque vecino, dispuesto en una esquina superior izquierda del bloque de prediccion, se puede establecer como el pixel de base, y un valor obtenido mediante la aplicacion de una variation en el valor de pixel, entre el pixel de base y un pixel vecino, dispuesto en la misma fila que un pixel de destino de prediccion, entre los pixeles de referencia de un bloque vecino, dispuesto en un limite izquierdo del bloque de prediccion, y una variacion en el valor de pixel, entre el pixel de base y un pixel vecino, dispuesto en la misma columna que el pixel de destino de prediccion, entre los pixeles de referencia de un bloque vecino, dispuesto en un limite superior del bloque de prediccion con respecto al pixel de base, puede ser predicho como un valor de pixel del pixel de destino de prediccion.
Ademas, un pixel dispuesto en la misma fila o columna que un pixel de destino de prediccion, entre los pixeles de los bloques vecinos, dispuestos en un limite izquierdo o superior del bloque de prediccion, se puede establecer como el pixel de base, y un valor obtenido mediante la aplicacion de una variacion en el valor de pixel, entre el pixel de base y el pixel de prediccion, para el pixel de base puede ser predicho como un valor de pixel del pixel de destino de prediccion.
Aqui, el pixel de destino de prediccion puede ser un pixel diagonal del bloque de prediccion, y un pixel no diagonal del bloque de prediccion puede ser predicho por interpolacion, usando el pixel diagonal y los pixeles de los bloques vecinos.
La intra-prediccion puede incluir ademas la generation de un pixel de referencia, dispuesto en un limite entre un bloque intra-modal y la unidad de prediccion, cuando un bloque vecino a la unidad de prediccion es el bloque inter-modal, en el que un pixel dispuesto en un limite de la unidad de prediccion, entre los pixeles de un bloque intra-modal, dispuesto en un lado izquierdo o en un lado inferior del pixel de referencia, puede ser establecido como un primer
5
10
15
20
25
30
p^xel de base, un pixel dispuesto en el Kmite de la unidad de prediction, entre los p^xeles de un bloque intra-modal, dispuesto sobre un lado derecho o un lado superior del p^xel de referencia, se puede establecer como un segundo pixel de base, y el pixel de referencia puede ser generado sobre la base de una distancia entre el primer pixel de base y el pixel de referencia, y una distancia entre el segundo pixel de base y el pixel de referencia.
Aqui, un valor de pixel del primer pixel de base puede ser un valor de pixel promedio de pixeles dispuestos en el limite de la unidad de prediccion, entre los pixeles del bloque intramodal al que pertenece el primer pixel de base, y un valor de pixel del segundo pixel de base puede ser un valor medio de pixel de los pixeles dispuestos en el limite de la unidad de prediccion, entre los pixeles del bloque intra-modal al que pertenece la segunda referencia de base. Ademas, un valor de pixel del primer pixel de base puede ser un valor de pixel del pixel de referencia cuando un bloque intra-modal esta dispuesto solo en el lado izquierdo o en el lado inferior del pixel de referencia, y un valor de pixel del segundo pixel de base puede ser un valor de pixel del pixel de referencia, cuando un bloque intra-modal esta dispuesto solo en el lado derecho o el lado superior del pixel de referencia.
El descodificador puede adquirir una instruction para generar los pixeles del bloque de prediccion, en base al pixel de base, mediante la descodificacion por entropia. Ademas, el descodificador puede adquirir una instruccion para generar los pixeles de referencia, en base al pixel de base, mediante la descodificacion por entropia.
Efectos ventajosos
Como se ha descrito anteriormente, de acuerdo a la presente invention, la intra-prediccion sobre una textura con direccionalidad puede lograrse efectivamente, en consideration de las variaciones de los pixeles de referencia de los bloques vecinos.
Ademas, la prediccion plana puede llevarse a cabo teniendo en cuenta las variaciones en los valores de pixeles de los bloques vecinos con respecto a un bloque de prediccion, mejorando asi la eficacia de la prediccion.
Ademas, cuando se emplea la intra-prediccion restringida (CIP), se genera un pixel de referencia sobre la base de un bloque vecino intra-modal, en una position de un pixel vecino
5
10
15
20
25
30
intra-modal, y se utiliza para la intra-prediccion, teniendo en cuenta las variaciones en el valor de pixel, mejorando por ello la eficacia de la prediction.
Description de los dibujos
La FIG. 1 es un diagrama de bloques que ilustra una configuration de un codificador de v^deo de acuerdo a una realization ejemplar de la presente invention.
La FIG. 2 es un diagrama de bloques que ilustra esquematicamente una configuracion de un modulo de intra-prediccion, de acuerdo a una realizacion ejemplar de la presente invencion.
La FIG. 3 es un diagrama de bloques que ilustra una configuracion de un descodificador de video, de acuerdo a una realizacion ejemplar de la presente invencion.
La FIG. 4 ilustra esquematicamente un procedimiento de prediccion plana.
La FIG. 5 ilustra esquematicamente un procedimiento alternativo de prediccion plana.
La FIG. 6 ilustra esquematicamente que un pixel diagonal de un bloque actual de prediccion se predice primero.
La FIG. 7 ilustra esquematicamente un procedimiento de obtencion de otros valores de pixel en el bloque de prediccion, en base al pixel diagonal.
La FIG. 8 ilustra esquematicamente un procedimiento de prediccion de un valor de pixel teniendo en cuenta un valor de pixel de referencia y una variation con respecto a un pixel de referencia.
La FIG. 9 ilustra esquematicamente un procedimiento de obtencion, primero, de pixeles diagonales de un bloque de prediccion y luego, los valores de pixel de los pixeles restantes.
La FIG. 10 ilustra esquematicamente que los pixeles diagonales se obtienen primero y que los pixeles distintos a los pixeles diagonales se obtienen en el mismo procedimiento que se utiliza para los pixeles diagonales.
5
10
15
20
25
30
La FIG. 11 ilustra esquematicamente un procedimiento de CIP.
La FIG. 12 ilustra esquematicamente un procedimiento alternativo de CIP.
La FIG. 13 ilustra esquematicamente que un sistema de acuerdo a la presente invention lleva a cabo la CIP en consideration de las variaciones en el valor de pixel.
La FIG. 14 es un diagrama de flujo que ilustra esquematicamente una operation del codificador en el sistema de acuerdo a la presente invencion.
La FIG. 15 ilustra una direction de prediction de una modalidad de intra-prediccion. La FIG. 16 es un diagrama de flujo que ilustra esquematicamente una operacion del descodificador en el sistema de acuerdo a la presente invencion.
Modo de Invencion
Aunque los elementos mostrados en los dibujos se muestran de forma independiente, con el fin de describir diferentes caracteristicas y funciones de un codificador / descodificador de video, una configuration de este tipo no indica que cada elemento este construido por un componente de hardware o componente de software por separado. Es decir, los elementos estan dispuestos de forma independiente y por lo menos dos elementos se pueden combinar en un solo elemento, o bien un solo elemento se pueden dividir en una pluralidad de elementos para realizar funciones. Es de senalar que las realizaciones en las que algunos elementos se integran en un elemento combinado y / o un elemento se divide en multiples elementos separados, estan incluidas en el ambito de la presente invencion, sin apartarse de la esencia de la presente invencion.
En lo sucesivo, las realizaciones ejemplares de la presente invencion se describiran en detalle con referencia a los dibujos adjuntos. Los numeros iguales de referencia en los dibujos se refieren a elementos iguales en toda su extension, y las descripciones redundantes de elementos iguales se omitiran en el presente documento.
La FIG. 1 es un diagrama de bloques que ilustra una configuracion de un codificador de video de acuerdo a una realization ejemplar de la presente invencion. Haciendo referencia a
5
10
15
20
25
30
la FIG. 1, el codificador de v^deo incluye un modulo 110 de partition de imagenes, un modulo 120 de inter-prediccion, un modulo 125 de intra-prediccion, un modulo 130 de transformation, un modulo 135 de cuantizacion, un modulo 140 de descuantizacion, un modulo 145 de transformacion inversa, un filtro 150 de desbloqueo, una memoria 160, un modulo 165 de reordenamiento y un modulo 170 de codification por entropia. El modulo 110 de particion de imagenes puede recibir la entrada de una imagen actual y dividir la imagen en al menos una unidad de codificacion. Una unidad de codificacion es una unidad de codificacion realizada por el codificador de video y puede ser tambien denominada una CU. Una unidad de codificacion puede ser subdividida recursivamente, con una profundidad basada en una estructura de arbol de cuatro ramas. Una unidad de codificacion que tiene un tamano maximo se denomina una unidad maxima de codificacion (LCU), y una unidad de codificacion con un tamano mmimo, una unidad minima de codificacion (SCU). Una unidad de codificacion puede tener un tamano de 8 x 8, 16 x 16, 32 x 32 o 64 x 64. El modulo 110 de particion de imagenes puede partir o dividir la unidad de codificacion para generar una unidad de prediction y una unidad de transformacion. La unidad de prediccion puede ser tambien denominada una PU, y la unidad de transformacion puede ser tambien denominada una TU.
En una modalidad de inter-prediccion, el modulo 120 de inter-prediccion puede llevar a cabo la estimation de movimiento (ME) y la compensation de movimiento (MC). El modulo 120 de inter-prediccion genera un bloque de prediccion basado en la informacion sobre al menos una de las imagenes anteriores y posteriores de la imagen actual, lo que puede denominarse una prediccion entre tramas.
El modulo 120 de inter-prediccion esta provisto de un bloque de destino de prediccion particionado y al menos un bloque de referencia almacenado en la memoria 160. El modulo 120 de inter-prediccion realiza la estimacion del movimiento usando el bloque de destino de prediccion y el bloque de referencia. El modulo 120 de inter-prediccion genera information de movimiento que incluye un vector de movimiento (MV), un mdice del bloque de referencia y una modalidad de prediccion como resultado de la estimacion de movimiento.
Ademas, el modulo 120 de inter-prediccion realiza la compensacion de movimiento utilizando la informacion de movimiento y el bloque de referencia. Aqui, el modulo 120 de inter-prediccion genera y emite un bloque de prediccion que corresponde a un bloque de
5
10
15
20
25
30
entrada desde el bloque de referencia.
La information de movimiento es codificada por entropia para formar un flujo de bits comprimido, que se transmite desde el codificador de video a un descodificador de video. En una modalidad de intra-prediccion, el modulo 125 de intra-prediccion puede generar un bloque de prediction en base a la informacion sobre un pixel en la imagen actual. La intra- prediccion tambien se denomina prediccion intra-trama. En la modalidad de intra-prediccion, un bloque de destino de prediccion y un bloque reconstruido, reconstruido mediante la codification y descodificacion, son introducidos en el modulo 125 de intra-prediccion. Aqui, el bloque reconstruido es una imagen que no ha sido sometida al filtro de desbloqueo. El bloque reconstruido puede ser un bloque de prediccion anterior.
La FIG. 2 es un diagrama de bloques que ilustra esquematicamente una configuration del modulo de intra-prediccion, de acuerdo a una realization ejemplar de la presente invention.
Haciendo referencia a la FIG. 2, el modulo de intra-prediccion incluye un modulo 210 de generation de pixeles de referencia, un modulo 220 de determination de modalidad de intra-prediccion y un modulo 230 de generacion de bloques de prediccion.
El modulo 210 de generacion de pixeles de referencia genera un pixel de referencia necesario para la intra-prediccion. Los pixeles en una lmea vertical en el extremo derecho de un bloque izquierdo vecino a un bloque de destino de prediccion y los pixeles en una lmea horizontal mas baja de un bloque superior vecino a un bloque de destino de prediccion se utilizan para generar el pixel de referencia. Por ejemplo, cuando el bloque de destino de prediccion tiene un tamano N, 2N pixeles en cada una de las direcciones izquierda y superior se usan como pixeles de referencia. El pixel de referencia se puede utilizar tal como esta o mediante el filtrado de intra-allanamiento adaptable (AIS). Cuando el pixel de referencia se somete al filtrado AIS, se senaliza la informacion acerca del filtrado AIS. El modulo 220 de determinacion de modalidad de intra-prediccion recibe la entrada del bloque de destino de prediccion y el bloque reconstruido. El modulo 220 de determinacion de la modalidad de intra-prediccion selecciona una modalidad que reduzca al mmimo la cantidad de informacion a codificar entre las modalidades de prediccion, utilizando la imagen de entrada y la informacion de salidas en la modalidad de prediccion. Aqui, se puede usar una funcion de coste prefijado, o una transformada de Hadamard.
5
10
15
20
25
30
El modulo 230 de generation de bloques de prediction recibe la entrada de la information sobre la modalidad de prediccion y el pixel de referencia. El modulo 230 de generacion de bloques de prediccion predice espacialmente y compensa un valor de pixel del bloque de destino de prediccion, utilizando la informacion sobre la modalidad de prediccion y un valor de pixel del pixel de referencia, generando por ello un bloque de prediccion.
La informacion sobre la modalidad de prediccion es codificada por entropia para formar un flujo de bits comprimido junto con los datos de video, y transmitida desde el codificador de video al descodificador de video. El descodificador de video utiliza la informacion sobre la modalidad de prediccion cuando genera un bloque de intra-prediccion.
Con referencia nuevamente a la FIG. 1, un bloque diferencial se genera por diferencia entre el bloque de destino de prediccion y el bloque de prediccion generado en la modalidad de inter-prediccion o intra-prediccion, y se introduce en el modulo 130 de transformation. El modulo 130 de transformacion transforma el bloque diferencial en una unidad de transformacion, para generar un coeficiente de transformacion.
Un bloque de transformacion con una unidad de transformacion tiene una estructura de arbol de cuatro ramas, dentro de tamanos maximos y mmimos y, por lo tanto, no esta limitado a un tamano predeterminado. Cada bloque de transformacion tiene una senal que indica si el bloque actual esta o no dividido en sub-bloques, en donde, cuando la senal es 1, el bloque de transformacion actual puede estar dividido en cuatro sub-bloques. La transformacion discreta del coseno (DCT) se puede utilizar para la transformacion.
El modulo 135 de cuantizacion puede cuantizar los valores transformados por el modulo 130 de transformacion. Un coeficiente de cuantizacion puede cambiar sobre la base de un bloque o la importancia de una imagen. El coeficiente de transformacion cuantizado puede ser proporcionado al modulo 165 de reordenamiento y al modulo 140 de descuantizacion. El modulo 165 de reordenamiento puede cambiar un bloque bidimensional (2D) de los coeficientes de transformacion en un vector unidimensional (1D) de coeficientes de transformacion, mediante el escaneo, con el fin de mejorar la eficacia en la codification por entropia. El modulo 165 de reordenamiento puede cambiar el orden de escaneo en base a estadisticas estocasticas para mejorar la eficacia de la codificacion por entropia.
5
10
15
20
25
30
El modulo 170 de codificacion por entrop^a codifica por entropia los valores obtenidos por el modulo 165 de reordenamiento, y los valores codificados conforman un flujo de bits comprimido, que se almacena o transmite a traves de una capa de abstraction de red (NAL).
El modulo 140 de descuantizacion recibe y descuantiza los coeficientes de transformation cuantizados por el modulo 135 de cuantizacion, y el modulo 145 de transformacion inversa transforma inversamente los coeficientes de la transformacion, generando por ello un bloque diferencial reconstruido. El bloque diferencial reconstruido se fusiona con el bloque de prediction generado por el modulo 120 de inter-prediccion o el modulo 125 de intra- prediccion, para generar un bloque reconstruido. El bloque reconstruido se proporciona al modulo 125 de intra-prediccion y al filtro 150 de desbloqueo.
El filtro 150 de desbloqueo filtra el bloque reconstruido para eliminar una distorsion en un limite entre bloques que se produce en los procesos de codificacion y descodificacion, y proporciona un resultado filtrado a un filtro de bucle adaptable (ALF) 155.
El ALF 155 realiza el filtrado para reducir al mmimo un error entre el bloque de destino de prediccion y el bloque final reconstruido. El ALF 155 realiza el filtrado en base a un valor que resulta de comparar el bloque reconstruido filtrado por el filtro 150 de desbloqueo y el bloque actual de destino de prediccion, y una information de coeficiente de filtro en el ALF 155 se carga en una cabecera de tajada y se transmite desde el codificador al descodificador.
La memoria 160 puede almacenar el bloque reconstruido final, obtenido a traves del ALF 155, y el bloque reconstruido almacenado (final) puede ser proporcionado al modulo 120 de inter-prediccion para llevar a cabo la inter-prediccion.
La FIG. 3 es un diagrama de bloques que ilustra una configuration de un descodificador de video de acuerdo a una realization ejemplar de la presente invention. Haciendo referencia a la FIG. 3 , el descodificador de video incluye un modulo 310 de descodificacion por entropia, un modulo 315 de reordenamiento, un modulo 320 de descuantizacion, un modulo 325 de transformacion inversa, un modulo 330 de inter-prediccion, un modulo 335 de intra- prediccion, un filtro 340 de desbloqueo, un ALF 345 y una memoria 350.
El modulo 310 de descodificacion por entropia recibe un flujo de bits comprimido desde una NAL. El modulo 310 de descodificacion por entropia descodifica por entropia el flujo de bits
5
10
15
20
25
30
recibido, y tambien descodifica por entrop^a una modalidad de prediction y la information de vectores de movimiento, si el flujo de bits incluye la modalidad de prediccion y la informacion de vectores de movimiento. Un coeficiente de transformation, o senal diferencial, descodificado por entropia se proporciona al 315 modulo de reordenamiento. El modulo 315 de reordenamiento escanea inversamente el coeficiente de transformacion, o senal diferencial, para generar un bloque bidimensional de coeficientes de transformacion.
El modulo 320 de descuantizacion recibe y descuantiza los coeficientes de transformacion descodificados por entropia y reordenados. El modulo 325 de transformacion inversa transforma inversamente los coeficientes de transformacion descuantizados para generar un bloque diferencial.
El bloque diferencial puede fusionarse con un bloque de prediccion generado por el modulo 330 de inter-prediccion o el modulo 335 de intra-prediccion, para generar un bloque reconstruido. El bloque reconstruido se proporciona al modulo 335 de intra-prediccion y al filtro 340 de desbloqueo. El modulo 330 de inter-prediccion y el modulo 335 de intra- prediccion pueden realizar las mismas operaciones que el modulo 120 de inter-prediccion y el modulo 125 de intra-prediccion del codificador de video.
El filtro 340 de desbloqueo filtra el bloque reconstruido para eliminar una distorsion en un limite entre bloques que se produce en los procesos de codification y descodificacion, y proporciona un resultado filtrado al ALF 345. El ALF 345 realiza el filtrado para reducir al mmimo un error entre el bloque de destino de prediccion y el bloque finalmente reconstruido. La memoria 160 puede almacenar el bloque final reconstruido obtenido a traves del ALF 345, y el bloque reconstruido almacenado (final) puede ser proporcionado al modulo 330 de inter-prediccion para llevar a cabo la inter-prediccion.
Mientras tanto, en una zona con cambios insignificantes en la textura, por ejemplo, un fondo monotono del cielo o del mar, se usa la intra-prediccion plana para mejorar aun mas la eficacia de codificacion.
La intra-prediccion se clasifica en prediccion direccional, prediccion DC y prediccion plana, en donde la prediccion plana puede ser un concepto ampliado de la prediccion DC. Aunque la prediccion plana puede ser incluida, a grandes rasgos, en la prediccion DC, la prediccion plana puede cubrir un procedimiento de prediccion del que no se ocupa la prediccion DC.
5
10
15
20
25
30
Por ejemplo, la prediccion DC es preferible para una textura uniforme, mientras que la prediccion plana es eficaz para la prediccion de bloque, en un pixel, de valores que tengan direccionalidad.
La presente memoria ilustra un procedimiento para mejorar la eficacia de la prediccion plana con respecto a una textura con direccionalidad, utilizando variaciones en los valores de pixel de los pixeles de referencia de los bloques vecinos.
La FIG. 4 ilustra esquematicamente un procedimiento de prediccion plana.
Haciendo referencia a la FIG. 4 (A), se predice un valor 425 de pixel de un pixel en una esquina inferior derecha de un bloque actual 420. El valor 425 de pixel del pixel en la esquina inferior derecha del bloque actual se puede predecir como un valor DC. Haciendo referencia a la FIG. 4 (B), se predicen los valores de pixel de los pixeles situados en un limite derecho del bloque actual, y los valores de pixel de los pixeles situados en un limite inferior del bloque actual. Por ejemplo, un valor 445 de pixel situado en la frontera derecha del bloque actual puede ser predicho por interpolacion lineal de un valor 450 de pixel de un bloque superior y el valor 425 de DC. Ademas, un valor 435 de pixel situado en el limite inferior del bloque actual puede ser predicho por interpolacion lineal de un valor 430 de pixel de un bloque izquierdo y el valor 425 de DC.
Haciendo referencia a la FIG. 4 (C), los valores de pixel de los pixeles restantes, distintos al pixel de la esquina inferior derecha, los pixeles en el limite derecho y los pixeles en el limite inferior en el bloque actual, se puede predecir mediante interpolacion bilineal, utilizando los valores de pixeles de los bloques superior e izquierdo y los valores de pixeles ya predichos en el bloque actual. Por ejemplo, un valor 475 de pixel en el bloque actual se puede predecir por interpolacion usando un valor 460 de pixel del bloque superior, un valor 455 de pixel del bloque izquierdo, el valor 445 de pixel ya predicho situado en el limite derecho del bloque actual y el valor 435 de pixel ya predicho situado en el limite inferior del bloque actual.
Haciendo referencia a la FIG. 4 (D), las muestras de prediccion (muestras predichas) obtenidas mediante el proceso anterior pueden ser refinadas. Por ejemplo, un valor X 485 de pixel en el bloque actual puede ser refinado utilizando un valor T 480 de muestra superior y un valor L 490 de muestra izquierda. Espedficamente, el X' refinado a partir de X se puede
5
10
15
20
25
30
obtener por X' = {(X << 1) + L + T + 1} >> 2. Aqui, "x << y" indica que la expresion entera de x complementaria al dos se desplaza aritmeticamente a la izquierda en una unidad binaria y, mientras que "x >> y" indica que la expresion entera de x complementaria al dos se desplaza aritmeticamente a la derecha en la unidad binaria y.
La FIG. 5 ilustra esquematicamente un procedimiento alternativo de prediccion plana. En el procedimiento de la FIG. 5, los valores de pixel de los pixeles situados en diagonal en un pixel actual se predicen primero, y los valores de pixel de los pixeles restantes en el bloque actual se predicen usando los valores de pixel predichos. Para facilitar la description, los pixeles situados en diagonal desde la parte superior izquierda a la inferior derecha, entre los pixeles que construyen el bloque, se denominan pixeles diagonales a continuation.
Haciendo referencia a la FIG. 5 (A), los valores de pixel de los pixeles diagonales 540 de un bloque actual 510 se predicen usando un valor 520 de pixel de un bloque de referencia superior y un valor 530 de pixel de un bloque de referencia izquierdo. Por ejemplo, un valor de pixel de un pixel P diagonal en el bloque actual se puede obtener utilizando un valor de pixel de un pixel RefSuperior situado en un limite entre el bloque actual y el bloque superior entre los pixeles del bloque superior, y un valor de pixel de un pixel RefIzquierda situado en el limite entre el bloque actual y el bloque izquierdo, entre los pixeles del bloque izquierdo, mediante P = (RefIzquierda + RefSuperior +1) >> 1.
Haciendo referencia a la FIG. 5 (B), los valores de pixel de los pixeles en el bloque actual 510, distintos a los pixeles diagonales 540, se pueden obtener por interpolation lineal, utilizando el valor de pixel obtenido en la FIG. 5 (A) y los valores de pixel de los pixeles de los bloques superior e izquierdo en los limites. Por ejemplo, P1 se puede obtener usando el pixel RefSuperior del bloque superior y el pixel P diagonal obtenido, mediante P1 = (RefSuperior * d2 + P * d1) / (d1 + d2). Ademas, P2 se puede obtener mediante P2 = (RefIzquierda * d3 + P * d4) (d3 + d4).
Mientras tanto, los procedimientos de prediccion plana ilustrados en las FIGS. 4 y 5 son eficaces para una textura uniforme sin direccionalidad, mientras que estos procedimientos pueden tener eficacia reducida en la prediccion en un caso de una textura con direccionalidad, tales como los pixeles luma, en los que la luminancia cambia esencialmente en una direction, por ejemplo, una direction horizontal, pero apenas cambia en otra direction, por ejemplo, una direccion vertical.
5
10
15
20
25
30
Por lo tanto, puede ser necesaria la intra-prediccion plana, teniendo en cuenta las variaciones en los valores de pixel. La intra-prediccion plana segun la presente invention selecciona o predice un valor de pixel de base y aplica las variaciones en los valores de pixeles, entre un pixel de base y un pixel de destino, en el valor del pixel de base, prediciendo por ello un valor de pixel del pixel de destino.
En lo sucesivo, se describiran ejemplos de la presente invencion con referencia a los dibujos.
Ejemplo 1
La FIG. 6 ilustra esquematicamente que un pixel diagonal Pii de un bloque de prediction actual se predice primero. Aunque la FIG. 6 ilustra un bloque de prediccion de 8 x 8, para facilitar la description, la presente invencion puede tambien ser aplicada a un bloque de prediccion de N x N, sin estar limitada al bloque de prediccion de 8 x 8.
En el Ejemplo 1 mostrado en la FIG. 6, los pixeles diagonales del bloque de prediccion actual se predicen primero en base a un pixel de referencia (Ri0 y / o R0j, 0 < i , j < 8 en el caso de un bloque de prediccion de 8 x 8) de un bloque de referencia vecino al bloque de prediccion actual.
Es decir, despues de que se obtienen los pixeles diagonales Pii, otros valores de pixel en el bloque de prediccion se pueden obtener por interpolation o extrapolation, usando valores (Rij) de pixeles de referencia del bloque vecino, y los Pii.
La FIG. 7 ilustra esquematicamente un procedimiento de obtencion de los otros valores de pixel en el bloque de prediccion en base a los pixeles diagonales.
En la presente invencion, la prediccion plana se lleva a cabo en consideration de los cambios en los valores de pixeles. Por ejemplo, como se muestra en la FIG. 7 (A), cuando los valores de pixeles de referencia aumentan tanto en una direction x (a la derecha) como en una direccion y (hacia abajo), tambien es mas probable que los valores de pixel en el bloque de prediccion aumenten en una direccion inferior derecha. En este caso, un valor de
5
10
15
20
25
30
p^xel de P88 en una esquina inferior derecha del bloque de prediction puede predecirse primero, y otros p^xeles pueden ser predichos en base al valor de pfxel de P88.
Para predecir el valor de P88, definiendo un valor de pfxel del pfxel R00 de referencia en una esquina superior izquierda del bloque de prediccion actual como un valor de pfxel del pfxel de base, una variation, entre el pfxel de base y el pfxel P88 de destino de prediccion en el bloque de prediccion, puede ser aplicada al valor de pfxel del pfxel de base. Por ejemplo, un valor de pfxel del pfxel de destino P88 puede ser obtenido por la Ecuacion 1. Para facilitar la description, los Rij, o los Pij, ilustrados en los dibujos y la memoria se presentan como Ri,j y Pi,j.
[Ecuacion 1]
imagen1
Cuando se obtiene P88, los otros pfxeles diagonales Pii pueden ser obtenidos por la Ecuacion 2.
[Ecuacion 2]
imagen2
En este caso, dado que el presente ejemplo ilustra el bloque de prediccion de 8 x 8, i puede ser 1, 2, ..., 8. Aunque el Ejemplo 1 ilustra el bloque de prediccion de 8 x 8 para facilitar la descripcion, en un bloque de prediccion de N x N, los Pii pueden obtenerse como Pii = R00 + (i / N) P88.
Como se muestra en la FIG. 7 (B), incluso cuando el valor del pfxel de referencia disminuye tanto en la direction x (a la derecha) como en la direction y (hacia abajo), un valor de pfxel de P88 en la esquina inferior derecha del bloque de prediccion se puede obtener en consideration de las variaciones en los valores de pfxel decrecientes, y los demas valores
18
5
10
15
20
25
30
de los p^xeles pueden ser predichos basandose en el valor de p^xel de P88. En este caso, P88 puede ser obtenido por la Ecuacion 3.
[Ecuacion 3]
imagen3
Cuando se obtiene P88, los otros pfxeles diagonales en el bloque de prediccion se pueden obtener por la Ecuacion 4.
[Ecuacion 4]
imagen4
Aquf, i puede ser 1,2, ..., 8.
Como se muestra en la FIG. 7 (C), cuando los valores de pfxel de referencia aumentan en una direccion superior derecha, los pfxeles situados entre la parte inferior izquierda y la parte superior derecha en el bloque de prediccion se obtienen primero sobre la base de las variaciones en los valores de pfxeles, a diferencia de lo que ocurre en las FIGS. 7 (A) y 7 (B). Por ejemplo, se obtiene un valor de pfxel de P81 en la esquina inferior izquierda del bloque de prediccion, y los valores de los pfxeles restantes se pueden predecir en base al valor de pfxel de P81. En este caso, P81 puede obtenerse por la Ecuacion 5.
[Ecuacion 5]
imagen5
Cuando se obtiene P81, los pfxeles diagonales restantes (de parte inferior izquierda a superior izquierda) en el bloque de prediccion se pueden obtener por la Ecuacion 6.
5
10
15
20
25
30
[Ecuacion 6]
imagen6
Aqw, i puede ser 1,2, ..., 8.
Tambien, como se muestra en la FIG. 7 (D), cuando los valores de pfxeles de referencia aumentan en una direccion inferior izquierda, los pfxeles diagonales situados desde la parte inferior izquierda a la parte superior derecha en el bloque de prediccion se obtienen primero en base a las variaciones en los valores de pfxeles. Por ejemplo, se obtiene el valor de pfxel de P81 en la esquina inferior izquierda del bloque de prediccion, y los valores de los pfxeles restantes se pueden predecir en base al valor de pfxel de P81. En este caso, P81 puede obtenerse por la Ecuacion 7.
[Ecuacion 7]
imagen7
Cuando se obtiene P81, los pfxeles diagonales restantes (de la parte inferior izquierda a la superior izquierda) en el bloque de prediccion se pueden obtener por la Ecuacion 8.
[Ecuacion 8]
imagen8
Aquf, i puede ser 1,2, ..., 8.
A la vista de las cargas de calculo, la aproximacion de los calculos de rafces cuadradas para
20
obtener los p^xeles diagonales puede ser considerada como en la Ecuacion 9.
[Ecuacion 9]
5
imagen9
Posteriormente, los otros valores de p^xel en el bloque de prediccion se pueden obtener por interpolacion o extrapolation, usando los valores de prediccion de los pfxeles diagonales, los valores de pfxeles de referencia superiores y los valores de pfxeles de referencia izquierdos.
10 En las FIGS. 7 (A) y 7 (B), los pfxeles Pij en el bloque de prediccion se puede obtener mediante interpolacion, utilizando los pfxeles diagonales Pii y los pfxeles R de referencia del bloque vecino. Aquf, se puede usar una interpolacion mostrada en la Ecuacion 10.
[Ecuacion 10] 15
imagen10
o
imagen11
20 Aquf, di es una distancia desde el pfxel R0j o Rj0 del bloque vecino, utilizado para la interpolacion, hasta el pfxel Pij de destino de prediccion, y d2 es una distancia desde el pfxel diagonal Pii, utilizado para la interpolacion, hasta el pfxel Pij de destino de prediccion. Ademas, en las FIGS. 7 (C) y 7 (D), el pfxel Pi, obtenido por interpolacion entre los pfxeles en el bloque de prediccion, se puede obtener por la Ecuacion 11.
25
[Ecuacion 11]
imagen12
imagen13
d, + d~
\
)
imagen14
o
Aqu , i + j < 9 , y di es una distancia entre el pixel R0j o Rj0 del bloque vecino, utilizado para 5 la interpolation, y el pixel Pij de destino de prediction, y d2 es una distancia desde el p^xel diagonal Pii, utilizado para la interpolacion, hasta el pixel Pij de destino de prediccion. Aqui, aunque la Ecuacion 11 se utiliza para la interpolacion a fin de obtener el pixel Pij del bloque de prediccion, se pueden emplear varios procedimientos de interpolacion en la presente invencion, sin estar limitada a los mismos.
10 Mientras tanto, en las FIGS. 7 (C) y 7 (D), hay un pixel Pe obtenido por extrapolation entre los pixeles del bloque de prediccion. Aqui, una extrapolacion mostrada en la Ecuacion 12 puede ser usada para obtener el pixel en el bloque de prediccion.
[Ecuacion 12]
15
imagen15
o
imagen16
20 En este caso, i + j > 9 y P es un pixel diagonal utilizado para la extrapolacion. Ademas, como se ha descrito anteriormente, d1 y d2 son, respectivamente, una distancia desde el pixel de referencia hasta el pixel Pij de destino de prediccion, y una distancia desde el pixel Pii al pixel Pij de destino de prediccion.
25
Ejemplo 2
La FIG. 8 ilustra esquematicamente otro procedimiento de prediccion de un valor de pixel
5
10
15
20
25
30
teniendo en cuenta un valor de p^xel de base y una variacion con respecto a un pfxel de base. Aunque la FIG. 8 ilustra un bloque de prediccion de 8 x 8 para facilitar la descripcion, la presente invention puede tambien ser aplicada a un bloque de prediccion de N x N, sin estar limitado al bloque de prediccion de 8 x 8.
La FIG. 8 ilustra un pfxel P00 de referencia, situado en la esquina superior izquierda del bloque de prediccion, como un pfxel base. En el Ejemplo 2, un pfxel Pij de destino de prediccion se obtiene mediante la aplicacion de variaciones verticales y horizontales entre el pfxel de referencia y el valor del pfxel de base.
Por ejemplo, el pfxel Pij de destino se obtiene mediante la Ecuacion 13.
[Ecuacion 13]
Pij = R00+Ax+Ay
Aquf, Ay = Ri0 - R00, ax = R0j - R00, y 1 < i, j < 8 en el caso del bloque de prediccion de 8x8.
Por ejemplo, con referencia a la FIG. 8, un pfxel P33 se obtiene por P33 = R00 + ax + Ay, segun la Ecuacion 7. Aquf, ax y Ay son las variaciones en el valor de pfxel en la direction x y las direcciones y desde el pfxel de base, de R00 a P33.
Alternativamente, con referencia a la FIG. 8, un pfxel P76 se obtiene por P76 = R00 + ax'+ Ay', segun la Ecuacion 13. Aquf, ax' y Ay' son variaciones en el valor de pfxel en la direccion x y las direcciones y desde el pfxel base, de R00 a P76.
Ejemplo 3
La FIG. 9 ilustra esquematicamente otro procedimiento de obtencion, primero, de pfxeles de la diagonal de un bloque de prediccion, y luego los valores de pfxel de los pfxeles restantes.
Aunque la FIG. 5 ilustra que los pfxeles diagonales se obtienen en base a un valor medio de dos pfxeles en una direccion horizontal / vertical de un bloque vecino al bloque de prediccion
actual, el Ejemplo 3 mostrado en la FIG. 9 lleva los p^xeles diagonales teniendo en cuenta las variaciones.
Haciendo referencia a la FIG. 9 (A), los pixeles de la diagonal del bloque de prediccion se
/ o izquierdos del bloque de prediccion. Por ejemplo, los pixeles diagonales Pii se predicen por la Ecuacion 14.
[Ecuacion 14]
10
Por ejemplo, con referencia a la FIG. 9 (A), P33 puede ser predicho por P33 = R03 + Ay o 15 P33 = R30 + ax, de acuerdo a la Ecuacion 14. ax y Ay son, respectivamente, las variaciones en valores de pixel en la direccion x de un pixel de base, R30 a P33, y en la direccion y de un pixel de base, R03 a P33.
Haciendo referencia a la FIG. 9 (B), otros pixeles Pij del bloque actual, distintos a los pixeles 20 diagonales, se puede predecir por interpolation lineal, usando los valores de prediccion de los pixeles diagonales y los pixeles de referencia R00, R10 a R80 y R01 a R08 de los bloques vecinos en los limites superiores e izquierdos del bloque actual.
Por ejemplo, un valor Pij de pixel puede ser predicho por la Ecuacion 15.
25
[Ecuacion 15]
5 predicen usando valores de pixel de los bloques vecinos situados en los limites superiores y
imagen17
o
imagen18
p.._ R0jxd2+Piixdl J dl+d2
o
imagen19
5
10
15
20
25
30
d1 es una distancia desde el p^xel R0j o Pi0 de los bloques vecinos, usados para la interpolacion, hasta el p^xel Pij de destino de prediccion, y d2 es una distancia desde el pixel diagonal Pii, utilizado para la interpolacion, hasta el pixel Pij de destino de prediccion.
Ejemplo 4
La FIG. 10 ilustra esquematicamente que los pixeles diagonales se obtienen primero y que los pixeles distintos a los pixeles diagonales se obtienen en el mismo procedimiento que se utiliza para los pixeles diagonales.
En la FIG. 10, los pixeles diagonales pueden ser predichos de la misma manera que se ilustra en la FIG. 9. Por lo tanto, con referencia a la FIG. 10 (A), un pixel diagonal P33 de un bloque de prediccion actual puede ser predicho por P33 = R03 + Ay o P33 = R30 + ax.
Posteriormente, otros pixeles Pij del bloque actual, distintos a los pixeles diagonales, pueden ser predichos por interpolacion lineal, usando los valores de prediccion de los pixeles diagonales y los pixeles de referencia R00, R10 a R80 y R01 a R08 de los bloques vecinos en los limites superiores e izquierdos del bloque actual.
Aqui, se puede utilizar el mismo procedimiento que se utiliza para obtener pixeles diagonales. Por ejemplo, un pixel Pij puede ser predicho por la Ecuacion 16.
[Ecuacion 16]
Pij = R0j+Ay Pij = Ri0+Ax
Aqui, Ay = Ri0 - R00, ax = R0j - R00 y 1 < i, j < 8 en el caso del bloque de prediccion de 8x8.
5
10
15
20
25
30
Por ejemplo, con referencia a la FIG. 10, P37 puede obtenerse por P37 = R07 + Ay o P37 = R70 + ax, segun la Ecuacion 16.
Mientras tanto, la acumulacion de errores menores resultantes de la aritmetica de enteros por parte del codificador o descodificador, durante un largo tiempo, puede causar un grave error. Ademas, cuando se produce un error de transmision en un bloque vecino a un bloque actual, una falta de coincidencia surge entre el codificador y el descodificador, o la propagation del error. Por ejemplo, cuando se produce un error en el bloque vecino, se cambian los valores de los pixeles sobre un limite del bloque vecino. En este caso, cuando el descodificador utiliza un pixel con un valor de pixel cambiado como un pixel de referencia, el error se propaga al bloque actual. Por lo tanto, se necesita una herramienta para evitar dicho problema, por ejemplo, una herramienta de codification tal como la intra-prediccion restringida (CIP).
La FIG. 11 ilustra esquematicamente un procedimiento de la CIP.
En el procedimiento de la FIG. 11, si hay un bloque cualquiera, en modalidad de inter- prediccion, vecino a un macrobloque T actual, se utiliza solamente una modalidad DC de intra-prediccion, y un valor de prediction de DC se fija en 128.
Aqui, un valor de pixel de un bloque predicho por la modalidad de inter-prediccion entre los bloques vecinos no se utiliza como un valor de pixel de referencia. Por lo tanto, en este procedimiento, se emplea obligatoriamente una modalidad de prediccion de DC, excluyendo incluso la information disponible, por ejemplo, los pixeles vecinos en modalidad de intra- prediccion.
La FIG. 12 ilustra esquematicamente un procedimiento alternativo de CIP.
En el procedimiento de la FIG. 12, un valor de pixel de un bloque predicho en la modalidad de intra-prediccion entre los bloques vecinos se utiliza como un valor de pixel de referencia, y un valor de pixel de un bloque predicho en la modalidad de inter-prediccion se obtiene utilizando bloques vecinos en modalidad de intra-prediccion. Por lo tanto, se pueden usar no solo la modalidad de DC, sino tambien otras modalidades de intra-prediccion.
5
10
15
20
25
30
Haciendo referencia a la FIG. 12, entre los bloques vecinos a un bloque T actual de prediction, los valores de pfxeles 1210, 1220 y 1230 de los bloques A, B, D, E, F, H e I, predichos por la modalidad de inter-prediccion, se obtienen utilizando pfxeles de bloques predichos por la modalidad de intra-prediccion.
Por ejemplo, cuando los pfxeles predichos de la modalidad de intra-prediccion estan presentes en ambos lados derecho e izquierdo de una muestra de destino de la inter- prediccion, un valor Pt de pfxel de un bloque predicho por la modalidad de inter-prediccion se obtiene por la Ecuacion 17.
[Ecuacion 17]
imagen20
Aqm, Pt es una muestra de destino de inter-prediccion, Plb es una muestra de intra- prediccion izquierda o inferior y Pra es una muestra de intra-prediccion derecha o superior. Ademas, cuando una muestra de intra-prediccion esta presente solamente en cualquiera de los lados de la muestra de destino de inter-prediccion, un valor Pt de pfxel de un bloque predicho por la modalidad de inter-prediccion se obtiene por la Ecuacion 18.
[Ecuacion 18]
imagen21
imagen22
o
imagen23
El procedimiento de la FIG. 12 utiliza la modalidad de intra-prediccion mas adecuadamente que el procedimiento de la FIG. 11, pero utiliza un valor medio de los valores de pfxel disponibles en la modalidad de intra-prediccion, o un valor de pfxel disponible por sf mismo en la modalidad de intra-prediccion, como un valor de pfxel de un bloque vecino predicho en la modalidad de inter-prediccion, sin tener en cuenta la variation en los valores de pfxeles.
Por lo tanto, se necesita un procedimiento de CIP que tenga en cuenta las variaciones de valores de pfxel.
5
10
15
20
25
30
Ejemplo 5
La FIG. 13 ilustra esquematicamente que un sistema de acuerdo a la presente invention realiza la CIP en consideration de las variaciones de valores de pfxel.
El procedimiento de la FIG. 13, utilizando variaciones en los valores de pfxeles de ambos pfxeles para la interpolation, logra una prediction mas precisa de un valor de pfxel de destino que el procedimiento de la FIG. 12, que utiliza un valor medio de ambos valores de pfxel como un valor de pfxel a obtener. Por ejemplo, un pfxel PT, entre los valores 1310, 1320 y 1330 de pfxeles a obtener, puede ser obtenido por la Ecuacion 19.
[Ecuacion 19]
T d\+d2
Aquf, Pt es una muestra de destino de prediccion, Plb es una muestra de intra-prediccion izquierda o inferior y Pra es una muestra de intra-prediccion derecha o superior. Ademas, como se muestra en la FIG. 13, d1 es una distancia entre Plb y Pt y d2 es una distancia entre Pra y Pt.
Por ejemplo, con referencia a la FIG. 13, Pt1 puede obtenerse de (Plb1 * d21 + Pra1 * d11) / (d11 + d21), y Pt2 puede obtenerse de (Plb2 * d22 + Pra2 * d12) / (d12 + d22).
Si una muestra de intra-prediccion a utilizar para la interpolacion esta presente, bien en los lados derecho e izquierdo, o bien en los lados superior e inferior, de la muestra Pt de destino de prediccion solamente, Pt = Plb o Pt = Pra. Ademas, si no hay ningun bloque predicho en la modalidad de intra-prediccion vecino al bloque T de destino de prediccion, un valor de pfxel en la misma position que en una imagen anterior se puede copiar para su uso como un valor de pfxel de referencia.
Los valores promedio de los intra-pfxeles en el lfmite pueden ser utilizados como valores de Plb o Pra. Por ejemplo, en la FIG. 3, cuando Pt esta situado en una fila 1320 inferior de
5
10
15
20
25
30
p^xeles de un bloque E o un bloque D, un valor medio de los cuatro pixeles mas bajos de un bloque C en la modalidad de intra-prediccion puede ser utilizado como Pra, y un valor promedio de los ocho p^xeles mas a la derecha de un bloque G puede ser utilizado como Plb. En este caso, un punto de referencia de d1 es un pixel superior entre los pixeles mas a la derecha del bloque G, y un punto de referencia de d2 es un pixel mas a la izquierda entre los pixeles mas bajos del bloque C.
Ademas, la interpolation lineal da un efecto de allanamiento sobre los pixeles en los limites y, por tanto, el intra-allanamiento adaptable (AIS) puede ser desactivado. Aqui, en la modalidad de prediction DC, el filtrado de pixeles en un limite del bloque de prediction puede ser activado.
La FIG. 14 es un diagrama de flujo que ilustra esquematicamente una operation del codificador en el sistema de acuerdo a la presente invention.
Haciendo referencia a la FIG. 14, se ingresa una nueva unidad de prediccion de una imagen actual (S1410). La unidad de prediccion (PU) puede ser una unidad basica para la intra- prediccion y la inter-prediccion. La unidad de prediccion puede ser un bloque mas pequeno que una unidad de codification (CU) y puede tener una forma rectangular, no necesariamente una forma cuadrada. La intra-prediccion de la unidad de prediccion es llevada a cabo basicamente por un bloque de 2N x 2N o de N x N.
Posteriormente, se obtiene un pixel de referencia necesario para la intra-prediccion (S1420). Los pixeles en una lmea vertical mas a la derecha de un bloque izquierdo vecino a un bloque de prediccion actual y los pixeles en una lmea horizontal mas baja de un bloque superior vecino al bloque de prediccion actual se utilizan para generar el pixel de referencia. Cuando el bloque de prediccion tiene un tamano N, se usan en total 2N pixeles de los bloques izquierdo y superior como pixeles de referencia.
Aqui, los pixeles en la lmea vertical mas a la derecha del bloque izquierdo vecino al bloque de prediccion actual y los pixeles en la fila horizontal mas baja del bloque superior vecino al bloque de prediccion actual se pueden usar como los pixeles de referencia, bien como estan o bien mediante el allanamiento.
5
10
15
20
25
30
Cuando se emplea el allanamiento, la information de allanamiento tambien puede ser senalizada al descodificador. Por ejemplo, cuando se realiza el allanamiento, se puede emplear un filtro de AIS, en el que pueden usarse los coeficientes [1, 2, 1] o [1, 1, 4, 1, 1] de filtro. Entre estos dos coeficientes, el segundo coeficiente de filtro puede proporcionar un limite mas nftido. Como se ha mencionado anteriormente, la informacion que incluye usar o no un filtro, un tipo de filtro a usar y un coeficiente de filtro puede ser senalizada al descodificador.
Mientras tanto, cuando la CIP se utiliza para generar el pixel de referencia, un valor senal_CIP se fija en 1. Cuando se aplica la CIP, solo los pixeles de los bloques vecinos codificados en la modalidad de intra-prediccion se usan como pixeles de referencia, y los pixeles de los bloques vecinos codificados en la modalidad de inter-prediccion no se usan como pixeles de referencia. En este caso, como se muestra en la FIG. 13, los pixeles (muestras de prediction de destino) correspondientes a las posiciones de los pixeles de los bloques vecinos codificados en la modalidad de inter-prediccion se generan como pixeles de referencia, mediante la interpolation de los pixeles de referencia vecinos codificados en la modalidad de intra-prediccion, o bien los pixeles de referencia vecinos codificados en la modalidad de intra-prediccion se copian y se utilizan como pixeles de referencia correspondientes a las posiciones de los pixeles de los bloques vecinos codificados en la modalidad de inter-prediccion.
Por ejemplo, cuando los pixeles de prediccion, en la modalidad de intra-prediccion, estan presentes en ambos lados derecho e izquierdo, y los lados inferiores de una muestra de destino de inter-prediccion, la muestra Pt de prediccion de destino, situada en un bloque predicho en la modalidad de inter-prediccion puede obtenerse por la Ecuacion 11. Ademas, cuando una muestra de intra-prediccion esta presente solamente a cada lado de la muestra de prediccion de destino, la muestra Pt de prediccion de destino, situada en una ubicacion de bloque predicha en la modalidad de inter-prediccion, puede obtenerse por la Ecuacion 12. En la Ecuacion 11 y / o la Ecuacion 12, los valores medios de los correspondientes pixeles de la modalidad de intra-prediccion pueden ser utilizados como valores de Plb y Pra. Si no hay ningun bloque vecino predicho en la modalidad de intra-prediccion, un valor de pixel en la misma position que en una imagen anterior puede ser copiado para su uso como un valor de pixel de referencia.
Dado que la interpolacion lineal da un efecto de allanamiento sobre los pixeles en los
l^mites, puede ser eficaz desactivar el AIS al usar la CIP.
Posteriormente, se determina una modalidad de intra-prediccion (S1430).
5 La modalidad de intra-prediccion esta determinada por una unidad de prediction (PU), en la que una modalidad de prediccion optima se determina a la vista de la relacion entre la velocidad de bits requerida y la magnitud de la distorsion.
Por ejemplo, cuando la optimization de la distorsion de velocidad (RDO) esta activada, 10 puede seleccionarse una modalidad para reducir al mmimo el coste J = R + rD (R es la velocidad de bits, D es la magnitud de la distorsion y r es una variable de Lagrange). Aqui, se necesita una descodificacion local exhaustiva, en cuyo caso la complejidad puede aumentar.
15 Cuando la RDO esta desactivada, puede seleccionarse una modalidad de prediccion para reducir al mmimo una diferencia absoluta media (MAD), sometiendo un error de prediccion a la transformation de Hadamard.
La Tabla 1 ilustra un cierto numero de modalidades de prediccion con respecto a un 20 componente luma, de acuerdo al tamano de un bloque de unidad de prediccion.
[Tabla 1]
Tamano del
Numero de modalidades de
bloque
prediccion
4 x 4
17
8 x 8
34
16 x 16
34
32 x 32
34
64 x 64
3
25 La FIG. 15 ilustra una direction de prediccion de una modalidad de intra-prediccion.
Haciendo referencia a la FIG. 15, un numero 0 de modalidad es una modalidad vertical, en
la que se lleva a cabo la prediccion en una direccion vertical, utilizando un valor de pixel de
31
5
10
15
20
25
30
un bloque vecino. Un numero 1 de modalidad es una modalidad horizontal en la que se lleva a cabo la prediction en una direction horizontal, usando un valor de pixel de un bloque vecino. Un numero 2 de modalidad es una modalidad de DC, en la que se genera un bloque de prediccion utilizando un valor medio de pixel de un bloque de destino de prediccion actual, por ejemplo, un valor luma en el caso de pixeles de luma, y un valor croma en el caso de los pixeles de croma. En otras modalidades, que se muestran en la FIG. 15, la prediccion se lleva a cabo usando los valores de pixel de los bloques vecinos, segun los angulos correspondientes.
En la modalidad de DC, los pixeles de prediccion superiores y los pixeles de prediccion mas a la izquierda pueden ser filtrados para mejorar la eficacia de la prediccion. Aqui, la intensidad de filtrado puede llegar a ser mas alta para un bloque mas pequeno. Los otros pixeles internos en el bloque de prediccion actual pueden no ser filtrados.
Mientras tanto, puede utilizarse una modalidad plana para reflejar la direccionalidad, en lugar de la modalidad de DC. En la modalidad plana, un valor de la Senal_plana, entre la information transmitida desde el codificador al descodificador, se fija en 1. Cuando se utiliza la modalidad plana, no se utiliza la modalidad de DC. Por lo tanto, cuando se utiliza la modalidad de DC en lugar de la modalidad plana, el valor de la Senal_plana se fija en 0.
Cuando se emplea la modalidad plana, pueden usarse los mismos procedimientos de prediccion, segun lo descrito anteriormente en las FIGS. 6 a 10. Aqui, el descodificador puede llevar a cabo una operation de RDO, descrita anteriormente, con el fin de seleccionar el procedimiento optimo. Si es necesario, pueden ser usados juntos dos o mas procedimientos entre los procedimientos anteriores. El codificador senaliza al descodificador informacion acerca de que procedimiento selecciona el codificador entre los procedimientos de prediccion en la modalidad plana ilustrada en las FIGS. 6 a 10.
Con respecto a un pixel de referencia de un componente de croma, se puede emplear una intra-prediccion direccional unificada (UDI) de un bloque de luma, ya que esta en un numero 4 de modalidad, lo que se denomina una modalidad de DM. En un numero 0 de modalidad, se genera un bloque de prediccion utilizando una relacion lineal entre luma y croma, que se denomina una modalidad de modelo lineal (LM). Un numero 1 de modalidad es una modalidad vertical, en la que se lleva a cabo la prediccion en la direccion vertical, y se
5
10
15
20
25
30
corresponde con el numero 0 de modalidad de la luma. Un numero 2 de modalidad es una lhea horizontal, en la que se lleva a cabo la prediction en la direction horizontal, y se corresponde con el numero 1 de modalidad de la luma. Un numero 3 de modalidad es una modalidad de DC, en la que se genera un bloque de prediccion utilizando un valor promedio de croma de un bloque de destino de prediccion actual, y se corresponde con el numero 2 de modalidad de la luma.
Volviendo a la FIG. 14, el codificador codifica una modalidad de prediccion del bloque actual (S1440). El codificador codifica una modalidad de prediccion para un bloque componente de luma y un bloque componente de croma del bloque de prediccion actual. Aquf, ya que la modalidad de prediccion del bloque de destino de prediccion actual se correlaciona en grado sumo con una modalidad de prediccion de un bloque vecino, el bloque de destino de prediccion actual se codifica usando la modalidad de prediccion del bloque vecino, reduciendo por ello la cantidad de bits. Ademas, se determina una modalidad mas probable (MPM) del bloque de destino de prediccion actual y, en consecuencia, la modalidad de prediccion del bloque de destino de prediccion actual puede ser codificada utilizando la MPM.
Posteriormente, se obtienen un valor de pfxel del bloque de prediccion actual y un valor diferencial, en un pfxel, para el valor de pfxel del bloque de prediccion, generando por ello una senal residual (S1450).
La senal residual generada es transformada y codificada (S1460). La senal residual se puede codificar utilizando un nucleo de transformation, en el que el nucleo de codification de la transformacion tiene un tamano de 2 x 2, 4 x 4, 8 x 8, 16 x 16, 32 x 32 o 64 x 64. Un coeficiente C de transformacion se genera para la transformacion, que puede ser un bloque bidimensional de coeficientes de transformacion. Por ejemplo, para un bloque de nxn, un coeficiente de transformacion puede ser calculado por la Ecuacion 20.
[Ecuacion 20]
imagen24
Aquf, C (n, n) es una matriz de coeficientes de transformacion de n * n, T (n, n) es una
33
5
10
15
20
25
30
matriz nuclear de transformation de n * n y B (n, n) es una matriz de n * n para un bloque de destino de prediction.
Cuando m = hN, n = 2N y h = 1/2, un coeficiente C de transformacion para un bloque de m * n o n * m puede obtenerse por dos procedimientos. En primer lugar, el bloque diferencial de m * n o n * m se divide en cuatro bloques de m * m y se aplica un nucleo de transformacion a cada bloque, generando por ello el coeficiente de transformacion. Alternativamente, un nucleo de transformacion se aplica al bloque diferencial de m * n o n * m, generando por ello el coeficiente de transformacion.
El codificador determina cual transmitir, entre la senal residual y el coeficiente de transformacion (S1470). Por ejemplo, cuando se lleva a cabo adecuadamente la prediccion, la senal residual puede ser transmitida como es, sin codification de transformacion.
La determination en cuanto a cual transmitir, entre la senal residual y el coeficiente de transformacion, puede llevarse a cabo mediante la RDO, o similares. Las funciones de costes, antes y despues de la codificacion de transformacion, se comparan para minimizar los costes. Cuando se determina un tipo de senal a transmitir, es decir, la senal residual o el coeficiente de transformacion, para el bloque de prediccion actual, un tipo de la senal transmitida tambien se senaliza al descodificador.
Posteriormente, el codificador escanea el coeficiente de transformacion (S1480). Un bloque bidimensional cuantizado de coeficientes de transformacion puede ser convertido en un vector unidimensional de coeficientes de transformacion mediante el escaneo.
El coeficiente de transformacion escaneado y la modalidad de intra-prediccion son codificados por entropia (S1490). La information codificada se conforma como un flujo de bits comprimido, que puede ser transmitido o almacenado a traves de una NAL.
La FIG. 16 es un diagrama de flujo que ilustra esquematicamente una operation del descodificador en el sistema de acuerdo a la presente invencion.
Haciendo referencia a la FIG. 16, el descodificador descodifica por entropia un flujo de bits recibido (S1610). Aqui, un tipo de bloque se puede obtener a partir de una tabla de
5
10
15
20
25
30
codificacion de longitud variable (VLC), y puede obtenerse una modalidad de prediction de un bloque actual de destino de descodificacion. Cuando el flujo de bits recibido puede incluir information lateral necesaria para descodificar, tal como information sobre una unidad de codificacion, una unidad de prediccion y una unidad de transformation, la informacion sobre el filtrado de AIS, la informacion sobre la limitation de un contador de modalidad de prediccion, la informacion sobre modalidades de prediccion no utilizadas, la informacion sobre reordenamiento de modalidades de prediccion, la informacion sobre procedimientos de transformacion y la informacion sobre los procedimientos de escaneo, y la informacion lateral, es descodificada por entropia, junto con el flujo de bits.
La informacion descodificada puede confirmar si una senal transmitida para el bloque actual de destino de descodificacion es una senal residual o un coeficiente de transformacion para un bloque diferencial. Una senal residual, o vector unidimensional de coeficientes de transformacion para el bloque diferencial, se obtiene para el bloque actual de destino de descodificacion.
Posteriormente, el descodificador genera un bloque residual (S1620).
El descodificador escanea inversamente la senal residual descodificada por entropia, o el coeficiente de transformacion, para generar un bloque bidimensional. Aqui, un bloque residual puede ser generado a partir de la senal residual, y un bloque bidimensional de coeficientes de transformacion puede ser generado a partir del coeficiente de transformacion.
Los coeficientes de transformacion son descuantizados. Los coeficientes de transformacion descuantizados son transformados inversamente, y el bloque residual para la senal residual se genera mediante la transformacion inversa. La transformacion inversa de un bloque de n * n puede ser expresada por la Ecuacion 11.
El descodificador genera pixeles de referencia (S1630). Aqui, el descodificador genera el pixel de referencia haciendo referencia a la informacion sobre si el filtrado de AIS se aplica o no, y sobre un tipo de filtro utilizado senalizado y transmitido por el codificador. Del mismo modo en el proceso de codificacion, los pixeles en una lmea vertical mas a la derecha de un bloque izquierdo ya descodificado y reconstruido, y vecino al bloque de destino de descodificacion actual, y los pixeles en una lmea horizontal mas baja de un bloque superior
5
10
15
20
25
30
vecino al bloque de destino de descodificacion, se utilizan para la generation del pixel de referencia.
Mientras tanto, cuando un valor de la Senal_CIP, recibido por el descodificador, se fija en 1, lo que significa que el codificador utiliza la CIP para una imagen de destino, el descodificador genera el pixel de referencia en consecuencia. Por ejemplo, solo los pixeles de los bloques vecinos codificados en la modalidad de intra-prediccion se usan como pixeles de referencia, mientras que los pixeles de los bloques vecinos codificados en la modalidad de inter-prediccion no se usan como pixeles de referencia. En este caso, como se ilustra en la FIG. 6, los pixeles (muestras de prediction de destino) correspondientes a las posiciones de los pixeles de los bloques vecinos codificados en la modalidad de inter-prediccion se generan como pixeles de referencia mediante la interpolation de los pixeles de referencia vecinos, codificados en la modalidad de intra-prediccion, o bien los pixeles de referencia vecinos codificados en la modalidad de intra-prediccion pueden ser copiados y utilizados como pixeles de referencia correspondientes a las posiciones de los pixeles de los bloques vecinos codificados en la modalidad de inter-prediccion.
Por ejemplo, cuando los pixeles de la modalidad de intra-prediccion estan presentes tanto en los lados derechos e izquierdos, como en los lados superiores e inferiores, de una muestra de inter-prediccion de destino, la muestra Pt de prediccion de destino, situada en un bloque predicho en la modalidad de inter-prediccion se obtiene por la Ecuacion 17. Ademas, cuando una muestra intra-predicha solo esta presente a cada lado de la muestra de prediccion de destino, la muestra Pt de prediccion de destino, situada en una ubicacion de bloque predicha en la modalidad de inter-prediccion, puede ser obtenida por la Ecuacion 18. En la Ecuacion 17 y / o la Ecuacion 18, los valores medios de los correspondientes pixeles de la modalidad de intra-prediccion pueden ser utilizados como valores de Plb o Pra. Si no hay ningun bloque vecino predicho en la modalidad de intra-prediccion, un valor de pixel en la misma position que en una imagen anterior puede ser copiado para su uso como un valor de pixel de referencia.
Cuando el codificador emplea el filtrado de AIS, es decir, cuando se aplica el allanamiento y, por lo tanto, el AIS esta activado, el descodificador tambien realiza un filtrado de AIS en la generacion del pixel de referencia, de acuerdo al procedimiento de generacion de pixeles de referencia utilizado por el codificador. El descodificador puede determinar un coeficiente de filtro sobre la base de information de tipo de filtro entre la information recibida. Por ejemplo,
cuando hay dos coeficientes de filtro [1, 2, 1] o [1, 1,4, 1, 1], un coeficiente de filtro indicado en la information de tipo de filtro puede ser utilizado entre los dos coeficientes de filtro.
A continuation, se genera un bloque de prediction para el bloque de destino de 5 descodificacion, utilizando el pixel de referencia y la modalidad de prediccion descodificada por entropia del bloque de destino de descodificacion actual (S1640).
Un proceso de generation del bloque de prediccion es el mismo que un proceso de determination de la modalidad de prediccion, y de generacion del bloque de prediccion por 10 el codificador. Cuando la modalidad de prediccion del bloque actual es una modalidad plana, un procedimiento de prediccion plana, utilizado para generar el bloque de prediccion, se puede identificar mediante el analisis de la informacion senalizada. Aqui, el descodificador puede generar el bloque de prediccion en base a la informacion identificada de acuerdo a una modalidad utilizada, entre las modalidades de planas ilustradas en las FIGS. 6 a 10.
15 A continuacion, se genera un bloque reconstruido mediante la adicion, por parte de un pixel, de un valor de pixel del bloque de prediccion y un valor de pixel del bloque diferencial, es decir, un bloque reconstruido (S1670).

Claims (3)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. Un procedimiento de descodificacion de una senal de v^deo, que comprende: obtener muestras de referencia en base a muestras contiguas adyacentes a un bloque actual, utilizandose las muestras de referencia para una intra-prediccion del bloque actual; realizar la intra-prediccion para el bloque actual usando las muestras de referencia; obtener una muestra de reconstruction del bloque actual mediante la adicion de una muestra de prediction obtenida realizando la intra-prediccion en el bloque actual y una muestra residual relacionada con el bloque actual; y aplicar un filtro de desbloqueo a la muestra de reconstruccion del bloque actual, en el que la obtencion de las muestras de referencia comprende:determinar, en base a un modo de prediccion de un bloque contiguo, si al menos una de las muestras contiguas incluidas en el bloque contiguo es una muestra no disponible, especificando el modo de prediccion si el bloque contiguo esta codificado en una inter- prediccion o en la intra-prediccion; y realizar una sustitucion para la muestra no disponible que no se utiliza para la intra-prediccion del bloque actual utilizando una muestra situada en un lado de la muestra no disponible entre las muestras contiguas adyacentes al bloque actual cuando la muestra no disponible esta presente entre las muestras contiguas adyacentes al bloque actual, en el que la muestra situada en el un lado de la muestra no disponible esta situada en un lado inferior de la muestra no disponible cuando la muestra no disponible es una muestra contigua izquierda adyacente al bloque actual y la muestra situada en el un lado de la muestra no disponible esta situada en un lado izquierdo de la muestra no disponible cuando la muestra no disponible es una muestra contigua superior adyacente al bloque actual.
  2. 2. El procedimiento de la reivindicacion 1, en el que la determination de si la al menos una de las muestras contiguas es la muestra no disponible, se basa en un indicador de intra- prediccion restringido ademas del modo de prediccion relativo al bloque contiguo, especificando el indicador de intra-prediccion restringido si la muestra contigua en el bloque contiguo codificado en la inter-prediccion se utiliza para la intra-prediccion del bloque actual.
  3. 3. El procedimiento segun la reivindicacion 2, en el que cuando el modo de prediccion relativo al bloque contiguo especifica que el bloque contiguo esta codificado en la inter- prediccion, y el indicador de intra-prediccion restringido especifica que la muestra contigua en el bloque contiguo no se utiliza para la intra-prediccion del bloque actual, se determina
    que la al menos una de las muestras contiguas incluidas en el bloque contiguo es la muestra no disponible.
    5
ES201731046A 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla Active ES2633153B1 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-0048130 2011-05-20
KR20110048130 2011-05-20
KR10-2011-0065210 2011-06-30
KR1020110065210A KR101383775B1 (ko) 2011-05-20 2011-06-30 화면 내 예측 방법 및 장치

Publications (3)

Publication Number Publication Date
ES2633153A2 true ES2633153A2 (es) 2017-09-19
ES2633153R1 ES2633153R1 (es) 2017-11-03
ES2633153B1 ES2633153B1 (es) 2018-10-10

Family

ID=48179115

Family Applications (11)

Application Number Title Priority Date Filing Date
ES201390093A Active ES2450643B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631170A Active ES2597458B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201531015A Active ES2545039B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631171A Active ES2597433B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631167A Active ES2596027B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631172A Active ES2597459B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631168A Active ES2597431B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201630382A Active ES2570027B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631169A Active ES2597432B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631081A Active ES2612388B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201731046A Active ES2633153B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla

Family Applications Before (10)

Application Number Title Priority Date Filing Date
ES201390093A Active ES2450643B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631170A Active ES2597458B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201531015A Active ES2545039B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631171A Active ES2597433B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631167A Active ES2596027B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631172A Active ES2597459B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631168A Active ES2597431B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201630382A Active ES2570027B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631169A Active ES2597432B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla
ES201631081A Active ES2612388B1 (es) 2011-05-20 2012-05-14 Procedimiento y aparato para intra-predicción en pantalla

Country Status (13)

Country Link
US (11) US9154803B2 (es)
EP (1) EP2712192A4 (es)
KR (12) KR101383775B1 (es)
CN (20) CN107613295B (es)
AU (2) AU2012259700B2 (es)
BR (1) BR112013029931B1 (es)
CA (2) CA2836888C (es)
ES (11) ES2450643B1 (es)
GB (4) GB2506039B (es)
PL (1) PL231066B1 (es)
RU (6) RU2628160C1 (es)
SE (6) SE538196C2 (es)
WO (1) WO2012161444A2 (es)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100882949B1 (ko) 2006-08-17 2009-02-10 한국전자통신연구원 화소 유사성에 따라 적응적인 이산 코사인 변환 계수스캐닝을 이용한 부호화/복호화 장치 및 그 방법
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
US9462272B2 (en) 2010-12-13 2016-10-04 Electronics And Telecommunications Research Institute Intra prediction method and apparatus
KR101383775B1 (ko) * 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
US20130016769A1 (en) 2011-07-17 2013-01-17 Qualcomm Incorporated Signaling picture size in video coding
WO2014003421A1 (ko) 2012-06-25 2014-01-03 한양대학교 산학협력단 비디오 부호화 및 복호화를 위한 방법
US9386306B2 (en) * 2012-08-15 2016-07-05 Qualcomm Incorporated Enhancement layer scan order derivation for scalable video coding
JP5798539B2 (ja) 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
US10003818B2 (en) * 2013-10-11 2018-06-19 Sony Corporation Video coding system with intra prediction mechanism and method of operation thereof
US10129542B2 (en) * 2013-10-17 2018-11-13 Futurewei Technologies, Inc. Reference pixel selection and filtering for intra coding of depth map
WO2016072732A1 (ko) * 2014-11-04 2016-05-12 삼성전자 주식회사 텍스쳐 합성 기반 예측 모드를 이용하는 비디오 부호화/복호화 방법 및 장치
US10148953B2 (en) 2014-11-10 2018-12-04 Samsung Electronics Co., Ltd. System and method for intra prediction in video coding
WO2016137368A1 (en) * 2015-02-25 2016-09-01 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding of inter pictures in a video
US20160373770A1 (en) * 2015-06-18 2016-12-22 Qualcomm Incorporated Intra prediction and intra mode coding
US10841593B2 (en) 2015-06-18 2020-11-17 Qualcomm Incorporated Intra prediction and intra mode coding
US11463689B2 (en) 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding
WO2017014412A1 (ko) * 2015-07-20 2017-01-26 엘지전자 주식회사 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
EP3340632B1 (en) * 2015-08-19 2021-08-11 LG Electronics Inc. Method and device for processing video signals
US10136131B2 (en) * 2015-09-11 2018-11-20 Beamr Imaging Ltd. Video coding apparatus and method
EP3376764A4 (en) * 2015-11-12 2019-12-04 LG Electronics Inc. METHOD AND DEVICE FOR COEFFICIENT-INDUCED INTRAPREDICATION IN A BILDCODING SYSTEM
WO2017091001A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 픽셀의 기울기에 기초하여 인트라 또는 인터 예측 블록을 후처리하는 방법 및 장치
RU2018132742A (ru) 2016-02-16 2020-03-17 Самсунг Электроникс Ко., Лтд. Способ внутреннего предсказания для уменьшения ошибок внутреннего предсказания и устройство для этого
US10390026B2 (en) * 2016-03-25 2019-08-20 Google Llc Smart reordering in recursive block partitioning for advanced intra prediction in video coding
KR20180129863A (ko) * 2016-04-25 2018-12-05 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
CN114189678A (zh) * 2016-04-26 2022-03-15 英迪股份有限公司 图像解码方法、图像编码方法以及传输比特流的方法
CN116527888A (zh) * 2016-08-01 2023-08-01 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
GB2584942B (en) * 2016-12-28 2021-09-29 Arris Entpr Llc Improved video bitstream coding
WO2018132380A1 (en) * 2017-01-13 2018-07-19 Vid Scale, Inc. Prediction approaches for intra planar coding
CN116193110A (zh) * 2017-01-16 2023-05-30 世宗大学校产学协力团 影像编码/解码方法
WO2018142823A1 (en) * 2017-01-31 2018-08-09 Sharp Kabushiki Kaisha Systems and methods for scaling transform coefficient level values
US11496747B2 (en) 2017-03-22 2022-11-08 Qualcomm Incorporated Intra-prediction mode propagation
EP3410708A1 (en) * 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for intra prediction with interpolation
JP2019041165A (ja) * 2017-08-23 2019-03-14 富士通株式会社 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム
US20190110052A1 (en) * 2017-10-06 2019-04-11 Futurewei Technologies, Inc. Bidirectional intra prediction
GB2567861A (en) 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
KR20190056888A (ko) * 2017-11-17 2019-05-27 삼성전자주식회사 비디오 부호화 장치 및 방법
US10645381B2 (en) * 2018-04-30 2020-05-05 Google Llc Intra-prediction for smooth blocks in image/video
US11368677B2 (en) * 2018-06-18 2022-06-21 Interdigital Vc Holdings, Inc. Boundary filtering for planar and DC modes in intra prediction
US11277644B2 (en) 2018-07-02 2022-03-15 Qualcomm Incorporated Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching
KR102022375B1 (ko) * 2018-08-22 2019-09-18 (주)넥서스일렉트로닉스 Uhd tv용 업스케일 칩셋 모듈
CN110896476B (zh) * 2018-09-13 2021-11-26 阿里巴巴(中国)有限公司 图像处理方法、装置及存储介质
US11303885B2 (en) 2018-10-25 2022-04-12 Qualcomm Incorporated Wide-angle intra prediction smoothing and interpolation
GB2580036B (en) * 2018-12-19 2023-02-01 British Broadcasting Corp Bitstream decoding
WO2020139008A1 (ko) * 2018-12-28 2020-07-02 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11418811B2 (en) * 2019-03-12 2022-08-16 Apple Inc. Method for encoding/decoding image signal, and device therefor
WO2020204413A1 (ko) * 2019-04-03 2020-10-08 엘지전자 주식회사 복원 픽처를 수정하는 비디오 또는 영상 코딩
CN111836043A (zh) * 2019-04-15 2020-10-27 中兴通讯股份有限公司 码块的预测、解码方法及装置
EP3987778B1 (en) * 2019-06-21 2023-11-22 Vid Scale, Inc. Precision refinement for motion compensation with optical flow
EP3970377B1 (en) * 2019-06-21 2023-08-30 Huawei Technologies Co., Ltd. Method and apparatus of quantizing coefficients for matrix-based intra prediction technique
WO2020256597A1 (en) * 2019-06-21 2020-12-24 Huawei Technologies Co., Ltd. Matrix-based intra prediction for still picture and video coding
AU2020328402B2 (en) * 2019-08-14 2023-12-21 Lg Electronics Inc. Image encoding/decoding method and apparatus for determining prediction mode of chroma block by referring to luma sample position, and method for transmitting bitstream
KR20210133395A (ko) 2020-04-29 2021-11-08 삼성전자주식회사 이미지 부호화 장치, 이미지 센싱 장치 및 이미지 부호화 장치의 동작 방법

Family Cites Families (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122873A (en) * 1987-10-05 1992-06-16 Intel Corporation Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels
GB8729878D0 (en) * 1987-12-22 1988-02-03 Philips Electronic Associated Processing sub-sampled signals
DE3850952T2 (de) * 1987-12-22 1995-02-23 Philips Nv Videosignalkodierung und -dekodierung mit einem adaptiven Filter.
US4903124A (en) * 1988-03-17 1990-02-20 Canon Kabushiki Kaisha Image information signal transmission apparatus
DE68905214T2 (de) * 1988-04-15 1993-09-09 Philips Nv Einrichtung zur kodierung von signalen, die eine folge von bildern darstellen und uebertragungssystem von fernsehbildern mit hoher aufloesung mit einer solchen einrichtung.
FR2633137B1 (fr) * 1988-06-21 1990-11-09 Labo Electronique Physique Systeme d'emission et reception de television a haute definition a estimateur de vitesses ameliore et a debit de donnees reduit
US5335019A (en) * 1993-01-14 1994-08-02 Sony Electronics, Inc. Digital video data quantization error detection as applied to intelligent dynamic companding
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
CN102316320B (zh) * 2001-12-17 2014-07-09 微软公司 处理视频图像的方法
JP3900000B2 (ja) * 2002-05-07 2007-03-28 ソニー株式会社 符号化方法及び装置、復号方法及び装置、並びにプログラム
US20030231795A1 (en) 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
JP4324844B2 (ja) 2003-04-25 2009-09-02 ソニー株式会社 画像復号化装置及び画像復号化方法
WO2005055606A1 (en) 2003-12-01 2005-06-16 Samsung Electronics Co., Ltd. Method and apparatus for scalable video encoding and decoding
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
CN100536573C (zh) * 2004-01-16 2009-09-02 北京工业大学 基于方向的dc预测方法及用于视频编码的帧内预测方法
KR20050112445A (ko) * 2004-05-25 2005-11-30 경희대학교 산학협력단 예측 부호화/복호화 장치, 예측 부호화/복호화 방법 및 그방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한기록매체
KR101204788B1 (ko) 2004-06-03 2012-11-26 삼성전자주식회사 영상의 공간 예측 부호화 방법, 부호화 장치, 복호화 방법및 복호화 장치
US7953152B1 (en) * 2004-06-28 2011-05-31 Google Inc. Video compression and encoding method
KR100654436B1 (ko) 2004-07-07 2006-12-06 삼성전자주식회사 비디오 코딩 방법과 디코딩 방법, 및 비디오 인코더와디코더
WO2006004331A1 (en) * 2004-07-07 2006-01-12 Samsung Electronics Co., Ltd. Video encoding and decoding methods and video encoder and decoder
EP1779673A1 (en) 2004-07-15 2007-05-02 Qualcomm Incorporated H.264 spatial error concealment based on the intra-prediction direction
CN1275469C (zh) * 2004-11-10 2006-09-13 华中科技大学 一种复杂度可分级的帧内预测方法
KR100679025B1 (ko) 2004-11-12 2007-02-05 삼성전자주식회사 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치
KR100679031B1 (ko) * 2004-12-03 2007-02-05 삼성전자주식회사 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
US20060133507A1 (en) 2004-12-06 2006-06-22 Matsushita Electric Industrial Co., Ltd. Picture information decoding method and picture information encoding method
CN101133650B (zh) * 2005-04-01 2010-05-19 松下电器产业株式会社 图像解码装置以及图像解码方法
JP4427003B2 (ja) * 2005-05-23 2010-03-03 オリンパスイメージング株式会社 データ符号化装置、データ復号化装置、データ符号化方法、データ復号化方法、プログラム
KR100716999B1 (ko) * 2005-06-03 2007-05-10 삼성전자주식회사 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치
JP2007043651A (ja) 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
US9055298B2 (en) 2005-07-15 2015-06-09 Qualcomm Incorporated Video encoding method enabling highly efficient partial decoding of H.264 and other transform coded information
US8155189B2 (en) * 2005-10-19 2012-04-10 Freescale Semiconductor, Inc. System and method of coding mode decision for video encoding
KR101246294B1 (ko) * 2006-03-03 2013-03-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100716142B1 (ko) * 2006-09-04 2007-05-11 주식회사 이시티 스테레오스코픽 영상 데이터의 전송 방법
US9014280B2 (en) * 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
JP2008153802A (ja) 2006-12-15 2008-07-03 Victor Co Of Japan Ltd 動画像符号化装置及び動画像符号化プログラム
KR101365574B1 (ko) 2007-01-29 2014-02-20 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
KR101369224B1 (ko) * 2007-03-28 2014-03-05 삼성전자주식회사 움직임 보상 필터링을 이용한 영상 부호화, 복호화 방법 및장치
JP2008271371A (ja) * 2007-04-24 2008-11-06 Sharp Corp 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラム
JP4799477B2 (ja) * 2007-05-08 2011-10-26 キヤノン株式会社 画像符号化装置及び画像符号化方法
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
US8913670B2 (en) * 2007-08-21 2014-12-16 Blackberry Limited System and method for providing dynamic deblocking filtering on a mobile device
US8254450B2 (en) 2007-08-23 2012-08-28 Nokia Corporation System and method for providing improved intra-prediction in video coding
CN100562114C (zh) * 2007-08-30 2009-11-18 上海交通大学 视频解码方法与解码装置
KR101597325B1 (ko) * 2007-10-16 2016-03-02 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101228020B1 (ko) 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
CN101483780B (zh) * 2008-01-07 2011-08-24 华为技术有限公司 一种帧内dc预测的方法及装置
JP5111127B2 (ja) * 2008-01-22 2012-12-26 キヤノン株式会社 動画像符号化装置及びその制御方法、並びに、コンピュータプログラム
KR101394209B1 (ko) * 2008-02-13 2014-05-15 삼성전자주식회사 영상의 인트라 예측 부호화 방법
WO2009113787A2 (en) * 2008-03-09 2009-09-17 Lg Electronics Inc. A method and an apparatus for encoding or decoding a video signal
KR20090097688A (ko) 2008-03-12 2009-09-16 삼성전자주식회사 영상의 인트라 예측 부호화/복호화 방법 및 장치
BRPI0911307B1 (pt) * 2008-04-15 2020-09-29 France Telecom Codificação e decodificação de uma imagem ou de uma sequência de imagens recortadas, segundo partições de pixels de forma linear
US20090262801A1 (en) * 2008-04-17 2009-10-22 Qualcomm Incorporated Dead zone parameter selections for rate control in video coding
EP2266321B1 (en) 2008-04-23 2017-12-13 Telefonaktiebolaget LM Ericsson (publ) Template-based pixel block processing
EP2953354B1 (en) 2008-05-07 2016-10-05 LG Electronics, Inc. Method and apparatus for decoding video signal
PL2288163T3 (pl) 2008-05-07 2015-11-30 Lg Electronics Inc Sposób i urządzenie do dekodowania sygnału wideo
US8179867B2 (en) 2008-05-09 2012-05-15 Lg Electronics Inc. Apparatus and method for transmission opportunity in mesh network
US20090316788A1 (en) * 2008-06-23 2009-12-24 Thomson Licensing Video coding method with non-compressed mode and device implementing the method
KR20100020441A (ko) * 2008-08-12 2010-02-22 엘지전자 주식회사 비디오 신호 처리 방법
US8213503B2 (en) * 2008-09-05 2012-07-03 Microsoft Corporation Skip modes for inter-layer residual video coding and decoding
CN101677406B (zh) * 2008-09-19 2011-04-20 华为技术有限公司 一种视频编解码的方法及装置
KR101306834B1 (ko) * 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
US10455248B2 (en) * 2008-10-06 2019-10-22 Lg Electronics Inc. Method and an apparatus for processing a video signal
CN102204256B (zh) * 2008-10-31 2014-04-09 法国电信公司 图像预测方法和系统
JP5238523B2 (ja) * 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
TWI380654B (en) * 2009-02-11 2012-12-21 Univ Nat Chiao Tung The control method of transmitting streaming audio/video data and architecture thereof
US8798158B2 (en) * 2009-03-11 2014-08-05 Industry Academic Cooperation Foundation Of Kyung Hee University Method and apparatus for block-based depth map coding and 3D video coding method using the same
JP5169978B2 (ja) 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
US9113169B2 (en) 2009-05-07 2015-08-18 Qualcomm Incorporated Video encoding with temporally constrained spatial dependency for localized decoding
CN101674475B (zh) * 2009-05-12 2011-06-22 北京合讯数通科技有限公司 一种h.264/svc的自适应层间纹理预测方法
JP5597968B2 (ja) 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101507344B1 (ko) 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
FR2952497B1 (fr) 2009-11-09 2012-11-16 Canon Kk Procede de codage et de decodage d'un flux d'images; dispositifs associes
JP2011146980A (ja) * 2010-01-15 2011-07-28 Sony Corp 画像処理装置および方法
US8619857B2 (en) 2010-04-09 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
EP2559239A2 (en) * 2010-04-13 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction
CN102972028B (zh) * 2010-05-17 2015-08-12 Lg电子株式会社 新的帧内预测模式
CN101877792B (zh) * 2010-06-17 2012-08-08 无锡中星微电子有限公司 帧内模式预测方法与装置、编码器
ES2685668T3 (es) * 2010-08-17 2018-10-10 M&K Holdings Inc. Aparato para codificar un modo de intrapredicción
PL3849194T3 (pl) * 2010-09-27 2022-10-31 Lg Electronics, Inc. Sposób podziału bloku oraz urządzenie do dekodowania
US20120121018A1 (en) 2010-11-17 2012-05-17 Lsi Corporation Generating Single-Slice Pictures Using Paralellel Processors
CN103339943B (zh) * 2010-12-08 2017-06-13 Lg电子株式会社 内预测方法及使用该方法的编码装置和解码装置
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
US9930366B2 (en) 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
CN102685505B (zh) * 2011-03-10 2014-11-05 华为技术有限公司 帧内预测的方法和预测装置
KR101383775B1 (ko) * 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치

Also Published As

Publication number Publication date
US20160373764A1 (en) 2016-12-22
CN107566833A (zh) 2018-01-09
CN107517377B (zh) 2020-08-21
GB2556649B (en) 2018-10-31
KR20140135681A (ko) 2014-11-26
US20160112719A1 (en) 2016-04-21
CN107592530B (zh) 2020-03-06
US20160173874A1 (en) 2016-06-16
ES2597458R1 (es) 2017-04-18
CN104378645A (zh) 2015-02-25
CA2836888C (en) 2017-10-31
SE1550476A1 (sv) 2015-04-22
ES2596027R1 (es) 2017-03-17
KR20140135678A (ko) 2014-11-26
ES2597432A2 (es) 2017-01-18
CN103703773A (zh) 2014-04-02
ES2450643R1 (es) 2014-12-11
KR20140059177A (ko) 2014-05-15
ES2597459R1 (es) 2017-04-26
KR101508895B1 (ko) 2015-04-08
KR101453899B1 (ko) 2014-10-23
KR101508486B1 (ko) 2015-04-08
CN106851315B (zh) 2020-04-21
US10158862B2 (en) 2018-12-18
SE538196C2 (sv) 2016-04-05
US20170006292A1 (en) 2017-01-05
RU2576502C2 (ru) 2016-03-10
CN107613296B (zh) 2020-11-10
ES2570027B1 (es) 2017-04-12
CN107786871A (zh) 2018-03-09
ES2545039B1 (es) 2016-09-09
CN107517379A (zh) 2017-12-26
US20170006291A1 (en) 2017-01-05
GB2556649A (en) 2018-06-06
US9584815B2 (en) 2017-02-28
KR101508894B1 (ko) 2015-04-08
CN104378645B (zh) 2017-11-14
US9432669B2 (en) 2016-08-30
RU2628161C1 (ru) 2017-08-15
SE1651172A1 (sv) 2016-09-01
US9749640B2 (en) 2017-08-29
CN107566832B (zh) 2020-03-06
SE1551664A1 (sv) 2015-12-17
CN107786870B (zh) 2020-11-10
CN107517379B (zh) 2020-09-04
CN107592531A (zh) 2018-01-16
KR20140056200A (ko) 2014-05-09
US9843808B2 (en) 2017-12-12
US20150139318A1 (en) 2015-05-21
SE537736C2 (sv) 2015-10-06
SE1651173A1 (sv) 2016-09-01
ES2597433R1 (es) 2017-04-18
CN107547894A (zh) 2018-01-05
CN107786871B (zh) 2020-11-10
CN107592545B (zh) 2020-11-10
US9445123B2 (en) 2016-09-13
KR20140056199A (ko) 2014-05-09
ES2597431B1 (es) 2018-02-27
ES2597458B1 (es) 2017-11-24
GB201712865D0 (en) 2017-09-27
BR112013029931B1 (pt) 2022-07-12
CA2836888A1 (en) 2012-11-29
SE1351441A1 (sv) 2014-01-22
AU2015261728B2 (en) 2017-07-27
US20150146781A1 (en) 2015-05-28
RU2628157C1 (ru) 2017-08-15
ES2597433B1 (es) 2017-12-21
WO2012161444A3 (ko) 2013-01-17
SE539822C2 (sv) 2017-12-12
PL407846A1 (pl) 2015-05-25
ES2450643A2 (es) 2014-03-25
KR101508292B1 (ko) 2015-04-08
ES2597459A2 (es) 2017-01-18
US9749639B2 (en) 2017-08-29
CN107659816B (zh) 2020-07-03
KR101383775B1 (ko) 2014-04-14
ES2545039R1 (es) 2015-12-28
CN107566833B (zh) 2020-11-10
CN106851315A (zh) 2017-06-13
CN107517378A (zh) 2017-12-26
ES2597432B1 (es) 2017-12-28
CN107566832A (zh) 2018-01-09
GB2560394A (en) 2018-09-12
KR101453898B1 (ko) 2014-10-23
SE541010C2 (sv) 2019-02-26
ES2545039A2 (es) 2015-09-07
KR101458794B1 (ko) 2014-11-07
GB2506039A (en) 2014-03-19
RU2013152690A (ru) 2015-06-27
KR20150043278A (ko) 2015-04-22
ES2612388B1 (es) 2017-11-24
KR20140019457A (ko) 2014-02-14
WO2012161444A2 (ko) 2012-11-29
CN107659816A (zh) 2018-02-02
EP2712192A4 (en) 2015-06-17
ES2597459B1 (es) 2017-12-21
ES2597431R1 (es) 2017-03-17
US20170034518A1 (en) 2017-02-02
CN107613295B (zh) 2020-05-12
KR20140135680A (ko) 2014-11-26
CN107613296A (zh) 2018-01-19
GB2559438A (en) 2018-08-08
AU2012259700B2 (en) 2015-10-01
ES2633153B1 (es) 2018-10-10
CN107592532A (zh) 2018-01-16
GB2506039B (en) 2018-10-24
BR112013029931A2 (pt) 2017-01-24
ES2612388A1 (es) 2017-05-16
KR101453897B1 (ko) 2014-10-23
RU2628154C1 (ru) 2017-08-15
KR20130028815A (ko) 2013-03-20
CN107592546A (zh) 2018-01-16
US20140105290A1 (en) 2014-04-17
CN107592532B (zh) 2020-04-28
AU2015261728A1 (en) 2015-12-17
US9288503B2 (en) 2016-03-15
KR101508291B1 (ko) 2015-04-08
CN107517377A (zh) 2017-12-26
KR20140135679A (ko) 2014-11-26
CA2958027A1 (en) 2012-11-29
GB2560394B (en) 2018-12-05
CN108055537A (zh) 2018-05-18
ES2450643B1 (es) 2015-07-17
CA2958027C (en) 2019-04-30
CN107517378B (zh) 2020-09-08
CN107592530A (zh) 2018-01-16
CN103703773B (zh) 2017-11-07
SE537736C3 (es) 2016-04-12
SE541011C2 (sv) 2019-02-26
GB201712866D0 (en) 2017-09-27
CN107786870A (zh) 2018-03-09
GB2559438B (en) 2018-11-14
CN107613295A (zh) 2018-01-19
CN107592531B (zh) 2020-04-24
US20180054620A1 (en) 2018-02-22
ES2596027B1 (es) 2017-12-27
ES2570027R1 (es) 2016-08-01
EP2712192A2 (en) 2014-03-26
ES2597431A2 (es) 2017-01-18
KR20140128903A (ko) 2014-11-06
GB201321333D0 (en) 2014-01-15
CN107592546B (zh) 2020-03-06
US9432695B2 (en) 2016-08-30
ES2596027A2 (es) 2017-01-04
US20170006308A1 (en) 2017-01-05
CN108055537B (zh) 2020-11-10
ES2597433A2 (es) 2017-01-18
US9756341B2 (en) 2017-09-05
KR20140128904A (ko) 2014-11-06
ES2597432R1 (es) 2017-03-23
KR101552631B1 (ko) 2015-09-11
CN107592545A (zh) 2018-01-16
GB201712867D0 (en) 2017-09-27
RU2628160C1 (ru) 2017-08-15
ES2570027A2 (es) 2016-05-13
CN107547894B (zh) 2020-11-10
ES2633153R1 (es) 2017-11-03
AU2012259700A1 (en) 2013-12-19
US9154803B2 (en) 2015-10-06
ES2597458A2 (es) 2017-01-18
PL231066B1 (pl) 2019-01-31
RU2628153C1 (ru) 2017-08-15

Similar Documents

Publication Publication Date Title
ES2545039B1 (es) Procedimiento y aparato para intra-predicción en pantalla
ES2705357B1 (es) Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES2541807T3 (es) Procedimiento y aparato para decodificar una señal de vídeo
ES2459890A2 (es) Método de predicción intra, y codificador y descodificador que lo usan
AU2016219672A1 (en) Method and apparatus for intra prediction within display screen

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2633153

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20181010