ES2793489T3 - Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo - Google Patents

Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo Download PDF

Info

Publication number
ES2793489T3
ES2793489T3 ES12755168T ES12755168T ES2793489T3 ES 2793489 T3 ES2793489 T3 ES 2793489T3 ES 12755168 T ES12755168 T ES 12755168T ES 12755168 T ES12755168 T ES 12755168T ES 2793489 T3 ES2793489 T3 ES 2793489T3
Authority
ES
Spain
Prior art keywords
intra
prediction mode
chroma
mode
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12755168T
Other languages
English (en)
Inventor
Yong Joon Jeon
Seung Wook Park
Jae Hyun Lim
Jung Sun Kim
Joon Young Park
Young Hee Choi
Jae Won Sung
Byeong Moon Jeon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2793489T3 publication Critical patent/ES2793489T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

Un método de decodificación de imagen por un aparato (200) de decodificación de imagen, comprendiendo el método: recibir información de video que comprende información de un modo de predicción intra luma e información de un modo de predicción intra croma; determinar un modo de predicción intra de un bloque de luma basado en la información de predicción intra de luma; obtener un modo de predicción intra de un bloque de croma relacionado con el bloque de luma basado en la información del modo de predicción intra croma, en donde la información del modo de predicción intra croma indica uno los índices de modo de predicción intra croma, en donde el modo de predicción intra croma del bloque de croma es determinado basándose en el índice indicado de entre los índices del modo de predicción intra croma y el modo de predicción intra del bloque de luma; y generar un bloque predicho del bloque de croma basado en el modo de predicción intra obtenido del bloque de croma, en donde la información del modo de predicción intra croma representa un código binario relacionado con uno de los índices del modo de predicción intra croma que comprende: - un primer índice relacionado con un modo plano para el modo de predicción intra del bloque de croma, - un segundo índice relacionado con un modo vertical para el modo de predicción intra del bloque de croma, - un tercer índice relacionado con un modo horizontal para el modo de predicción intra del bloque de croma, - un cuarto índice relacionado con un modo DC para el modo de predicción intra del bloque de croma, y - un quinto índice que representa que el modo de predicción intra del bloque de croma es el mismo que el modo de predicción intra del bloque de luma, y en donde un primer bit del código binario para la información del modo de predicción intra croma es decodificado basado en una decodificación basada en el contexto y los bits restantes del código binario son decodificados basándose en una decodificación por derivación, y en donde el código binario para la información del modo de predicción intra croma es uno de los códigos binarios candidato que comprende un código binario para el primer índice que está representado por `100', un código binario para el segundo índice que está representado por `101', un código binario para el tercer índice que está representado por `110', un código binario para el cuarto índice que está representado por `111', y un código binario para el quinto índice que está representado por `0'.

Description

DESCRIPCIÓN
Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo
Campo técnico
La presente invención se refiere a un método y dispositivo de decodificación de imágenes, y más particularmente, a un método de predicción intra de bloque de croma usando una muestra de luma y a un dispositivo que usa el método.
Antecedentes de la técnica
Recientemente, las demandas de una imagen de alta resolución y de alta calidad, tal como una imagen de HD (alta definición) y una imagen de UHD (ultra alta definición) han aumentado en varios campos de aplicaciones. Cuando los datos de imagen tienen mayor resolución y calidad, una cantidad de datos aumenta más en relación con los datos de imagen existentes. En consecuencia, cuando los datos de imagen se transfieren utilizando medios tales como líneas de banda ancha inalámbricas o mediante cable existentes o se almacenan en medios de almacenamiento existentes, el costo de transferencia y el costo de almacenamiento aumentan. Para resolver estos problemas que ocurren con un aumento de la resolución y de la calidad de los datos de imagen, se pueden utilizar técnicas de compresión de imágenes de alta eficiencia.
Las técnicas de compresión de imágenes incluyen varias técnicas, tales como una técnica de predicción inter de predecir valores de píxeles incluidos en una imagen actual a partir de imágenes anteriores o posteriores de la imagen actual, una técnica de predicción intra de predecir valores de píxeles incluidos en una imagen actual utilizando información de píxeles en la imagen actual, y una técnica de codificación de entropía de asignar un código corto a un valor con una frecuencia de apariencia alta y asignar un código largo a un valor con una frecuencia de apariencia baja. Los datos de imagen pueden comprimirse y transferirse o almacenarse eficazmente utilizando tales técnicas de compresión de imágenes.
El documento “CE6.a.4: Chroma intra prediction by reconstructed luma samples” (“CE6.a.4: Predicción intra de croma mediante muestras de luma reconstruidas”), Jianle Chen et.al., Joint Collaborative Team on Video Coding (“Equipo de Colaboración Conjunta sobre Codificación de Vídeo”) (JCT-VC) de ITU-T SG16 WP3 e ISO/IEC JTC1/SC29/WG11, 9th Meeting (9° Mitin) Geneva, 21 a 23 de Marzo de 2011, puede considerarse que describe una evaluación de resultados del método “Chroma intra prediction by reconstructed luma samples” propuesto en el documento JCTVC-D350 (descrito en este documento a continuación) dentro del contexto de A. Tabatabal, “Core Experiment 6: Intra Prediction Improvement” (“Experimento Central 6: Perfeccionamiento de Predicción intra”), JCTVC-D606, Daegu, Enero de 2011. En el método propuesto, las muestras de croma son predichas a partir de muestras de luma del mismo bloque por relación lineal de modelos.
El documento “CE6.a: Chroma intra prediction by reconstructed luma samples” (“CE6.a: Predicción intra de croma mediante muestras de luma reconstruidas”), Jianle Chen et.al., Joint Collaborative Team on Video Coding (“Equipo de Colaboración Conjunta sobre Codificación de Vídeo”) (JCT-VC) de ITU-T SG16 WP3 e ISO/iEc JTC1/SC29/WG11, 4th Meeting (4° Mitin”), Daegu, KR, 20 a 28 de Enero de 2011, el documento: JCTVC-D350, puede considerarse que describe a su vez una evaluación de resultados del método de “Chroma intra prediction by reconstructed luma samples” propuesto en el documento de J. Chen, V. Seregin, “Chroma intra prediction by reconstructed luma samples”, JCTVC-C206, Guangzhou, Octubre de 2010 dentro del contexto de A. Tabatabal, “Core Experiment 6: Intra Prediction Improvement”, JCTVC-C506, Guangzhou, Octubre de 2010. En el método también, se predicen muestras de croma a partir de muestras de luma del mismo bloque por relación lineal de modelos.
El documento EP 2387 242 A2 puede considerarse que describe un método para señalar un modo de predicción intra de croma y un método para implementar el modo de predicción intra de croma señalado, tomando el modo de predicción intra de croma una interpolación de muestras de luma predichas con anterioridad a partir de bloques contiguos de datos de video para alcanzar una predicción intra de croma de una unidad de predicción de croma actual.
El documento “WD3: Working Draft 3 of High-Efficiency Video Coding” (“WD3: Borrador de trabajo 3 de Codificación de Vídeo de Alta Eficiencia”), de Thomas Wiegand et. Al., Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 e ISO/IEC JTC1/SC29/WG11, 5th Meeting (5° Mitin), Geneva, CH, 16 a 23 de Marzo, de 2011 el documento: JCTVC-E603 puede considerarse que describe una técnica perteneciente a la creciente necesidad de una mayor compresión de imágenes en movimiento para distintas aplicaciones tales como videoconferencias, medios digitales de almacenamiento, retransmisión por televisión, flujo continuo por Internet, y comunicación. También está diseñado para permitir el uso de la representación de video codificada de una manera flexible para una amplia variedad de entornos de red. El uso del documento permite que el video de movimiento sea manipulado como una forma de datos informáticos y que sea almacenado en distintos medios de almacenamiento, transmitido y recibido sobre redes existentes y futuras y distribuido en canales de retransmisión existentes y futuros.
El documento “Signalling chroma intra prediction mode” (“Señalización del modo de predicción intra de croma”), Jungsun Kim et. Al., Joint Collaborative Team on Video Coding (JCT-VC) de ITU-T SG16 WP3 e ISO/IeC JTC1/SC29/WG11, 8th Meeting (8° Mitin): San José, CA, EE. UU, 1-10 de Febrero de 2012, el documento JCTVC-H0475 no ha sido publicado anteriormente, pero es útil para comprender la presente exposición. Puede considerarse que describe un proceso de binarización para intra_chroma_pred_mode basado en una tabla de búsqueda o consulta.
Compendio de la invención
Problema técnico
Un objeto de la invención es proporcionar un método de predicción intra de bloque de croma que pueda mejorar la eficiencia de codificación y decodificación de imagen.
Otro objeto de la invención es proporcionar un dispositivo que realice el método de predicción intra de bloque de croma que pueda mejorar la eficiencia de codificación y decodificación de imagen.
Solución al problema
Según la exposición, se han proporcionado métodos, un medio de almacenamiento legible por decodificador y aparatos según las reivindicaciones independientes. Los desarrollos se han expuesto en las reivindicaciones dependientes.
Preferiblemente se ha proporcionado un método de decodificación de imágenes que incluye las características definidas en la reivindicación 1.
El método de decodificación de imagen incluye además derivar el modo de predicción intra del bloque de croma sobre la base de una tabla de correspondencia sin LM cuando el LM no se usa para el bloque de croma. Cuando un modo plano se hace corresponder a un modo de predicción intra cero, un modo DC se hace corresponder preferiblemente a un primer modo de predicción intra, y los modos de predicción intra directivos se hacen corresponder preferiblemente a los modos de predicción intra segundo a 34°, la tabla de correspondencia sin LM es preferiblemente
Figure imgf000003_0001
El método de decodificación de imagen incluye preferiblemente, además información de decodificación sobre si se usa el LM para el bloque de croma.
El método de decodificación de imagen incluye preferiblemente además recibir información de palabra de código que se obtiene codificando el modo de predicción intra del bloque de croma.
La información de la palabra de código es preferiblemente información de palabra de código generada en base a una tabla de correspondencia de palabra de código en la que se hacen corresponder diferentes elementos de información de palabra de código dependiendo de si se usa el LM para el bloque de croma. La tabla de correspondencia de palabras de código es preferiblemente
Figure imgf000003_0002
Una palabra de código de intra_chroma_pred_mode correspondiente al LM o DM en la tabla de correspondencia de palabras de código es realizada preferiblemente en el proceso de decodificación de contexto y los otros bits de la palabra de código, excepto los bits de la palabra de código utilizada en el LM o DM en la palabra de código de intra_chroma_pred_mode correspondiente al modo de predicción intra distinto de LM o DM, se realiza en un proceso de codificación de derivación. Cuando se realiza la predicción intra el LM, dos bits de una palabra de código se realiza preferiblemente un proceso de decodificación de contexto y los otros bits de la palabra de código, excepto los bits realizados, el proceso de codificación de contexto se realiza un proceso de decodificación de derivación, y cuando la predicción intra se realiza sin usar el LM un bit de una palabra de código se realiza un proceso de decodificación de contexto y los bits de la palabra de código, excepto el bit realizado, el proceso de decodificación de contexto se realiza un proceso de decodificación de derivación.
Preferiblemente cuando un modo plano se hace corresponder a un modo de predicción intra de inicio, un modo DC se hace corresponder a un primer modo de predicción intra, los modos de predicción intra directiva se hacen corresponder a los modos de predicción intra segundo a 34°, y el LM se hace corresponder a un modo 35° de predicción intra, la tabla de correspondencia de LM es preferiblemente
Figure imgf000004_0001
El LM preferiblemente es un método de predicción intra para calcular píxeles del bloque de croma sobre la base de valores de muestra de luma interpolados calculados mediante la interpolación lineal de píxeles de un bloque de luma.
Preferiblemente, se ha proporcionado un dispositivo de decodificación de imagen que incluye la característica definida en la reivindicación 4.
El módulo de derivación del modo de predicción intra de bloque de croma genera una palabra de código sobre la base de una tabla de correspondencia de palabra de código en la que se hacen corresponder diferentes elementos de información de palabra de código dependiendo de si el LM se usa para el bloque de croma. La tabla de correspondencia de palabra de código es preferiblemente
Figure imgf000004_0002
Una palabra de código de intra_chroma_pred_mode correspondiente al LM o DM en la tabla de correspondencia de palabras de código se realiza preferiblemente un proceso de decodificación de contexto y los otros bits de la palabra de código, excepto los bits de la palabra de código utilizada en el LM o DM en la palabra de código de intra_chroma_pred_mode correspondiente al modo de predicción intra que no sea LM o DM se realiza mediante un proceso de codificación de derivación. Cuando la predicción intra se realiza utilizando el LM, dos bits de una palabra de código se realiza un proceso de decodificación de contexto y los otros bits de la palabra de código, excepto los bits realizados, el proceso de codificación de contexto se realiza un proceso de decodificación de derivación, y cuando la predicción intra se realiza sin usar el LM un bit de una palabra de código se realiza un proceso de decodificación de contexto y los bits de la palabra de código, excepto el bit realizado, el proceso de decodificación de contexto se realiza un proceso de decodificación de derivación.
El módulo de derivación del modo de predicción intra del bloque de croma deriva el modo de predicción intra de un bloque de croma sobre la base de una tabla de correspondencia de LM cuando el LM se utiliza para el bloque de croma y deriva preferiblemente el modo de predicción intra del bloque de croma sobre la base de una tabla de correspondencia sin LM cuando el LM no se usa para el bloque de croma.
Preferiblemente, cuando un modo plano se hace corresponder a un modo de predicción intra de inicio, un modo DC se hace corresponder a un primer modo de predicción intra, los modos de predicción intra directiva se hacen corresponder a los modos segundo a 34° de predicción intra y el LM es hecho corresponder a un modo 35° de predicción intra, la tabla de correspondencia de LM es preferiblemente
Figure imgf000005_0001
Preferiblemente, cuando un modo plano se hace corresponder a un modo de predicción intra de inicio, un modo DC es hecho corresponder a un primer modo de predicción intra, y los modos de predicción intra directiva se hacen corresponder a los modos segundo a 34° de predicción intra, la tabla de correspondencia sin LM es preferiblemente
Figure imgf000005_0002
El LM preferiblemente es un método de predicción intra para calcular píxeles del bloque de croma sobre la base de valores de muestra de luma interpolados calculados mediante la interpolación lineal de píxeles de un bloque de luma.
Efectos ventajosos
Como se describió anteriormente, empleando el método de predicción intra de bloque de croma usando una muestra de luma y usando el dispositivo el método según las realizaciones de la invención, es posible realizar la predicción intra de bloque de croma determinando la información del modo de predicción intra de bloque de croma sobre si un LM se utiliza para realizar predicción intra y utilizando diferentes tablas de correspondencia según el resultado de la determinación.
Breve descripción de los dibujos
La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes según una realización de la invención.
La FIG. 2 es un diagrama de bloques que ilustra un dispositivo de decodificación de imágenes según una realización de la invención.
La FIG. 3 es un diagrama conceptual que ilustra posiciones de muestras de luma y de muestras de croma en una realización de la invención.
La FIG. 4 es un diagrama que ilustra valores de muestra de luma alrededor y dentro de un bloque actual en una realización de la invención.
La FIG. 5 es un diagrama que ilustra un modo de predicción intra directiva en una realización de la invención.
La FIG. 6 es un diagrama de flujo que ilustra un método para calcular un modo de predicción intra de un bloque de croma en una realización de la invención.
La FIG. 7 es un diagrama conceptual que ilustra una parte de un módulo de predicción que decodifica un modo de predicción intra de un bloque de croma en una realización de la invención.
Descripción de realizaciones ejemplares
En la descripción con referencia a los dibujos, los componentes similares están referenciados por números de referencia similares.
Se pueden usar términos como "primero" y "segundo" para describir distintos elementos, pero los elementos no se limitan a los términos. Los términos se usan solo para distinguir un elemento de otro elemento. Por ejemplo, sin salir del alcance de la invención, un primer elemento puede ser llamado un segundo elemento y el segundo elemento puede ser llamado el primer elemento de manera similar. El término "y/o" incluye una combinación de varios elementos o cualquiera de los varios elementos.
Si se menciona que un elemento está "conectado a" o "acoplado a" otro elemento, debe entenderse que todavía puede interponerse otro elemento entre ellos, así como que el elemento puede ser conectado o acoplado directamente a otro elemento. Por el contrario, si se menciona que un elemento está "conectado directamente a" o "acoplado directamente a" otro elemento, debe entenderse que otro elemento aún, no está interpuesto entre ellos. Los términos usados en la siguiente descripción se usan para describir meramente realizaciones específicas, pero no pretenden limitar la invención. Una expresión del número singular incluye una expresión del número plural, siempre que se lea claramente de manera diferente. Los términos tales como "incluir" y "tener" están destinados a indicar que las características, números, etapas, operaciones, elementos, componentes o combinaciones de los mismos utilizados en la siguiente descripción existen y, por lo tanto, debe entenderse que la posibilidad de existencia o adición de una o más características, números, etapas, operaciones, elementos, componentes o combinaciones diferentes de los mismos no está excluida.
A continuación, se describirán en detalle realizaciones ejemplares de la invención con referencia a los dibujos adjuntos. Los componentes similares en los dibujos serán referenciados con números de referencia similares y no se describirán repetidamente.
La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes según una realización de la invención.
Con referencia a la FIG. 1, un dispositivo 100 de codificación de imágenes incluye un módulo 105 de división de imágenes, un módulo 110 de predicción, un módulo 115 de transformación, un módulo 120 de cuantificación, un módulo 125 de reordenamiento, un módulo 130 de codificación de entropía, un módulo 135 de cuantificación inversa, un módulo 140 de transformación inversa, un módulo 145 de filtro y una memoria 150.
Los componentes mostrados en la FIG. 1 se muestran independientemente para representar diferentes funciones distintivas en el dispositivo de codificación de imágenes. Cada componente no está considerado como un componente de hardware o de software independiente. Es decir, los componentes están dispuestos independientemente y al menos dos componentes pueden combinarse en un solo componente o un solo componente puede ser dividido en múltiples componentes para realizar funciones.
El módulo 105 de partición de imágenes puede dividir una imagen de entrada en al menos una unidad de proceso. Aquí, la unidad de proceso puede ser una unidad de predicción (PU), una unidad de transformación (TU) o una unidad de codificación (CU). El módulo 105 de partición de imágenes puede dividir una imagen en combinaciones de varias unidades de codificación, unidades de predicción y unidades de transformación y puede seleccionar una combinación de unidades de codificación, unidades de predicción y unidades de transformación basándose en un criterio predeterminado (por ejemplo, una función de costo) para codificar la imagen.
Por ejemplo, una imagen puede dividirse en varias unidades de codificación. Se puede usar una estructura de árbol recursiva, tal como una estructura de árbol cuádruple, para dividir una imagen en unidades de codificación. Una unidad de codificación que puede ser una imagen o una unidad de codificación de un tamaño máximo como raíz puede dividirse en diferentes unidades de codificación con nodos secundarios correspondientes al número de unidades de codificación divididas. Una unidad de codificación que ya no está dividida de acuerdo con una limitación predeterminada es un nodo de hoja. Es decir, cuando se supone que una unidad de codificación puede dividirse solo en una forma cuadrada, una sola unidad de codificación puede dividirse en un máximo de cuatro unidades de codificación diferentes.
En las realizaciones de la invención, una unidad de codificación puede ser usada para tener el significado de una unidad que ha de ser decodificada, así como una unidad que ha de ser codificada.
Una unidad de predicción puede ser dividida en al menos una forma cuadrada o rectangular con el mismo tamaño en una unidad de codificación, o puede ser dividida en formas de tal modo que la forma de una unidad de predicción de unidades de predicción divididas en una unidad de codificación sea diferente de la forma de otra unidad de predicción.
Cuando una unidad de codificación, que se utiliza para generar una unidad de predicción que ha de ser sometida a predicción intra, no es una unidad de codificación mínima, la unidad de codificación puede ser sometida a predicción intra sin ser dividida en varias unidades de predicción (NxN).
El módulo 110 de predicción incluye un módulo de predicción inter que realiza predicción inter y un módulo de predicción intra que realiza predicción intra. El módulo de predicción puede determinar cuál de la predicción inter o de la predicción intra debe realizarse en una unidad de predicción, y puede determinar información específica (por ejemplo, modo de predicción intra, vector de movimiento e imagen de referencia) del método de predicción determinado. En este momento, la unidad de proceso en la que se realiza la predicción puede ser diferente de la unidad de proceso para la cual se determinan el método de predicción y la información específica. Por ejemplo, el método de predicción y el modo de predicción pueden determinarse para cada unidad de predicción y la predicción puede realizarse para cada unidad de transformación. Los valores residuales (bloque residual) entre el bloque predicho generado y el bloque original se introducen en el módulo 115 de transformación. La información del modo de predicción, la información del vector de movimiento, y similares utilizadas para la predicción se codifican junto con los valores residuales por el módulo 130 de codificación de entropía y se transmiten al dispositivo de decodificación. Cuando se usa un modo de codificación específico, el bloque original puede codificarse y transmitirse al dispositivo de decodificación sin generar un bloque predicho mediante el uso del módulo 110 de predicción.
El módulo de predicción inter puede predecir una unidad de predicción sobre la base de información de al menos una imagen de una imagen anterior y una imagen posterior de una imagen actual. El módulo de predicción inter puede incluir un módulo de interpolación de imagen de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.
El módulo de interpolación de imagen de referencia se alimenta con información de imagen de referencia procedente de la memoria 150 y genera información de píxeles menor que un píxel entero a partir de la imagen de referencia. En el caso de los píxeles de luma, se puede usar un filtro de interpolación de 8 tomas basado en DCT que tenga diferentes coeficientes de filtro para generar la información de píxeles menor que un píxel entero en la unidad de 1/4 de píxel. En el caso de los píxeles de croma, se pueden usar filtros de interpolación de 4 tomas basados en DCT que tengan diferentes coeficientes de filtro para generar la información de píxeles menor que un píxel entero en la unidad de 1/8 de píxel.
El módulo de predicción de movimiento puede realizar predicción de movimiento sobre la base de la imagen de referencia interpolada por el módulo de interpolación de imagen de referencia. Se pueden usar varios métodos, tales como FBMA (Algoritmo de coincidencia de bloques basado en búsqueda completa), TSS (Búsqueda de tres etapas) y NTS (Nuevo Algoritmo de búsqueda de tres etapas) para calcular un vector de movimiento. Un vector de movimiento tiene un valor de vector de movimiento en la unidad de 1/2 o 1/4 de píxel en función del píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad de predicción actual utilizando diferentes métodos de predicción de movimiento. Se pueden utilizar varios métodos, como un método de omisión, un método de fusión y un método AMVP (Predicción avanzada de vector de movimiento) como el método de predicción de movimiento.
A continuación, se describirá un método para construir una lista de candidatos de vector de movimiento predichos al realizar una predicción inter usando el método AMVP según una realización de la invención.
El módulo de predicción intra puede generar una unidad de predicción sobre la base de información de píxel de referencia alrededor de un bloque actual que es información de píxel en la imagen actual. Cuando un bloque alrededor de la unidad de predicción actual es un bloque que ha sido sometido a la predicción inter y un píxel de referencia es un píxel que ha sido sometido a la predicción inter, los píxeles de referencia del bloque que han sido sometidos a la predicción inter pueden ser reemplazados por información del píxel de referencia de un bloque que ha sido sometido a la predicción intra. Es decir, cuando un píxel de referencia no está disponible, la información de píxel de referencia no disponible puede reemplazarse con al menos un píxel de referencia de los píxeles de referencia disponibles.
El modo de predicción de la predicción intra incluye un modo de predicción directiva en el que se usa información de píxel de referencia dependiendo de la dirección de predicción y un modo de predicción no directiva en el que la información de directividad no se usa para realizar la predicción. El modo para predecir la información de luma y el modo para predecir la información de croma pueden ser diferentes entre sí. La información del modo de predicción intra obtenida por la información de luma o la información de señal de luma predicha se puede usar para predecir la información de croma.
Cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son iguales entre sí al realizar la predicción intra, la predicción intra de la unidad de predicción puede realizarse sobre la base de píxeles ubicados en el lado izquierdo de la unidad de predicción, un píxel ubicado en el extremo superior izquierdo y píxeles ubicados en el extremo superior. Por otro lado, cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son diferentes entre sí al realizar la predicción intra, la predicción intra puede realizarse utilizando píxeles de referencia basados en la unidad de transformación. Se puede realizar una predicción inter utilizando la división NxN solo para la unidad mínima de codificación.
En el método de predicción intra, se aplica un filtro MDIS (Suavizado intra dependiente del modo) a los píxeles de referencia dependiente del modo de predicción y luego se puede generar un bloque predicho. El tipo de filtro MDIS aplicado a los píxeles de referencia puede variar. En el método de predicción intra, el modo de predicción intra de una unidad de predicción actual puede predecirse a partir del modo de predicción intra de una unidad de predicción ubicada alrededor de la unidad de predicción actual. Cuando el modo de predicción de la unidad de predicción actual se predice utilizando la información de modo predicha a partir de las unidades de predicción contiguas y los modos de predicción intra de la unidad de predicción actual, si las unidades de predicción contiguas son iguales entre sí, la información que representa que los modos de predicción de la unidad de predicción actual y las unidades de predicción contiguas son iguales entre sí puede transmitirse utilizando información de indicador predeterminada. Si los modos de predicción de la unidad de predicción actual y las unidades de predicción contiguas son diferentes entre sí, la información del modo de predicción del bloque actual puede codificarse mediante la codificación de entropía.
Se puede generar un bloque residual que incluye información residual que es una diferencia entre una unidad de predicción y el bloque original de la unidad de predicción. El bloque residual generado puede introducirse en el módulo 115 de transformación. El módulo 115 de transformación puede transformar el bloque residual que incluye la información residual de la unidad de predicción generada por el módulo 110 de predicción y el bloque original usando un método de transformación tal como DCT (Transformación discreta de coseno) o DST (Transformación discreta de seno). Cuál de entre la DCT y la DST se usa para transformar el bloque residual pueden determinarse en función de la información del modo de predicción intra de la unidad de predicción utilizada para generar el bloque residual.
El módulo 120 de cuantificación puede cuantificar valores transformados en el dominio de frecuencia por el módulo 115 de transformación. Los coeficientes de cuantificación pueden cambiarse dependiendo del bloque o del grado de importancia de una imagen. Los valores emitidos desde el módulo 120 de cuantificación pueden suministrarse al módulo 135 de cuantificación inversa y al módulo 125 de reordenamiento.
El módulo 125 de reordenamiento puede reorganizar los valores de coeficiente con respecto a los valores residuales cuantificados.
El módulo 125 de reordenamiento puede cambiar los coeficientes de tipo de bloque bidimensional a coeficientes de tipo de vector unidimensional mediante el uso de un método de escaneo de coeficientes. Por ejemplo, el módulo 125 de reordenamiento puede escanear coeficientes de DC a coeficientes del dominio de alta frecuencia usando un método de escaneo en zigzag para cambiar los coeficientes escaneados a coeficientes de tipo vectorial unidimensional. Se puede usar un método de escaneo vertical para escanear coeficientes de tipo de bloque bidimensional en la dirección de la columna y un método de escaneo horizontal para escanear coeficientes de tipo de bloque bidimensional en la dirección de la fila en lugar del método de escaneo en zigzag dependiendo del tamaño de una unidad de transformación y del modo de predicción intra. Es decir, cuál de los métodos de escaneo en zigzag, el método de escaneo vertical y el método de escaneo horizontal debe usarse, puede determinarse dependiendo del tamaño de una unidad de transformación y del modo de predicción intra.
El módulo 130 de codificación de entropía puede realizar la codificación de entropía en base a los valores generados por el módulo 125 de reordenamiento. Se pueden usar varios métodos de codificación, tales como la codificación exponencial de golomb, VLC (Codificación de longitud variable) y CABAC (Codificación aritmética binaria adaptativa al contexto) para la codificación de entropía.
El módulo 130 de codificación de entropía puede codificar una variedad de información tal como información de coeficiente residual e información de tipo de bloque de una unidad de codificación, información de modo de predicción, información de unidad de división, información de unidad de predicción, información de unidad de transferencia, información de vector de movimiento, información de marco de referencia, información de interpolación de bloque e información de filtrado del módulo 125 de reordenamiento y del módulo 110 de predicción. El módulo 130 de codificación de entropía puede codificar en entropía los valores del coeficiente de la unidad de codificación introducidos desde el módulo 125 de reordenamiento.
El módulo 135 de cuantificación inversa y el módulo 140 de transformación inversa cuantifican inversamente los valores cuantificados por el módulo 120 de cuantificación y transforman inversamente los valores transformados por el módulo 115 de transformación. Los valores residuales generados por el módulo 135 de cuantificación inversa y el módulo 140 de transformación inversa pueden agregarse con la unidad de predicción, que es predicha por el módulo de predicción del vector de movimiento, el módulo de compensación de movimiento y el módulo de predicción intra del módulo 110 de predicción, para generar un bloque reconstruido.
El módulo 145 de filtro puede incluir al menos uno de un filtro de desbloqueo, un módulo de corrección de desplazamiento y un ALF (Filtro de bucle adaptativo).
El filtro 145 de desbloqueo puede eliminar la distorsión de bloque generada debido al límite entre bloques en la imagen reconstruida. Si se aplica el filtro de desbloqueo a un bloque actual puede determinarse en función de los píxeles incluidos en varias filas o columnas del bloque. Cuando el filtro de desbloqueo se aplica a un bloque, se puede aplicar un filtro fuerte o un filtro débil dependiendo de la intensidad de filtrado de desbloqueo necesaria. Al realizar el filtrado horizontal y el filtrado vertical para aplicar el filtro de desbloqueo, el filtrado horizontal y el filtrado vertical pueden realizarse en paralelo.
El módulo de corrección de desplazamiento puede corregir un desplazamiento de la imagen realizado el desbloqueo de la imagen original en la unidad de píxeles. Un método para dividir los píxeles de una imagen en un número predeterminado de regiones, determinar una región que se ha de someter a la corrección de desplazamiento y aplicar la corrección de desplazamiento a la región determinada o un método de aplicar la corrección de desplazamiento en consideración de la información de borde de cada píxel se puede usar para realizar la corrección de desplazamiento en una imagen específica.
El ALF (Filtro de bucle adaptativo) puede realizar el filtrado sobre la base del resultado de comparación de la imagen reconstruida filtrada y la imagen original. Los píxeles incluidos en una imagen pueden dividirse en grupos predeterminados, puede determinarse un filtro que se ha de aplicar a cada grupo, y el filtrado puede realizarse de manera diferente para cada grupo. La información sobre si se debe aplicar el ALF puede ser transferida por las unidades de codificación (CU) y el tamaño y los coeficientes del ALF que se han de aplicar a cada bloque pueden variar. El ALF puede tener varios tipos y el número de coeficientes incluidos en el filtro correspondiente puede variar. La información relacionada con el filtrado (tal como la información del coeficiente de filtro, la información ALF ACTIVADO/DESACTIVADO y la información del tipo de filtro) del ALF puede incluirse y transferirse en un conjunto predeterminado de parámetros de un flujo de bits.
La memoria 150 puede almacenar el bloque o imagen reconstruido emitido desde el módulo 145 de filtro y el bloque o la imagen reconstruido almacenado puede suministrarse al módulo 110 de predicción cuando se realiza la predicción inter.
La FIG. 2 es un diagrama de bloques que ilustra un dispositivo de decodificación de imágenes según una realización de la invención.
Con referencia a la FIG. 2, un dispositivo 200 de decodificación de imágenes incluye un módulo 210 de decodificación de entropía, un módulo 215 de reordenamiento, un módulo 220 de cuantificación inversa, un módulo 225 de transformación inversa, un módulo 230 de predicción, un módulo 235 de filtro y una memoria 240.
Cuando se introduce un flujo de bits de imagen desde el dispositivo de codificación de imagen, el flujo de bits introducido se puede decodificar en el orden inverso al del dispositivo de codificación de imagen.
El módulo 210 de decodificación de entropía puede realizar la decodificación de entropía en el orden inverso del proceso de codificación de entropía que realizó el módulo de codificación de entropía del dispositivo de codificación de imagen. Los valores residuales realizados por la decodificación de entropía por el módulo de decodificación de entropía pueden introducirse en el módulo 215 de reordenamiento.
El módulo 210 de decodificación de entropía puede decodificar información asociada con la predicción intra y la predicción inter realizada por el dispositivo de codificación. Como se describió anteriormente, existen restricciones predeterminadas para realizar la predicción intra y la predicción inter, el módulo de decodificación de entropía puede realizar la decodificación de entropía basándose en las restricciones para obtener la información de un bloque actual asociado con la predicción intra y la predicción inter.
El módulo 215 de reordenamiento puede realizar el reordenamiento en el flujo de bits decodificado por entropía mediante el módulo 210 de decodificación de entropía sobre la base del método de reordenamiento del módulo de codificación. El módulo de reordenamiento puede reconstruir y reordenar coeficientes expresados en forma de vectores unidimensionales en coeficientes de tipo de bloque bidimensional. El módulo 215 de reordenamiento puede ser alimentado con información asociada con el escaneo de coeficientes realizado por el módulo de codificación y puede realizar el reordenamiento utilizando un método de escaneo inverso de los coeficientes en función del orden de escaneo en el que el módulo de codificación realiza el escaneo.
El módulo 220 de cuantificación inversa puede realizar una cuantificación inversa sobre la base de los parámetros de cuantificación suministrados desde el dispositivo de codificación y los valores de coeficientes reordenados del bloque.
El módulo 225 de transformación inversa puede realizar la DCT inversa y la DST inversa dependiendo de la DCT y de la DST, que han sido realizados por el módulo de transformación en el dispositivo de codificación de imagen. La transformación inversa puede realizarse sobre la base de una unidad de transferencia determinada por el dispositivo de codificación de imagen. El módulo de transformación del dispositivo de codificación de imagen puede realizar selectivamente la DCT y la DST dependiendo de varios elementos de información tales como el método de predicción, el tamaño del bloque actual y la dirección de predicción, y el módulo 225 de transformación inversa del dispositivo de decodificación de imagen puede realizar la transformación inversa sobre la base de la información de transformación realizada por el módulo de transformación del dispositivo de codificación de imagen.
La transformación inversa puede ser realizada por las unidades de codificación en lugar de por las unidades de transformación habiendo sido sometidas a la transformación.
El módulo 230 de predicción puede generar un bloque predicho sobre la base de la información de generación de bloque predicha suministrada desde el módulo 210 de decodificación de entropía y la información de bloque o imagen previamente decodificada suministrada desde la memoria 240.
Como se describió anteriormente, de manera similar al funcionamiento del dispositivo de codificación de imágenes, cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son iguales entre sí al realizar la predicción intra, la predicción intra en la unidad de predicción es realizada sobre la base de píxeles ubicados en el lado izquierdo de la unidad de predicción, un píxel ubicado en el extremo superior izquierdo y píxeles ubicados en el extremo superior. Por otro lado, cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son diferentes entre sí al realizar la predicción intra, la predicción intra puede realizarse utilizando píxeles de referencia basados en la unidad de transformación. Se puede realizar una predicción intra utilizando la división NxN solo para la unidad mínima de codificación.
El módulo 230 de predicción incluye un módulo de determinación de unidad de predicción, un módulo de predicción inter y un módulo de predicción intra. El módulo de determinación de la unidad de predicción puede recibir una variedad de información tal como información de la unidad de predicción introducida desde el módulo de decodificación de entropía, información del modo de predicción del método de predicción intra, e información relacionada con la predicción de movimiento del método de predicción inter, puede determinar una unidad de predicción a partir de la unidad de codificación actual, y puede determinar cuál de la predicción inter y de la predicción intra debe realizarse en la unidad de predicción. El módulo de predicción inter puede realizar la predicción inter en la unidad de predicción actual sobre la base de la información incluida en al menos una imagen de una imagen anterior y una imagen posterior de la imagen actual que incluye la unidad de predicción actual utilizando la información necesaria para la predicción inter de la unidad de predicción actual suministrada desde el dispositivo de codificación de imagen.
Para realizar la predicción inter, se puede determinar cuál de un modo de omisión, un modo de fusión y un modo AMVP es el método de predicción de movimiento de la unidad de predicción incluido en la unidad de codificación sobre la base de la unidad de codificación.
El módulo de predicción intra puede generar un bloque predicho sobre la base de la información de píxel en la imagen actual. Cuando una unidad de predicción es la unidad de predicción aplicada a la predicción intra, la predicción intra puede realizarse sobre la base de la información del modo de predicción intra de la unidad de predicción suministrada desde el dispositivo de codificación de imagen. El módulo de predicción intra puede incluir un filtro MDIS, un módulo de interpolación de píxeles de referencia y un filtro de DC. El filtro MDIS realiza el filtrado en los píxeles de referencia del bloque actual. Se determina si el filtro debe aplicarse dependiendo del modo de predicción de la unidad de predicción actual. El filtro MDIS puede realizar el filtrado sobre los píxeles de referencia del bloque actual utilizando el modo de predicción de la unidad de predicción y la información del filtro MDIS suministrada desde el dispositivo de codificación de imagen. Cuando el modo de predicción del bloque actual es un modo en el que no se realiza el filtrado MDIS, es posible que el filtro MDIS no se aplique.
Cuando el modo de predicción de la unidad de predicción es una unidad de predicción que se ha de aplicar a la predicción intra sobre la base de los valores de píxel obtenidos al interpolar los píxeles de referencia, el módulo de interpolación de píxeles de referencia puede generar píxeles de referencia en la unidad de píxeles menor de un entero interpolando los píxeles de referencia. Cuando el modo de predicción de la unidad de predicción actual es un modo de predicción en el que se genera un bloque predicho sin interpolar los píxeles de referencia, los píxeles de referencia pueden no interpolarse. Cuando el modo de predicción del bloque actual es el modo DC, el filtro DC puede generar un bloque predicho a través del filtrado.
El bloque o imagen reconstruido puede suministrarse al módulo 235 de filtro. El módulo 235 de filtro incluye un filtro de desbloqueo, un módulo de corrección de desplazamiento y un ALF.
La información sobre si el filtro de desbloqueo se aplica al bloque o imagen e información correspondientes sobre cuál del filtro fuerte y del filtro débil se ha aplicado cuando se ha aplicado el filtro de desbloqueo se puede suministrar desde el dispositivo de codificación de imagen. El filtro de desbloqueo del dispositivo de decodificación de imagen se puede suministrar con la información relacionada con el filtro de desbloqueo del dispositivo de codificación de imagen y puede realizar el filtrado de desbloqueo sobre el bloque correspondiente en el dispositivo de decodificación. De manera similar al dispositivo de codificación de imagen, primero se realizan el filtrado de desbloqueo vertical y el filtro de desbloqueo horizontal, donde al menos uno del filtrado de desbloqueo vertical y del filtrado de desbloqueo horizontal se puede realizar en una parte superpuesta. El filtrado de desbloqueo vertical o el filtrado de desbloqueo horizontal que no se ha realizado previamente se puede realizar en la parte en la que se superponen el filtrado de desbloqueo vertical y el filtrado de desbloqueo horizontal. El procesamiento paralelo de los procesos de filtrado de desbloqueo puede realizarse a través de este filtrado de desbloqueo.
El módulo de corrección de desplazamiento puede realizar la corrección de desplazamiento sobre la imagen reconstruida sobre la base del tipo de corrección de desplazamiento y la información del valor de desplazamiento aplicada a la imagen en la codificación.
El ALF puede realizar el filtrado sobre la base del resultado de comparación entre la imagen reconstruida sometida al filtrado y la imagen original. El ALF puede aplicarse a la unidad de codificación sobre la base de la información de aplicación de ALF y la información del coeficiente de ALF suministrada desde el dispositivo de codificación. La información de ALF puede incluirse y suministrarse en un conjunto de parámetros específico.
La memoria 240 puede almacenar la imagen o el bloque reconstruido para usar como una imagen de referencia o un bloque de referencia y puede suministrar la imagen reconstruida a un módulo de salida.
Como se describió anteriormente, en las realizaciones de la invención, la unidad de codificación se usa como un término que representa una unidad de codificación, pero se puede usar como una unidad de decodificación, así como de codificación.
Un método de codificación de imagen y un método de decodificación de imagen que se han de describir posteriormente en las realizaciones de la invención pueden ser realizados por los componentes del dispositivo de codificación de imagen y el dispositivo de decodificación de imagen descritos anteriormente con referencia a las FIGS. 1 y 2. Los componentes pueden incluir unidades de proceso de software que puede realizarse a través de algoritmos, así como de componentes de hardware.
La FIG. 3 es un diagrama conceptual que ilustra ubicaciones de muestras de luma y muestras de croma de acuerdo con una realización de la invención.
Con referencia a la FIG. 3, la tasa de muestreo y las posiciones de muestreo de las muestras 300 de luma y de las muestras 320 de croma pueden ser diferentes entre sí.
Las muestras 300 de luma y las muestras 320 de croma pueden constituir una imagen en varios formatos. Por ejemplo, cuando se utiliza el muestreo YUV 4:2:0 para las muestras 300 de luma y las muestras 320 de croma de una imagen, las muestras 320 de croma Cb y Cr pueden ubicarse entre las muestras 300 de luma. Por lo tanto, las muestras 300 de luma y las muestras 320 de croma no coinciden en posición, y la cantidad de datos en las direcciones horizontal y vertical de las muestras 320 de croma es la mitad de las muestras de luma.
Según una realización de la invención, las muestras de luma pueden usarse para calcular los valores predichos de las muestras de croma.
La expresión 1 expresa los valores predichos de las muestras de croma.
Expresión 1
P' c representa el valor predicho de una muestra de croma en un bloque y
representa una muestra de luma de un bloque reconstruido. Los parámetros a y p pueden derivarse a partir de muestras previamente reconstruidas alrededor del bloque actual.
La tasa de muestreo de las muestras de croma puede ser la mitad de la tasa de muestreo de las muestras de luma y puede tener una diferencia de fase de 0,5 píxeles en la dirección vertical. Las muestras de luma reconstruidas se pueden muestrear hacia abajo en la dirección vertical y sub-muestreadas en la dirección horizontal para que coincida con la fase y el tamaño de las muestras de croma.
Por lo tanto, en el método de predicción de muestra de croma según la realización de la invención, es posible calcular los valores predichos de las muestras de croma que reflejan la diferencia de fase entre las muestras de croma y las muestras de luma utilizando el valor de
como el valor de muestra del bloque luma reconstruido en consideración de la diferencia de fase.
La expresión 2 es una fórmula matemática que representa un método para calcular los parámetros a y p
Expresión 2
Figure imgf000011_0001
En la Expresión 2, R(•, •) puede definirse como una función de cálculo del valor de relación de las variables de entrada. Por ejemplo, es una función de correlación o una función de covarianza automática que es una función de calcular el valor de relación entre dos variables P l * y P c . M (^) representa una función de calcular un valor promedio. Es decir, a y p pueden ser valores calculados utilizando valores de muestra interpolados linealmente como variables. El método de calcular a y p utilizando los valores de muestra interpolados linealmente como variables pertenece al alcance de la invención.
P l * representa un valor interpolado linealmente de una muestra de luma reconstruida calculada teniendo en cuenta la diferencia de fase como se muestra en la Expresión 3.
Expresión 3
La FIG. 4 es un diagrama que ilustra valores de muestra de luma ubicados alrededor y dentro de un bloque actual de acuerdo con una realización de la invención.
Con referencia a la FIG. 4, una primera muestra 400 representa una muestra de luma sub-muestreada utilizada para calcular los parámetros a y p. Una segunda muestra 410 representa una muestra obtenida interpolando linealmente una muestra de luma sub-muestreada utilizada para calcular los parámetros a y p.
Una tercera muestra 420 representa una muestra de luma sub-muestreada utilizada para calcular una muestra de croma. Una cuarta muestra 430 representa una muestra de luma sub-muestreada realizada por interpolación lineal y usada para calcular una muestra de croma.
Es decir, en el método de predicción de muestra de croma que usa muestras de luma de acuerdo con la realización de la invención, los valores de la muestra de luma pueden calcularse realizando la interpolación lineal teniendo en cuenta la diferencia de distancia entre las muestras de luma y las muestras de croma y la muestra de luma interpolada linealmente, no la propia muestra de luma puede usarse para predecir las muestras de croma. Al usar este método de interpolación lineal, es posible predecir con mayor precisión la señal de croma en un formato de imagen en el que la señal de croma y la señal de luma tienen una posición diferente. Los valores de la muestra de luma pueden calcularse realizando la interpolación lineal sobre la base de la diferencia de fase y la tasa de muestreo entre las muestras de luma y las muestras de croma. Esta realización también pertenece al alcance de la invención. En una realización en la que se usa un LM, se puede usar el siguiente método.
Las siguientes expresiones representan el cálculo de valores predichos intra de un bloque de croma usando el LM. Expresión 4
k3 - Max(0, BttUcpth, t LoeJí n i ) 14 )
Figure imgf000012_0001
.nS -l
En la Expresión 4, se puede calcular una nueva primera variable usando la interpolación lineal como se describió anteriormente.
Se puede calcular una segunda variable para calcular a y p utilizando la primera variable calculada a través de la Expresión 4, como se muestra en la Expresión 5.
Expresión 5
Los valores de a y p pueden calcularse sobre la base de la segunda variable, que se calcula a través de la Expresión 5, utilizando la Expresión 6.
Expresión 6
Figure imgf000013_0001
Las muestras de bloque de croma usando el LM pueden calcularse sobre la base de a y p, que se calculan a través de la Expresión 6, usando la Expresión 7.
Expresión 7
predSamples [ x, y ] = Clipl c( ( ( py’[ x, y ] * a ) >> k )+ p ), con x, y = 0..nS - 1
En las expresiones 4 a 7, de manera similar al método mencionado anteriormente, la interpolación lineal se puede realizar sobre la base de la relación entre la muestra de croma y la muestra de luma, se pueden calcular a y p utilizando la relación entre las variables calculadas y se puede realizar la predicción intra utilizando el LM en el bloque de croma sobre la base de los valores calculados.
Este método permite que un formato de imagen es YUV 4:2:0. Cuando el formato de imagen es un formato de imagen distinto del YUV 4:2:0 (por ejemplo, 4:4:4 o 4:0:0), la expresión de interpolación lineal descrita anteriormente puede variar dependiendo de la relación posicional entre muestra de croma y la muestra de luma. Esta realización también pertenece al alcance de la invención.
La Tabla 1 representa los modos de predicción intra e índices de modo de predicción intra, hechos corresponder sobre los modos de predicción intra según una realización de la invención.
Tabla 1
Figure imgf000013_0002
Con referencia a la Tabla 1, el bloque luma puede ser intra-predicho utilizando modos de predicción intra desde el inicio al 34°. El modo de predicción intra de inicio es un modo plano, el primer modo de predicción intra es un modo DC como modo de predicción intra no directiva, y los modos de predicción intra de segundo a 34° son modos de predicción intra directiva. La predicción intra se puede realizar sobre la base de ángulos de predicción diferentes dependiendo de los índices.
La FIG. 5 es un diagrama conceptual que ilustra un método de predicción intra directiva según una realización de la invención.
Con referencia a la FIG. 5, los modos de predicción intra directiva tienen diferentes direcciones de predicción intra en el sentido de las agujas del reloj desde el segundo modo de predicción intra hasta el 34° modo de predicción intra. Pueden usarse todos los modos de predicción intra directiva mostrados en la FIG. 5 para realizar predicciones intra en un bloque de luma. Sin embargo, no se utilizan todos los modos de predicción intra directiva, sino que solo se pueden usar algunos modos de predicción intra directiva para realizar la predicción intra en un bloque de croma. La predicción intra en un bloque de croma puede usar un modo de predicción oblicua (el modo 34° de predicción intra), un modo de predicción intra vertical (el modo 26° de predicción intra), un modo de predicción intra horizontal (el décimo modo de predicción intra) y un modo DC de predicción intra. Además, un LM (Modo estimado de luma) en el que se predice un bloque de croma sobre la base de un bloque de luma reconstruido, que es un modo de predicción intra diferente del de un bloque de luma y un DM (Modo dirigido de luma) que es el mismo modo de predicción intra que el bloque de luma puede ser usado para predecir intra un bloque de croma.
La Tabla 2 es una tabla que ilustra la relación de correspondencia entre el modo de predicción intra y el índice del modo de predicción intra cuando el LM, el modo de predicción intra vertical (VER), el modo de predicción intra horizontal (HOR), el modo de predicción intra DC y el DM se usan para predecir intra un bloque de croma.
Tabla 2
Figure imgf000014_0001
Con referencia a la Tabla 2, la predicción intra en un bloque de croma se puede realizar utilizando el LM (Modo estimado de luma) cuando intra_chroma_pred_type es 0, el modo vertical de predicción intra (VER) cuando intra_chroma_pred_type es 1, el modo horizontal de predicción intra (HOR) cuando intra_chroma_pred_type es 2, el modo DC de predicción intra cuando intra_chroma_pred_type es 3 y el DM (Modo dirigido por luma) cuando intra_chroma_pred_type es 4.
Cuando un bloque de luma y un bloque de croma usan el mismo modo de predicción intra, el modo de predicción intra del bloque de croma puede ser expresado por el DM y, por lo tanto, no es necesario hacer corresponder el índice del modo de predicción intra a un modo de predicción intra de los cinco modos de predicción intra antes mencionados de un bloque de croma. Por ejemplo, cuando el modo de predicción intra de un bloque de luma es el modo de predicción intra vertical (VER) y el modo de predicción intra de un bloque de croma es el modo de predicción intra vertical (VER), el modo de predicción intra del bloque de croma puede ser expresado por el DM de intra_chroma_pred_type 4 y, por lo tanto, no es necesario hacer corresponder el modo de predicción intra al intra_chroma_pred_type 1. De la misma manera, cuando el modo de predicción intra de un bloque de luma es el modo de predicción intra vertical (VER), el modo de predicción intra horizontal (HOR) y el modo de predicción intra DC (DC), el modo de predicción intra de un bloque de croma puede expresarse mediante cuatro i nt ra_c hrom a_p red_types.
Cuando el modo de predicción intra de un bloque de luma es el modo de predicción intra directiva distinto del modo de predicción vertical, el modo de predicción intra horizontal y el modo DC, el modo DM y el modo de predicción intra del bloque de luma no se superponen y así, la predicción intra en el bloque de croma puede realizarse usando cinco intra_chroma_pred_types, a diferencia del caso en el que el modo DM y el modo de predicción intra del bloque luma se superponen.
El modo de predicción intra utilizado para realizar la predicción intra en un bloque de croma y la relación de correspondencia entre el modo de predicción intra y el índice del modo de predicción intra pueden cambiar arbitrariamente. Puede determinarse si el LM debería usarse para un bloque de croma en la etapa de codificación y decodificación, y la Tabla 2 puede variar dependiendo de si se usa el LM.
Por ejemplo, como se describe en las tablas 3 y 4, el modo oblicuo de predicción intra (el modo 34° de predicción intra) y el modo plano pueden usarse adicionalmente como el modo de predicción intra de un bloque de croma. La Tabla 3 muestra la relación de correspondencia entre el modo de predicción intra de un bloque de croma y los índices del modo de predicción intra cuando la predicción intra en el bloque de croma se realiza sin utilizar el LM.
Tabla 3
Figure imgf000015_0001
Con referencia a la Tabla 3, intra_chroma_pred_mode 0 se hace corresponder al modo plano, intra_chroma_pred_mode 1 se hace corresponder al modo vertical de predicción intra (el 26° modo de predicción intra), intra_chroma_pred_mode 2 se hace corresponder al modo horizontal de predicción intra (el décimo modo de predicción intra ), intra_chroma_pred_mode 3 se hace corresponder al modo DC (el primer modo de predicción de intra), e intra_chroma_pred_mode 4 se hace corresponder al DM.
Cuando el modo de predicción intra de un bloque de luma es el modo plano, el modo vertical, el modo horizontal o el modo DC, el DM puede expresar el modo de predicción intra de un bloque de croma. En consecuencia, puede usarse el modo de predicción intra oblicua (el modo 34° de predicción intra) en lugar del modo de predicción intra expresado por el DM como un modo de predicción intra adicional para predecir intra un bloque de croma.
La Tabla 4 muestra la relación entre el modo de predicción intra de un bloque de luma y el modo de predicción intra de un bloque de croma cuando la predicción intra se realiza en el bloque de croma utilizando el modo LM.
Tabla 4
Figure imgf000015_0002
Con referencia a la Tabla 4, el modo de predicción intra de un bloque de croma pueden hacerse corresponder al modo plano cuando intra_chroma_pred_mode es 0, al modo de predicción intra vertical cuando intra_chroma_pred_mode es 1, al modo de predicción intra horizontal cuando intra_chroma_pred_mode es 2, al modo DC cuando intra_chroma_pred_mode es 3, al LM cuando intra_chroma_pred_mode es 4 y al DM cuando intra_chroma_pred_mode es 5.
De manera similar a la Tabla 4, el modo de predicción intra de un bloque de luma es el modo plano, el modo vertical, el modo horizontal y el modo DC, el modo de predicción intra de un bloque de croma puede expresarse por el DM. De acuerdo con esto, se puede usar el modo oblicuo de predicción intra (el modo 34 de predicción intra) en lugar del modo de predicción intra entre los modos intra_chroma_pred_modes, que puede expresar el DM.
En los modos de predicción intra de un bloque de croma hecho corresponder como se describió anteriormente, la información del modo de predicción intra de un bloque de croma se puede transferir mediante el uso de un método de correspondencia de palabras de código que se muestra en la Tabla 6.
La tabla como la Tabla 3 en la que los modos de predicción intra de un bloque de luma se hacen corresponder a los modos de predicción intra de un bloque de croma sin incluir el LM se define como una tabla de correspondencia sin LM. La tabla como la Tabla 4 en la que los modos de predicción intra de un bloque de luma se hacen corresponder a los modos de predicción intra de un bloque de croma para incluir el LM se define como una tabla de correspondencia LM.
Con referencia a las Tablas 3 y 4, un modo de predicción intra innecesario debido al DM se establece en el modo oblicuo de predicción intra (el modo 34° de predicción intra). Sin embargo, se pueden usar los modos de predicción intra distintos del modo 34° de predicción intra, tales como el modo 18° de predicción intra y el segundo modo de predicción intra, en lugar del modo 34° de predicción intra. Esta realización también pertenece al alcance de la invención.
La información sobre qué modo de predicción intra se debería utilizar como sustituyente en el modo de predicción intra puede expresarse mediante pseudo códigos como se describe en la tabla siguiente.
Tabla 5
Figure imgf000016_0001
___________________________________
Con referencia a la Tabla 5, cuando el modo de predicción intra de un bloque de luma y el modo de predicción intra de un bloque de croma son iguales entre sí, el modo de predicción intra para sustituir al mismo modo de predicción intra de un bloque de croma como el modo de predicción intra de un bloque de luma puede expresarse mediante información de elemento de sintaxis, tal como substitute_mode, para realizar la predicción intra en el bloque de croma.
Para señalar el modo de predicción intra de un bloque de croma como se describe en las realizaciones mencionadas anteriormente, las palabras de código pueden asignarse a los modos de predicción intra para señalar los modos de predicción intra como se describe en la tabla siguiente.
La Tabla 6 es una tabla en la que las palabras de código se asignan a los modos de predicción intra de un bloque de croma de acuerdo con una realización de la invención.
Tabla 6
Figure imgf000016_0002
Con referencia a la Tabla 6, hay números de modo, nombres de modo de predicción intra, hechos corresponder a los números de modo y palabras de código correspondientes a los mismos. El DM es hecho corresponder a la palabra de código "0", el LM es hecho corresponder a la palabra de código "10", el modo vertical es hecho corresponder a la palabra de código "110", el modo horizontal es hecho corresponder a la palabra de código "1110", y el modo DC es hecho corresponder a la palabra de código "1111". Como se describe en la Tabla 6, las palabras de código fijas pueden hacerse corresponder a los modos de predicción intra de un bloque de croma, independientemente de los modos de predicción intra de un bloque de luma, o un método para no hacer corresponder una palabra de código a un modo de predicción intra no utilizado, pero se pueden hacer corresponder palabras de código a los modos de predicción intra utilizados dependiendo del modo de predicción intra de un bloque de luma.
Tabla 6-1
Figure imgf000016_0003
Con referencia a la Tabla 6-1, al no hacer corresponder una palabra de código a un modo de predicción intra no utilizado, sino al hacer corresponder palabras de código a los modos de predicción intra utilizados dependiendo del modo de predicción intra de un bloque de luma, se pueden hacer corresponder de manera flexible las palabras de código para expresar los modos de predicción intra de un bloque de croma dependiendo del modo de predicción intra de un bloque de luma.
Como otro método para hacer corresponder los modos de predicción intra y las palabras de código, se puede usar un método de hacer corresponder palabras de código fijas como se describe en la Tabla 7 cuando los modos de predicción intra de un bloque de croma se hacen corresponder a las palabras de código como se describe en las Tablas 3 y 4.
Tabla 7
Figure imgf000017_0001
Con referencia a la Tabla 7, para predecir los modos de predicción intra de un bloque de croma, el caso donde se realiza la predicción intra para incluir el LM y el caso donde se realiza la predicción intra sin usar el LM pueden distinguirse como se ha descrito anteriormente, y los modos de predicción intra y las palabras de código correspondientes a los modos de predicción intra pueden ser hechos corresponder según uno de los casos.
Cuando se realiza el modo de predicción intra en un bloque de croma para incluir el LM, la predicción intra en un bloque de croma se puede realizar utilizando el DM, el LM y los cuatro modos de predicción intra (modo 0, modo 1, modo 2 y modo 3). Cuando la predicción intra en un bloque de croma se realiza sin utilizar el LM, la predicción intra puede realizarse utilizando el DM y cuatro modos de predicción intra (modo 0, modo 1, modo 2 y modo 3).
Las palabras de código descritas en la Tabla 7 pueden codificarse y decodificarse mediante el uso de un método de derivación de los propios valores sin utilizar ningún contexto. En el método de derivación, todos los bits de una palabra de código pueden ser derivados, pero los bits que representan el DM y los bits que representan el LM pueden codificarse utilizando un contexto. Es decir, cuando se usa el modo LM, los primeros dos bits se codifican usando un contexto. Cuando no se utiliza el modo LM, solo el primer bit puede codificarse según el contexto. El método de codificación de palabra de código es arbitrario y se pueden usar varios métodos. Por ejemplo, cuando el cálculo no tiene que realizarse rápidamente, se pueden asignar contextos a todos los bits de una palabra de código para codificar los bits. Se pueden usar los diversos métodos de binarización del modo de predicción intra.
La Tabla 8 es una tabla que representa la relación de correspondencia entre los modos de predicción intra y las palabras de código cuando el modo 0 es el modo plano, el modo 1 es el modo de predicción intra vertical, el modo 2 es el modo de predicción intra horizontal y el modo 3 es el modo de predicción intra DC. sobre la base de la relación de correspondencia entre los modos de predicción intra de un bloque de croma y las palabras de código que se muestran en la Tabla 7.
Tabla 8
Figure imgf000017_0002
Con referencia a la Tabla 8, chroma_pred_from_luma_enabled_flag = 1 representa que la predicción intra en un bloque de croma se realiza utilizando el LM. Las palabras de código pueden ser de hechas corresponder de forma fija a los correspondientes modos de predicción intra tales como el DM cuando intra_chroma_pred_mode es 5, el LM cuando intra_chroma_pred_mode es 4, el modo plano cuando intra_chroma_pred_mode es 0, el VER cuando intra_chroma_pred_mode es 1, el HOR cuando intra_chroma_pred_mode es 2, y el DC cuando intra_chroma_pred_mode es 3.
Chroma_pred_from_luma_enabled_flag = 0 representa que la predicción intra en un bloque de croma se realiza sin usar el modo LM. Las palabras de código pueden ser hechas corresponder de forma fija a los correspondientes modos de predicción intra tales como el DM cuando intra_chroma_pred_mode es 4, el modo plano cuando intra_chroma_pred_mode es 0, el VER cuando intra_chroma_pred_mode es 1, el HOR cuando intra_chroma_pred_mode es 2, y el DC cuando intra_chroma_pred_mode es 3.
La FIG. 6 es un diagrama de flujo que ilustra un método para calcular un modo de predicción intra de un bloque de croma según una realización de la invención.
Con referencia a la FIG. 6, se decodifica la información del indicador sobre si se utiliza el LM (etapa S600).
Cuando se realiza la predicción intra en un bloque de croma, se puede seleccionar el LM utilizado y se puede determinar si se ha usado el LM para realizar la predicción intra en un bloque de croma sobre la base de la información del indicador que representa si se ha utilizado el LM. Como se describió anteriormente, la palabra de código que expresa la misma información del modo de predicción intra puede variar dependiendo de si se ha usado el LM.
Se recibe la palabra de código que incluye el modo de predicción intra de un bloque de croma (etapa S610).
Se puede recibir la información de la palabra de código codificada sobre la base de la relación de correspondencia entre los modos de predicción intra y las palabras de código como se describe en las Tablas 6 y 7.
La información del modo de predicción intra de un bloque de croma se decodifica sobre la base de la información de la palabra de código recibida (etapa S620).
Como se describió anteriormente, hay varias tablas de correspondencia entre las palabras de código y los modos de predicción intra. La información del modo de predicción intra de un bloque de croma puede decodificarse sobre la base de una tabla de búsqueda que representa la relación de correspondencia entre las palabras de código y los modos de predicción intra.
Por ejemplo, cuando la predicción intra en un bloque de croma se realiza utilizando el LM, el dispositivo de codificación puede codificar información que representa que un bloque de croma se codifica en el modo de predicción intra incluyendo el LM como información de indicador, y el dispositivo de decodificación puede decodificar Información del modo de predicción del bloque de croma sobre la base de la información del indicador.
La información de la palabra de código recibida puede decodificarse en la información del modo de predicción intra sobre la base de una tabla de búsqueda.
Por ejemplo, en la Tabla 7, cuando la información del modo de predicción intra de un bloque de croma representa el LM, la codificación puede realizarse usando "10" como información de la palabra de código y "10", como la información de la palabra de código codificada puede recibirse como la información de la palabra de código del bloque de croma por el dispositivo de decodificación.
El dispositivo de decodificación puede determinar que el modo de predicción intra del bloque de croma que se está decodificando actualmente es el LM sobre la base de la Tabla 7, y puede decodificar el bloque de croma sobre la base de la misma.
La FIG. 7 es un diagrama conceptual que ilustra una parte de un módulo de predicción que decodifica un modo de predicción intra de un bloque de croma según una realización de la invención.
Con referencia a la FIG. 7, el módulo de predicción incluye un módulo 700 de determinación de uso del modo LM y un módulo 720 de derivación del modo de predicción intra del bloque de croma.
El módulo 700 de determinación de uso del modo LM puede determinar si el LM se usa como el modo de predicción intra de un bloque de croma de un bloque actual sobre la base de la información del indicador de uso de LM del dispositivo de codificación.
El módulo 720 de derivación del modo de predicción intra de bloque de croma puede derivar la información del modo de predicción intra mediante qué modo de predicción intra para codificar y decodificar el bloque de croma actual sobre la base de la relación de correspondencia entre las palabras de código y los modos de predicción intra de un bloque de croma.
Por ejemplo, al usar chroma_pred_flag_luma_enabled_pred_mode, que es la información del indicador como se describe en la Tabla 7, se puede determinar si el LM se usa para el modo de predicción intra del bloque de croma actual. Cuando se usa el LM y se recibe "110" como la información de la palabra de código, representa que el segundo modo de predicción intra se usa como el modo de predicción intra (intra_chroma_pred_mode) del bloque de croma actual. Es posible derivar la información del modo de predicción intra del bloque de croma actual en consideración de la información del modo de predicción intra de un bloque de luma utilizando la Tabla 7 sobre la base de la información de intra_chroma_pred_mode.
Utilizando el modo de predicción intra mencionado anteriormente, que incluye el LM, es posible expresar el uso del LM mediante el uso de la información del indicador dependiendo de la naturaleza de una imagen y realizar la predicción intra. El valor de intra_chroma_pred_mode puede derivarse utilizando diferentes tablas de correspondencia de palabras de código dependiendo de si se usa el LM. El modo de predicción intra de un bloque de croma se puede derivar usando la tabla de correspondencia de LM o la tabla de correspondencia sin LM en función de si se usa el LM dependiendo del valor derivado de intra_chroma_pred_mode. Al emplear este método, es posible reducir el número de bits que se desperdician innecesariamente y transferir solo la información necesaria del modo de predicción intra.
El método de codificación de imagen y el método de decodificación de imagen descritos anteriormente pueden ser realizados por los componentes del dispositivo de codificación de imagen y el dispositivo de decodificación de imagen descritos anteriormente con referencia a las Figs. 1 y 2.

Claims (8)

REIVINDICACIONES
1. Un método de decodificación de imagen por un aparato (200) de decodificación de imagen, comprendiendo el método:
recibir información de video que comprende información de un modo de predicción intra luma e información de un modo de predicción intra croma;
determinar un modo de predicción intra de un bloque de luma basado en la información de predicción intra de luma;
obtener un modo de predicción intra de un bloque de croma relacionado con el bloque de luma basado en la información del modo de predicción intra croma, en donde la información del modo de predicción intra croma indica uno los índices de modo de predicción intra croma, en donde el modo de predicción intra croma del bloque de croma es determinado basándose en el índice indicado de entre los índices del modo de predicción intra croma y el modo de predicción intra del bloque de luma; y generar un bloque predicho del bloque de croma basado en el modo de predicción intra obtenido del bloque de croma,
en donde la información del modo de predicción intra croma representa un código binario relacionado con uno de los índices del modo de predicción intra croma que comprende:
- un primer índice relacionado con un modo plano para el modo de predicción intra del bloque de croma, - un segundo índice relacionado con un modo vertical para el modo de predicción intra del bloque de croma, - un tercer índice relacionado con un modo horizontal para el modo de predicción intra del bloque de croma, - un cuarto índice relacionado con un modo DC para el modo de predicción intra del bloque de croma, y - un quinto índice que representa que el modo de predicción intra del bloque de croma es el mismo que el modo de predicción intra del bloque de luma, y
en donde un primer bit del código binario para la información del modo de predicción intra croma es decodificado basado en una decodificación basada en el contexto y los bits restantes del código binario son decodificados basándose en una decodificación por derivación, y
en donde el código binario para la información del modo de predicción intra croma es uno de los códigos binarios candidato que comprende un código binario para el primer índice que está representado por ‘100’, un código binario para el segundo índice que está representado por ‘101’, un código binario para el tercer índice que está representado por ‘110’, un código binario para el cuarto índice que está representado por ‘111’, y un código binario para el quinto índice que está representado por ‘0’.
2. El método de la reivindicación 1, en el que el primer bit del código binario para la información del modo de predicción intra croma es decodificado basado en la decodificación basada en el contexto cuando un modo LM para el modo de predicción intra del bloque de croma no está activado.
3. El método de la reivindicación 1, en el que cuando la información del modo de predicción intra croma representa el primer índice y el modo de predicción intra del bloque de luma es el modo plano, el modo de predicción intra del bloque de croma es un modo intra diagonal recto-ascendente,
en el que cuando la información del modo de predicción intra croma representa el primer índice y el modo de predicción intra del bloque de luma es un modo de predicción distinto del modo plano, el modo de predicción intra del bloque de croma es el modo plano,
en el que cuando la información del modo de predicción intra croma representa el segundo índice y el modo de predicción intra del bloque de luma es el modo vertical, el modo de predicción intra del bloque de croma es el modo intra diagonal recto-ascendente.
en el que cuando la información del modo de predicción intra croma representa el segundo índice y el modo de predicción intra del bloque de luma es un modo de predicción intra distinto del modo vertical, el modo de predicción intra del bloque de croma es el modo vertical,
en el que cuando la información del modo de predicción intra croma representa el tercer índice y el modo de predicción intra del bloque de luma es el modo horizontal, el modo de predicción intra del bloque de croma es el modo intra diagonal recto-ascendente,
en el que cuando la información del modo de predicción intra croma representa el tercer índice y el modo de predicción intra del bloque de luma es un modo de predicción intra distinto del modo horizontal, el modo de predicción intra del bloque de croma es el modo horizontal,
en el que cuando la información del modo de predicción intra croma representa el cuarto índice y el mo de predicción intra del bloque de luma es el modo DC, el modo de predicción intra del bloque de croma es el modo intra diagonal recto-ascendente, y
en el que cuando la información del modo de predicción intra croma representa el cuarto índice y el mo de predicción intra del bloque de luma es un modo de predicción intra distinto del modo DC, el modo de predicción intra del bloque de croma es el modo DC.
4. Un aparato (200) de decodificación de imagen, que comprende medios configurados para llevar a cabo el método de cualquiera de las reivindicaciones 1 a 3.
5. Un método de codificación de imagen por un aparato (100) de codificación de imagen, comprendiendo el método:
derivar un modo de predicción de intra de un bloque de luma y un modo de predicción intra de un bloque de croma, en el que el bloque de croma está relacionado con el bloque de luma;
derivar una información del modo de predicción intra croma para indicar uno de los modos de predicción intra croma, en el que el modo de predicción intra del bloque de croma es determinado basándose en el modo indicado de entre el modo de predicción intra croma y el modo de predicción intra del bloque de luma; y
codificar información de imagen que comprende la información del modo de predicción intra croma,
en el que la información del modo de predicción intra croma representa un código binario relacionado con uno de los índices del modo de predicción intra croma que comprende:
- un primer índice relacionado con un modo plano para el modo de predicción intra del bloque de croma,
- un segundo índice relacionado con un modo vertical para el modo de predicción intra del bloque de croma,
- un tercer índice relacionado con un modo horizontal para el modo de predicción intra del bloque de croma,
- un cuarto índice relacionado con un modo DC para el modo de predicción intra del bloque de croma, y
- un quinto índice que representa que el modo de predicción intra del bloque de croma es el mismo que el modo de predicción intra del bloque de luma, y
en el que el primer bit del código binario para la información del modo de predicción intra croma es codificado basándose en una codificación basada en el contexto y los bits restantes del código binario son codificados basándose en una codificación por derivación, y
en el que el código binario para la información del modo de predicción intra croma es uno de los códigos binarios candidato que comprende un código binario para el primer índice que está representado por ‘100’, un código binario para el segundo índice que está representado por ‘101’, un código binario para el tercer índice que está representado por ‘110’, un código binario para el cuarto índice que está representado por ‘111’, y un código binario para el quinto índice que está representado por ‘0’.
6. El método de la reivindicación 5, en el que el primer bit del código binario para la información del modo de predicción intra croma es decodificado basándose en una decodificación basada en el contexto cuando un modo de modelo lineal, LM, para el modo de predicción intra del bloque de croma no está activado, y
en el que el modo LM es un método de predicción intra para generar el bloque predicho del bloque de croma basándose en muestras reconstruidas interpoladas linealmente del bloque de luma.
7. Un aparato (100) de codificación de imágenes, que comprende medios configurados para llevar a cabo el método de cualquiera de las reivindicaciones 5 a 6.
8. Un medio de almacenamiento legible por decodificador que almacena la información de imagen codificada generada por el método de codificación de imagen de cualquiera de las reivindicaciones 5 a 6.
ES12755168T 2011-03-06 2012-03-06 Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo Active ES2793489T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161449698P 2011-03-06 2011-03-06
US201161454586P 2011-03-21 2011-03-21
US201261589308P 2012-01-21 2012-01-21
PCT/KR2012/001637 WO2012121535A2 (ko) 2011-03-06 2012-03-06 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치

Publications (1)

Publication Number Publication Date
ES2793489T3 true ES2793489T3 (es) 2020-11-16

Family

ID=46798645

Family Applications (2)

Application Number Title Priority Date Filing Date
ES12755168T Active ES2793489T3 (es) 2011-03-06 2012-03-06 Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo
ES20170861T Active ES2933424T3 (es) 2011-03-06 2012-03-06 Método de predicción intra para bloques de crominancia

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES20170861T Active ES2933424T3 (es) 2011-03-06 2012-03-06 Método de predicción intra para bloques de crominancia

Country Status (12)

Country Link
US (11) US9530224B2 (es)
EP (3) EP4145831A1 (es)
KR (13) KR102064154B1 (es)
CN (6) CN108449598B (es)
DK (1) DK2685724T3 (es)
ES (2) ES2793489T3 (es)
HR (1) HRP20221483T1 (es)
HU (2) HUE060582T2 (es)
PL (2) PL3703368T3 (es)
PT (1) PT2685724T (es)
SI (1) SI3703368T1 (es)
WO (1) WO2012121535A2 (es)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120086232A (ko) * 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
JP2014500692A (ja) * 2010-12-23 2014-01-09 サムスン エレクトロニクス カンパニー リミテッド 映像予測単位についてのイントラ予測モード符号化方法及び装置、並びに映像予測単位についてのイントラ予測モード復号化方法及び装置
CN108449598B (zh) 2011-03-06 2021-01-08 Lg 电子株式会社 使用亮度采样的色度块的内部预测方法以及使用其的装置
US10123008B2 (en) 2011-06-17 2018-11-06 Hfi Innovation Inc. Method and apparatus for coding of intra prediction mode
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
JP2014534746A (ja) * 2011-11-07 2014-12-18 インテル コーポレイション クロスチャネル残差予測
CN103220508B (zh) 2012-01-20 2014-06-11 华为技术有限公司 编解码方法和装置
US9350899B2 (en) * 2012-09-14 2016-05-24 Qualcomm Incorporated Methods and device for efficient resampling and resizing of digital images
KR102209067B1 (ko) * 2013-04-05 2021-01-28 삼성전자주식회사 필터링과 관련하여 비디오의 부호화 및 복호화를 수행하는 방법과 그 장치
KR101530774B1 (ko) * 2013-09-30 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
KR101530782B1 (ko) * 2013-12-03 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
CN109121465B (zh) * 2016-05-06 2023-06-06 交互数字麦迪逊专利控股公司 用于运动补偿残差预测的系统和方法
CN113873240A (zh) * 2016-06-24 2021-12-31 株式会社Kt 用于处理视频信号的方法和设备
KR20180135075A (ko) * 2016-07-14 2018-12-19 삼성전자주식회사 크로마 인트라 예측 방법 및 그 장치
WO2018051811A1 (ja) * 2016-09-16 2018-03-22 ソニー株式会社 画像処理装置および画像処理方法
WO2018066849A1 (ko) * 2016-10-04 2018-04-12 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018070713A1 (ko) * 2016-10-11 2018-04-19 엘지전자(주) 크로마 성분에 대한 인트라 예측 모드를 유도하는 방법 및 장치
WO2018131838A1 (ko) * 2017-01-11 2018-07-19 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2018236028A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019112071A1 (ko) * 2017-12-04 2019-06-13 엘지전자 주식회사 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
US11310517B2 (en) 2017-12-07 2022-04-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding using selective information sharing between channels
WO2019139393A1 (ko) * 2018-01-15 2019-07-18 김기백 색차 성분에 관한 화면내 예측 부호화/복호화 방법 및 장치
WO2019198997A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2019203487A1 (ko) * 2018-04-19 2019-10-24 엘지전자 주식회사 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2019221465A1 (ko) * 2018-05-14 2019-11-21 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
KR101956756B1 (ko) 2018-06-12 2019-03-11 광운대학교 산학협력단 성분 간 참조 기반의 비디오 신호 처리 방법 및 장치
EP3843391A4 (en) * 2018-08-24 2022-06-01 Samsung Electronics Co., Ltd. VIDEO DECODING METHOD AND APPARATUS, AND VIDEO CODING METHOD AND APPARATUS
WO2020050607A1 (ko) * 2018-09-05 2020-03-12 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
WO2020116848A1 (ko) * 2018-12-05 2020-06-11 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
WO2020139008A1 (ko) * 2018-12-28 2020-07-02 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
JP7309884B2 (ja) * 2019-01-02 2023-07-18 オッポ広東移動通信有限公司 クロマイントラ予測方法および装置、並びにコンピュータ記憶媒体
EP3893506A4 (en) 2019-01-02 2022-01-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD FOR DETERMINING A PREDICTION METHOD, DECODER AND COMPUTER STORAGE MEDIUM
CN111225212B (zh) * 2019-01-18 2022-03-25 北京达佳互联信息技术有限公司 一种确定视频块的色度信息的方法及装置
JP7399973B2 (ja) * 2019-02-19 2023-12-18 ヒューマックス・カンパニー・リミテッド イントラ予測ベースのビデオ信号処理方法及び装置
EP3941046A4 (en) 2019-03-14 2022-12-21 LG Electronics Inc. IMAGE CODING/DECODING METHOD AND APPARATUS FOR PERFORMING INTRA PREDICTION, AND BITSTREAM TRANSMISSION METHOD
JP7395625B2 (ja) 2019-06-19 2023-12-11 エルジー エレクトロニクス インコーポレイティド クロマブロックの分割条件を制限する画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
WO2021027925A1 (en) * 2019-08-14 2021-02-18 Beijing Bytedance Network Technology Co., Ltd. Position-dependent intra prediction sample filtering
CN114651441B (zh) * 2019-09-19 2023-12-19 Lg电子株式会社 使用参考样本滤波的图像编码/解码方法和装置及发送比特流的方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3201448B2 (ja) * 1994-03-31 2001-08-20 三菱電機株式会社 符号化復号化装置,符号化装置,および復号化装置
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN101631247B (zh) 2002-04-18 2011-07-27 株式会社东芝 运动图像编码/解码方法和装置
US7688895B2 (en) * 2003-07-22 2010-03-30 Lsi Corporation Method and/or circuit for binary arithmetic decoding decisions before termination
US7599435B2 (en) * 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
CN100461867C (zh) * 2004-12-02 2009-02-11 中国科学院计算技术研究所 一种帧内图像预测编码方法
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
WO2007027008A1 (en) * 2005-07-15 2007-03-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image
KR100727991B1 (ko) 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR20070077609A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
KR101700966B1 (ko) * 2008-01-10 2017-01-31 톰슨 라이센싱 인트라 예측 비디오의 조명 보상 방법 및 장치
KR101291196B1 (ko) * 2008-01-25 2013-07-31 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
KR20090097688A (ko) * 2008-03-12 2009-09-16 삼성전자주식회사 영상의 인트라 예측 부호화/복호화 방법 및 장치
BRPI0916944B1 (pt) 2008-08-19 2020-07-21 Contentarmor Método e aparelho para inserir marca dágua em vídeo codificado
KR101601840B1 (ko) * 2009-02-23 2016-03-22 에스케이 텔레콤주식회사 채널 상관 관계를 이용한 영상 부호화/복호화 장치 및 방법과 그를 위한 컴퓨터로 읽을 수 있는 기록매체
WO2011088594A1 (en) * 2010-01-25 2011-07-28 Thomson Licensing Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane
KR20120129944A (ko) * 2010-02-10 2012-11-28 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR101503269B1 (ko) * 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
CN103141103B (zh) * 2010-04-09 2016-02-03 Lg电子株式会社 处理视频数据的方法和装置
WO2011130051A1 (en) * 2010-04-12 2011-10-20 Sony Corporation Context adaptive directional intra prediction
US9661337B2 (en) * 2010-10-01 2017-05-23 Samsung Electronics Co., Ltd. Image intra prediction method and apparatus
BR112013014371B8 (pt) * 2011-01-07 2022-05-24 Hfi Innovation Inc Método e aparelho de codificação aperfeiçoada de modo de predição intra crominância
US20120183064A1 (en) * 2011-01-14 2012-07-19 Sony Corporation Codeword assignment for intra chroma mode signaling for hevc
CN108449598B (zh) 2011-03-06 2021-01-08 Lg 电子株式会社 使用亮度采样的色度块的内部预测方法以及使用其的装置
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US10123008B2 (en) * 2011-06-17 2018-11-06 Hfi Innovation Inc. Method and apparatus for coding of intra prediction mode
RU2714371C2 (ru) * 2011-07-11 2020-02-14 Сан Пэтент Траст Способ декодирования изображений, способ кодирования изображений, устройство декодирования изображений, устройство кодирования изображений и устройство кодирования и декодирования изображений
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
WO2013109066A1 (ko) * 2012-01-20 2013-07-25 주식회사 팬택 화면 내 예측 모드 매핑 방법 및 이러한 방법을 사용하는 장치

Also Published As

Publication number Publication date
KR102113267B1 (ko) 2020-05-20
KR20170020539A (ko) 2017-02-22
KR20210100217A (ko) 2021-08-13
KR102213112B1 (ko) 2021-02-05
KR102403793B1 (ko) 2022-05-30
CN108540811A (zh) 2018-09-14
US11765385B2 (en) 2023-09-19
CN103416066A (zh) 2013-11-27
KR20190020855A (ko) 2019-03-04
HUE060582T2 (hu) 2023-03-28
US11350126B2 (en) 2022-05-31
KR20200056484A (ko) 2020-05-22
CN108449604A (zh) 2018-08-24
US11184640B2 (en) 2021-11-23
WO2012121535A2 (ko) 2012-09-13
PT2685724T (pt) 2020-06-01
US20180310024A1 (en) 2018-10-25
US20190327489A1 (en) 2019-10-24
US20170105025A1 (en) 2017-04-13
WO2012121535A3 (ko) 2012-12-20
KR102064154B1 (ko) 2020-01-09
KR20220073868A (ko) 2022-06-03
PL3703368T3 (pl) 2023-02-27
KR102064157B1 (ko) 2020-01-09
US10623768B2 (en) 2020-04-14
KR101953383B1 (ko) 2019-03-04
KR20180033302A (ko) 2018-04-02
CN108449598A (zh) 2018-08-24
KR20140007073A (ko) 2014-01-16
US10009631B2 (en) 2018-06-26
US9800894B2 (en) 2017-10-24
US10798415B2 (en) 2020-10-06
CN108540810B (zh) 2021-01-08
KR20170120188A (ko) 2017-10-30
KR20230086804A (ko) 2023-06-15
US20210218992A1 (en) 2021-07-15
US10972750B2 (en) 2021-04-06
US20220272379A1 (en) 2022-08-25
EP4145831A1 (en) 2023-03-08
ES2933424T3 (es) 2023-02-08
EP2685724A2 (en) 2014-01-15
CN108449604B (zh) 2021-01-08
KR101953384B1 (ko) 2019-03-04
EP2685724B1 (en) 2020-04-29
KR102653005B1 (ko) 2024-03-29
US20200236399A1 (en) 2020-07-23
US20230276071A1 (en) 2023-08-31
KR101707088B1 (ko) 2017-02-15
CN108259920B (zh) 2021-01-08
CN103416066B (zh) 2018-04-24
SI3703368T1 (sl) 2023-01-31
KR20180033303A (ko) 2018-04-02
CN108540810A (zh) 2018-09-14
CN108449598B (zh) 2021-01-08
US20180048911A1 (en) 2018-02-15
KR102288526B1 (ko) 2021-08-10
US20220038742A1 (en) 2022-02-03
KR101842037B1 (ko) 2018-03-27
EP3703368A1 (en) 2020-09-02
HUE048963T2 (hu) 2020-09-28
HRP20221483T1 (hr) 2023-02-03
DK2685724T3 (da) 2020-05-18
EP3703368B1 (en) 2022-11-02
KR101789478B1 (ko) 2017-10-24
PL2685724T3 (pl) 2020-07-27
EP2685724A4 (en) 2014-10-22
CN108259920A (zh) 2018-07-06
US20200396484A1 (en) 2020-12-17
US9530224B2 (en) 2016-12-27
KR20200004467A (ko) 2020-01-13
KR20190020856A (ko) 2019-03-04
KR102540995B1 (ko) 2023-06-08
CN108540811B (zh) 2020-12-04
US20130336591A1 (en) 2013-12-19
US11677977B2 (en) 2023-06-13
KR20210014772A (ko) 2021-02-09

Similar Documents

Publication Publication Date Title
ES2793489T3 (es) Método de predicción intra de bloque de crominancia utilizando una muestra de luminancia y aparato que utiliza el mismo
ES2800551B2 (es) Método y aparato para tratar una señal de vídeo
JP7094425B2 (ja) 復号化方法及び符号化方法
ES2692864B1 (es) Metodo y aparato para procesar senales de video
US20210067780A1 (en) Method and device for deriving a prediction sample in decoding/encoding video signal using binary and quad trees
ES2948265T3 (es) Método de codificación/descodificación de señales de imagen y aparato para el mismo
ES2710234B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2702950T3 (es) Transformación inversa de color-espacio para vídeo codificado con pérdidas y sin pérdidas
ES2934221T3 (es) Método de intrapredicción y aparato que utiliza el método
ES2699749B2 (es) Método y aparato para procesar una señal de vídeo
CN109661819A (zh) 用于处理视频信号的方法和设备
CN109644281A (zh) 用于处理视频信号的方法和设备
ES2743398T3 (es) Método de descodificación de vídeo y aparato de descodificación de vídeo
CN114342373A (zh) 带有协调运动场存储和运动补偿的几何分割模式
BR112014009449B1 (pt) Método para decodificar um sinal de vídeo
CN111602395B (zh) 用于视频译码的量化组
CN109691112A (zh) 用于处理视频信号的方法和设备
EP3850838A1 (en) Vector predictor list generation
JP2022513857A (ja) 現在ピクチャ参照を用いたビデオ信号処理方法及び装置
KR20220097554A (ko) 비디오 코딩에서 마지막 포지션 코딩의 좌표들에 대한 컨텍스트 도출 및 엔트로피 코딩 초기화 파라미터들
KR20240021173A (ko) 비디오 코딩에서의 기하학적 파티셔닝 모드에 대한 모션 벡터 후보 구축