ES2934221T3 - Método de intrapredicción y aparato que utiliza el método - Google Patents

Método de intrapredicción y aparato que utiliza el método Download PDF

Info

Publication number
ES2934221T3
ES2934221T3 ES11850923T ES11850923T ES2934221T3 ES 2934221 T3 ES2934221 T3 ES 2934221T3 ES 11850923 T ES11850923 T ES 11850923T ES 11850923 T ES11850923 T ES 11850923T ES 2934221 T3 ES2934221 T3 ES 2934221T3
Authority
ES
Spain
Prior art keywords
pixel
reference pixel
current block
prediction
order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11850923T
Other languages
English (en)
Inventor
Yong Joon Jeon
Seung Wook Park
Jae Hyun Lim
Jung Sun Kim
Joon Young Park
Young Hee Choi
Jae Won Sung
Byeong Moon Jeon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2934221T3 publication Critical patent/ES2934221T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Se describen un método de intrapredicción y un aparato que usa el método. El método de predicción intra comprende los siguientes pasos: establecer un píxel inferior derecho como un valor de predicción de DC; interpolar el píxel inferior derecho y un píxel de referencia n superior para calcular un valor de predicción de n filas, e interpolar el píxel inferior derecho y un píxel de referencia n izquierdo para calcular un valor de predicción de n columnas; y realizar interpolación lineal bidireccional para calcular valores de predicción de píxeles contenidos en unidades de predicción excluyendo una n-columna y una n-fila. De acuerdo con la presente invención, se usa un método de predicción intra mejorado para generar un bloque de predicción cerca del valor de un bloque original mejorando así la eficiencia de codificación/descodificación durante la realización del método de predicción intra. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método de intrapredicción y aparato que utiliza el método
Campo técnico
La presente invención se refiere a un método intra y a un dispositivo que utiliza el método de intrapredicción y, más en particular, a un método de codificación y un dispositivo de codificación.
Antecedentes de la técnica
Recientemente, la demanda de una imagen de alta resolución y alta calidad, tal como una imagen de HD (alta definición) y una imagen de UHD (ultra alta definición), ha aumentado en varios campos de aplicaciones. Como los datos de imagen tienen una resolución más alta y una calidad más alta, una cantidad de datos aumenta más en relación con los datos de imagen existentes. En consecuencia, cuando los datos de imagen se transfieren usando medios tales como líneas de banda ancha cableadas e inalámbricas existentes o se almacenan en medios de almacenamiento existentes, el coste de transferencia y el coste de almacenamiento aumentan. Con el fin de resolver estos problemas que ocurren con un aumento en la resolución y calidad de los datos de imagen, se pueden utilizar técnicas de compresión de imágenes de alta eficiencia.
Las técnicas de compresión de imágenes incluyen varias técnicas, tales como una técnica de interpredicción para predecir valores de píxeles incluidos en una imagen actual a partir de imágenes anteriores o posteriores de la imagen actual, una técnica de intrapredicción para predecir valores de píxeles incluidos en una imagen actual utilizando información de píxeles en la imagen actual, y una técnica de codificación de entropía de asignar un código corto a un valor con una frecuencia de aparición alta y asignar un código largo a un valor con una frecuencia de aparición baja. Los datos de imagen se pueden comprimir y transferir o almacenar de manera efectiva usando tales técnicas de compresión de imágenes.
"Video coding technology proposal by Tandberg, Nokia and Ericsson" (UGUR K ET AL, 24 de abril de 2010) se refiere a un modo intraplanar, según el cual, los valores de píxel predichos se calculan mediante interpolación bilineal entre la fila superior (TR), fila inferior (BR), columna izquierda (LC) y columna derecha (RC) de píxeles en el macrobloque.
"Description of video coding technology proposal by Tandberg, Nokia and Ericsson" (UGUR ET AL, 12 de abril de 2010) se refiere a un modo intraplanar, según el cual, se utilizan dos píxeles vecinos y dos píxeles internos para generar un píxel predicho. También se describe un método similar en "Intra Picture Coding with Planar Representations" (JANI LAINEMA ET AL, 8 de diciembre de 2010) y "Suggestion for a Test Model" (DAVIES T ET AL, 7 de mayo de 2010).
"Spatial prediction based intra-coding" (ZHANG NAN ET AL, 27 de junio de 2004) se refiere a un algoritmo de intrapredicción que comprende un primer paso de aplicación de dirección a los resultados de la predicción de DC y un segundo paso de uso de modos simplificados para reducir la complejidad de cálculo.
Compendio de la invención
Problema técnico
Un objeto de la invención es proporcionar un método de intrapredicción que puede mejorar la eficacia de codificación y decodificación de imágenes.
Otro objeto de la invención es proporcionar un dispositivo que realice un método de intrapredicción que pueda mejorar la eficacia de codificación y decodificación de imágenes.
Solución técnica
La presente invención se define en las reivindicaciones independientes. Realizaciones particulares resultan de las respectivas reivindicaciones dependientes. Los ejemplos adicionales denominados "realizaciones" en la descripción son ejemplos ilustrativos.
Descripción de los dibujos
La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes según una realización de la invención.
La FIG. 2 es un diagrama de bloques que ilustra un dispositivo de decodificación de imágenes según otra realización de la invención.
La FIG. 3 es un diagrama que ilustra una unidad de predicción y píxeles de referencia según la realización de la invención.
La FIG. 4 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según la realización de la invención.
LA FIG. 5 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según la realización de la invención.
La FIG. 6 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según la realización de la invención.
La FIG. 7 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
La FIG. 8 es un diagrama conceptual que ilustra un método de intrapredicción vertical según una realización de la invención.
La FIG. 9 es un diagrama conceptual que ilustra un método de intrapredicción horizontal según una realización de la invención.
La FIG. 10 es un diagrama conceptual que ilustra un método de derivar una unidad de predicción usando un modo planar avanzado según una realización de la invención.
La FIG. 11 es un diagrama conceptual que ilustra un método de derivar un píxel inferior derecho en el método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
La FIG. 12 es un diagrama conceptual que ilustra un método de derivar un píxel inferior derecho en el método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
La FIG. 13 es un diagrama conceptual que ilustra un método de derivar un píxel inferior derecho en el método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
La FIG. 14 es un diagrama conceptual que ilustra un método de generar un píxel inferior derecho en el método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
La FIG. 15 es un diagrama conceptual que ilustra un método de generar una fila de orden n y una columna de orden n en el momento de realizar el modo planar según una realización de la invención.
La FIG. 16 es un diagrama conceptual que ilustra un método de generar la fila de orden n y la columna de orden n en el momento de realizar un modo planar avanzado según una realización de la invención.
La FIG. 17 es un diagrama conceptual que ilustra un método de predicción que usa un modo planar avanzado según una realización de la invención.
La FIG. 18 es un diagrama conceptual que ilustra un método de predicción que usa el modo planar según una realización de la invención.
La FIG. 19 es un diagrama conceptual que ilustra un método de predicción que usa un modo de DC avanzado según una realización de la invención.
La FIG. 20 es un diagrama conceptual que ilustra un método de predicción que usa un modo de DC avanzado según una realización de la invención.
La FIG. 21 es un diagrama conceptual que ilustra un método de predicción que usa un modo de DC avanzado según una realización de la invención.
La FIG. 22 es un diagrama conceptual que ilustra un método de predicción que usa un modo de DC avanzado según una realización de la invención.
La FIG. 23 es un diagrama conceptual que ilustra un método de predicción que usa un modo de DC avanzado según una realización de la invención.
La FIG. 24 es un diagrama conceptual que ilustra un método de predicción que usa un modo de DC avanzado según una realización de la invención.
La FIG. 25 es un diagrama conceptual que ilustra un método de predicción que utiliza un modo planar avanzado según una realización de la invención.
La FIG. 26 es un diagrama conceptual que ilustra un método de realizar un modo planar cuando el píxel de referencia izquierdo de orden 2n o el píxel de referencia superior de orden 2n no están presentes en la realización de la invención.
Modo para la invención
La presente invención se puede modificar diversamente de varias formas, y en los dibujos se describirán y mostrarán realizaciones específicas de la misma.
En la descripción con referencia a los dibujos, se hace referencia a constituyentes similares mediante números de referencia similares.
Términos tales como "primero" y "segundo" se pueden usar para describir varios elementos, pero los elementos no se limitan a los términos. Los términos se usan solo para distinguir un elemento de otro elemento. Por ejemplo, sin apartarse del alcance de la invención, un primer elemento se puede denominar segundo elemento y el segundo elemento puede denominarse primer elemento de manera similar. El término "y/o" incluye una combinación de elementos plurales o cualquiera de los elementos plurales.
Si se menciona que un elemento está "conectado a" o "acoplado a" otro elemento, se debería entender que aún se puede interponer otro elemento entre ellos, así como que el elemento se puede conectar o acoplar directamente a otro elemento. Por el contrario, si se menciona que un elemento está "conectado directamente a" o "acoplado directamente a" otro elemento, se debería entender que todavía no está interpuesto otro elemento entre ellos.
Los términos utilizados en la siguiente descripción se utilizan meramente para describir realizaciones específicas, pero no se pretende que limiten la invención. Una expresión del número singular incluye una expresión del número plural, siempre que se lea claramente de manera diferente. Los términos tales como "incluyen" y "tienen" pretenden indicar que existen características, números, pasos, operaciones, elementos, componentes o combinaciones de los mismos utilizados en la siguiente descripción y, por tanto, se debería entender que la posibilidad de existencia o adición de una o más características, números, pasos, operaciones, elementos, componentes o combinaciones de los mismos no está excluida.
De aquí en adelante, se describirán en detalle realizaciones ejemplares de la invención con referencia a los dibujos adjuntos. Los constituyentes similares en los dibujos serán referenciados por números de referencia similares y no se describirán repetidamente.
La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes según una realización de la invención.
Haciendo referencia a la fig. 1, un dispositivo de codificación de imágenes 100 incluye un módulo de división de imágenes 105, un módulo de predicción 110, un módulo de transformación 115, un módulo de cuantificación 120, un módulo de reordenamiento 125, un módulo de codificación de entropía 130, un módulo de cuantificación inversa 135, un módulo de transformación inversa 140, un módulo de filtro 145 y una memoria 150.
Los módulos constituyentes mostrados en la FIG. 1 se muestran de manera independiente para representar diferentes funciones distintivas en el dispositivo de codificación de imágenes. Cada módulo constituyente no está construido por un módulo de hardware o unidad de software independiente. Es decir, los módulos constituyentes están dispuestos de manera independiente y al menos dos módulos constituyentes se pueden combinar en un único módulo constituyente o un único módulo constituyente se puede dividir en una pluralidad de módulos constituyentes para realizar funciones. Las realizaciones en las que se combinan los módulos constituyentes y las realizaciones en las que se separan los módulos constituyentes pertenecen al alcance de la invención sin apartarse del concepto de la invención.
Algunos constituyentes no son esenciales para las funciones sustanciales de la invención y pueden ser constituyentes opcionales meramente para mejorar el rendimiento. La invención se puede realizar para incluir solo los constituyentes esenciales para la realización de la invención, excepto los constituyentes utilizados meramente para mejorar el rendimiento. La estructura que incluye solo los constituyentes esenciales excepto los constituyentes ópticos utilizados meramente para mejorar el rendimiento pertenece al alcance de la invención.
El módulo de división de imágenes 105 puede dividir una imagen de entrada en al menos una unidad de proceso. Aquí, la unidad de proceso puede ser una unidad de predicción (PU), una unidad de transformación (TU) o una unidad de codificación (CU). El módulo de división de imágenes 105 puede dividir una imagen en combinaciones de unidades de codificación, unidades de predicción y unidades de transformación plurales y puede seleccionar una combinación de unidades de codificación, unidades de predicción y unidades de transformación sobre la base de un criterio predeterminado (por ejemplo, una función de coste) para codificar la imagen.
Por ejemplo, una imagen se puede dividir en unidades de codificación plurales. Se puede utilizar una estructura de árbol recursiva, tal como una estructura de árbol cuádruple, para dividir una imagen en unidades de codificación. Una unidad de codificación que se divide en diferentes unidades de codificación con una imagen o una unidad de codificación del tamaño más grande como raíz se puede dividir con nodos secundarios correspondientes al número de unidades de codificación divididas. Una unidad de codificación que ya no se puede dividir de acuerdo con una limitación predeterminada es un nodo hoja. Es decir, cuando se supone que una unidad de codificación se puede dividir solo en forma cuadrada, una única unidad de codificación se puede dividir en cuatro unidades de codificación diferentes.
En las realizaciones de la invención, una unidad de codificación se puede utilizar para tener el significado de una unidad a ser decodificada así como una unidad a ser codificada.
Una unidad de predicción se puede dividir en al menos una forma cuadrada o rectangular con el mismo tamaño en una unidad de codificación, o se puede dividir en formas de manera que la forma de una unidad de predicción de las unidades de predicción divididas en una unidad de codificación sea diferente de la forma de otra unidad de predicción.
Cuando una unidad de codificación, que se utiliza para generar una unidad de predicción a ser sometida a intrapredicción, no es una unidad de codificación mínima, la unidad de codificación se puede someter a intrapredicción sin ser dividida en varias unidades de predicción (NxN).
El módulo de predicción 110 incluye un módulo de interpredicción que realiza la interpredicción y un módulo de intrapredicción que realiza la intrapredicción. El módulo de predicción puede determinar cuál de interpredicción o intrapredicción se debería realizar en una unidad de predicción, y puede determinar información específica (por ejemplo, modo de intrapredicción, vector de movimiento e imagen de referencia) del método de predicción determinado. En este momento, la unidad de proceso en la que se realiza la predicción puede ser diferente de la unidad de proceso para la que se determinan el método de predicción y la información específica. Por ejemplo, el método de predicción y el modo de predicción se pueden determinar para cada unidad de predicción y la predicción se puede realizar para cada unidad de transformación. Los valores residuales (bloque residual) entre el bloque predicho generado y el bloque original se introducen en el módulo de transformación 115. La información del modo de predicción, la información del vector de movimiento y similares utilizadas para la predicción se codifican junto con los valores residuales por el módulo de codificación de entropía 130 y se transmiten al dispositivo de decodificación. Cuando se usa un modo de codificación específico, el bloque original se puede codificar y transmitir al dispositivo de decodificación sin generar un bloque predicho a través del uso del módulo de predicción 110.
El módulo de interpredicción puede predecir una unidad de predicción sobre la base de la información de al menos una imagen de una imagen anterior y una imagen posterior de una imagen actual. El módulo de interpredicción incluye un módulo de interpolación de imágenes de referencia, un módulo de predicción de movimiento y un módulo de compensación de movimiento.
El módulo de interpolación de imágenes de referencia recibe información de imágenes de referencia de la memoria 150 y genera información de píxeles inferior a un píxel entero de la imagen de referencia. En el caso de píxeles de luminancia, se puede utilizar un filtro de interpolación de 8 derivaciones basado en DCT que tiene diferentes coeficientes de filtro para generar la información de píxeles inferior a un píxel entero en la unidad de 1/4 de píxel. En el caso de los píxeles de crominancia, se pueden usar filtros de interpolación de 4 derivaciones basados en DCT que tienen diferentes coeficientes de filtro para generar la información de píxeles inferior a un píxel entero en la unidad de 1/8 de píxel.
El módulo de predicción de movimiento puede realizar la predicción de movimiento sobre la base de la imagen de referencia interpolada por el módulo de interpolación de imágenes de referencia. Se pueden utilizar varios métodos tales como FBMA (Algoritmo de Coincidencia de Bloques basado en Búsqueda Completa), TSS (Búsqueda en Tres Pasos) y NTS (Nuevo Algoritmo de Búsqueda en Tres Pasos) para derivar un vector de movimiento. Un vector de movimiento tiene un valor de vector de movimiento en la unidad de 1/2 o 1/4 píxel sobre la base del píxel interpolado. El módulo de predicción de movimiento puede predecir una unidad de predicción actual utilizando diferentes métodos de predicción de movimiento. Como el método de predicción de movimiento, se pueden utilizar varios métodos, tales como un método de salto, un método de fusión y un método AMVP (Predicción de Vector de Movimiento Avanzada).
A continuación se describirá un método para construir una lista de candidatos de vectores de movimiento predichos en el momento de realizar la interpredicción usando el método de AMVP según una realización de la invención.
El módulo de interpredicción puede generar una unidad de predicción sobre la base de información de píxel de referencia alrededor de un bloque actual que es información de píxeles en la imagen actual. Cuando los bloques alrededor de la unidad de predicción actual son bloques que se han sometido a la interpredicción y un píxel de referencia es un píxel que se ha sometido a la interpredicción, los píxeles de referencia del bloque que se ha sometido a la interpredicción se pueden reemplazar con la información de píxel de referencia de los bloques periféricos que han sido sometidos a la intrapredicción. Es decir, cuando un píxel de referencia no está disponible, la información de píxel de referencia no disponible se puede reemplazar con al menos un píxel de referencia de los píxeles de referencia disponibles.
El modo de predicción de intrapredicción incluye un modo de predicción directiva en el que se usa información de píxel de referencia dependiendo de la dirección de predicción y un modo de predicción no directiva en el que no se usa información de directividad para realizar la predicción. El modo para predecir la información de luminancia y el modo para predecir la información de crominancia pueden ser diferentes uno de otro. La información del modo de intrapredicción obtenida por información de luminancia o información de señal de luminancia predicha se puede usar para predecir la información de crominancia.
Cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son iguales entre sí en el momento de realizar la intrapredicción, la intrapredicción de la unidad de predicción se puede realizar sobre la base de los píxeles ubicados en el lado izquierdo de la unidad de predicción, un píxel ubicado en el extremo superior izquierdo y píxeles ubicados en la parte superior. Por otro lado, cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son diferentes uno de otro en el momento de realizar la intrapredicción, la intrapredicción se puede realizar utilizando píxeles de referencia basados en la unidad de transformación. Se puede realizar una intrapredicción utilizando la división N x N para solo la unidad de codificación mínima.
En el método de intrapredicción, se aplica un filtro de MDIS (Intraalisamiento Dependiente del Modo) a los píxeles de referencia dependiendo del modo de predicción y luego se puede generar un bloque predicho. El tipo de filtro de MDIS aplicado a los píxeles de referencia puede variar. En el método de intrapredicción, el modo de intrapredicción de una unidad de predicción actual se puede predecir a partir del modo de intrapredicción de una unidad de predicción situada alrededor de la unidad de predicción actual. Cuando el modo de predicción de la unidad de predicción actual se predice usando la información de modo predicha desde las unidades de predicción periféricas y los modos de intrapredicción de la unidad de predicción actual y las unidades de predicción periféricas son iguales entre sí, la información representa que los modos de predicción de la unidad de predicción actual y las unidades de predicción periféricas son iguales entre sí se pueden transmitir utilizando información de bandera predeterminada. Cuando los modos de predicción de la unidad de predicción actual y las unidades de predicción periféricas son diferentes unas de otras, la información del modo de predicción del bloque actual se puede codificar realizando una codificación de entropía.
Un bloque residual que incluye información residual que es una diferencia entre una unidad de predicción sometida a la predicción y el bloque original de la unidad de predicción se puede generar sobre la base de la unidad de predicción generada por el módulo de predicción 110. El bloque residual generado se puede introducir al módulo de transformación 115. El módulo de transformación 115 puede transformar el bloque original y el bloque residual incluyendo la información residual de la unidad de predicción generada por el módulo de predicción 110 utilizando un método de transformación tal como DCT (Transformada de Coseno Discreta) o DST (Transformada de Seno Discreta). Cuál de la DCT y la DST usar para transformar el bloque residual se puede determinar sobre la base de la información del modo de intrapredicción de la unidad de predicción usada para generar el bloque residual.
El módulo de cuantificación 120 puede cuantificar los valores transformados en el dominio de la frecuencia por el módulo de transformación 115. Los coeficientes de cuantificación se pueden cambiar dependiendo del bloque o el grado de importancia de una imagen. Los valores calculados por el módulo de cuantificación 120 se pueden suministrar al módulo de cuantificación inversa 135 y al módulo de reordenamiento 125.
El módulo de reordenamiento 125 puede reorganizar los valores de los coeficientes con relación a los valores residuales cuantificados.
El módulo de reordenamiento 125 puede cambiar coeficientes de tipo bloque bidimensional a coeficientes de tipo vector unidimensional a través del uso de un método de escaneo de coeficientes. Por ejemplo, el módulo de reordenamiento 125 puede escanear coeficientes de DC a coeficientes del dominio de alta frecuencia usando un método de escaneo en zig-zag y puede cambiar los coeficientes escaneados a coeficientes de tipo vector unidimensional. Se puede utilizar un método de escaneo vertical de escaneo de coeficientes de tipo bloque bidimensional en la dirección de la columna y un método de escaneo horizontal de escaneo de coeficientes de tipo bloque bidimensional en la dirección de la fila en lugar del método de escaneo en zig-zag dependiendo del tamaño de una unidad de transformación y el modo de intrapredicción. Es decir, cuál del método de escaneo en zig-zag, el método de escaneo vertical y el método de escaneo horizontal utilizar se puede determinar dependiendo del tamaño de una unidad de transformación y el modo de intrapredicción.
El módulo de codificación de entropía 130 puede realizar la codificación de entropía sobre la base de los valores calculados por el módulo de reordenamiento 125. Se pueden utilizar varios métodos de codificación, tales como la codificación de golomb exponencial, VLC (Codificación de Longitud Variable) y CABAC (Codificación Aritmética Binaria de Contexto Adaptativo), para la codificación de entropía.
El módulo de codificación de entropía 130 puede codificar una variedad de información, tal como información de coeficiente residual e información de tipo de bloque de una unidad de codificación, información de modo de predicción, información de unidad de división, información de unidad de predicción, información de unidad de transferencia, información de vector de movimiento, información de marco de referencia, información de interpolación de bloque e información de filtrado del módulo de reordenamiento 125 y el módulo de predicción 110.
El módulo de codificación de entropía 130 puede codificar por entropía los valores de coeficientes de la entrada de la unidad de codificación desde el módulo de reordenamiento 125.
El módulo de cuantificación inversa 135 y el módulo de transformación inversa 140 cuantifican inversamente los valores cuantificados por el módulo de cuantificación 120 y transforman inversamente los valores transformados por el módulo de transformación 115. Los valores residuales generados por el módulo de cuantificación inversa 135 y el módulo de transformación inversa 140 se pueden fusionar con la unidad de predicción, que es predicha por el módulo de predicción de vector de movimiento, el módulo de compensación de movimiento y el módulo de intrapredicción del módulo de predicción 110, para generar un bloque reconstruido.
El módulo de filtro 145 puede incluir al menos uno de un filtro de desbloqueo, un módulo de corrección de compensación y un ALF (Filtro de Bucle Adaptativo).
El filtro de desbloqueo 145 puede eliminar la distorsión de bloque generada debido al límite entre bloques en la imagen reconstruida. Se puede determinar si el filtro de desbloqueo se debería aplicar a un bloque actual sobre la base de los píxeles incluidos en varias filas o columnas del bloque. Cuando el filtro de desbloqueo se aplica a un bloque, se puede aplicar un filtro fuerte o un filtro débil dependiendo de la fuerza de filtrado de desbloqueo necesaria. Cuando se realiza el filtrado horizontal y el filtrado vertical para aplicar el filtro de desbloqueo, el filtrado horizontal y el filtrado vertical se pueden realizar en paralelo.
El módulo de corrección de desplazamiento puede corregir un desplazamiento de la imagen sometida al desbloqueo de la imagen original en la unidad de píxeles. Un método de división de los píxeles de una imagen en un número predeterminado de regiones, que determina una región a ser sometida a la corrección de desplazamiento y que aplica la corrección de desplazamiento a la región determinada o un método de aplicación la corrección de desplazamiento teniendo en cuenta la información de borde de cada píxel se puede utilizar para realizar la corrección de desplazamiento en una imagen específica.
El ALF (Filtro de Bucle Adaptativo) puede realizar el filtrado sobre la base del resultado de la comparación de la imagen reconstruida filtrada y la imagen original. Los píxeles incluidos en una imagen se pueden dividir en grupos predeterminados, se puede determinar un filtro a ser aplicado a cada grupo y el filtrado se puede realizar de manera diferente para cada grupo. La información sobre si se debería aplicar el ALF y las señales de luminancia se pueden transferir mediante las unidades de codificación (CU) y pueden variar el tamaño y los coeficientes del ALF a ser aplicado a cada bloque. El ALF puede tener varios tipos y puede variar el número de coeficientes incluidos en el filtro correspondiente. La información relacionada con el filtrado (tal como información de coeficiente de filtro, información de ALF ENCENDIDO/APAGADO e información de tipo de filtro) del ALF se puede incluir y transferir en un conjunto de parámetros predeterminado de un flujo de bits.
La memoria 150 puede almacenar el bloque o la imagen reconstruidos calculados por el módulo de filtro 145 y el bloque o la imagen reconstruidos almacenados se pueden suministrar al módulo de predicción 110 cuando se realiza la intrapredicción.
La FIG. 2 es un diagrama de bloques que ilustra un dispositivo de decodificación de imágenes según otra realización de la invención.
Haciendo referencia a la FIG. 2, un dispositivo de decodificación de imágenes 200 incluye un módulo de decodificación de entropía 210, un módulo de reordenamiento 215, un módulo de cuantificación inversa 220, un módulo de transformación inversa 225, un módulo de predicción 230, un módulo de filtro 235 y una memoria 240.
Cuando se introduce un flujo de bits de imagen desde el dispositivo de codificación de imágenes, el flujo de bits de entrada se puede decodificar en el orden inverso al del dispositivo de codificación de imágenes.
El módulo de decodificación de entropía 210 puede realizar la decodificación de entropía en el orden inverso al orden de realizar la codificación de entropía en el módulo de codificación de entropía del dispositivo de codificación de imágenes. Los valores residuales sometidos a la decodificación de entropía por el módulo de decodificación de entropía se pueden introducir al módulo de reordenamiento 215.
El módulo de decodificación de entropía 210 puede decodificar información asociada con la intrapredicción y la interpredicción realizadas por el dispositivo de codificación. Como se describió anteriormente, cuando el dispositivo de codificación de imágenes tiene restricciones predeterminadas para realizar la intrapredicción y la interpredicción, el módulo de decodificación de entropía puede realizar la decodificación de entropía en base a las restricciones y se puede suministrar con la información de un bloque actual asociado con la intrapredicción y la interpredicción.
El módulo de reordenamiento 215 puede realizar el reordenamiento en el flujo de bits decodificado por entropía por el módulo de decodificación de entropía 210 sobre la base del método de reordenamiento del módulo de codificación. El módulo de reordenamiento puede reconstruir y reordenar coeficientes expresados en forma de vector unidimensional en coeficientes de tipo bloque bidimensionales. El módulo de reordenamiento se puede suministrar con información asociada con el escaneo de coeficientes realizado por el módulo de codificación y puede realizar el reordenamiento usando un método de escaneo inverso de los coeficientes sobre la base del orden de escaneo en el que se realiza el escaneo por el módulo de codificación correspondiente.
El módulo de cuantificación inversa 220 puede realizar la cuantificación inversa sobre la base de los parámetros de cuantificación suministrados desde el dispositivo de codificación y los valores de coeficiente reordenados del bloque.
El módulo de transformación inversa 225 puede realizar la DCT inversa y la DST inversa de la DCT y DST, que ha sido realizada por el módulo de transformación, en el resultado de cuantificación del dispositivo de codificación de imágenes. La transformada inversa se puede realizar sobre la base de una unidad de transferencia determinada por el dispositivo de codificación de imágenes. El módulo de transformación del dispositivo de codificación de imágenes puede realizar selectivamente la DCT y la DST dependiendo de varios elementos de información, tales como el método de predicción, el tamaño del bloque actual y la dirección de predicción, y el módulo de transformación inversa 225 del dispositivo de decodificación de imágenes puede realizar la transformada inversa sobre la base de la información de transformación sobre la transformación realizada por el módulo de transformación del dispositivo de codificación de imágenes.
La transformada inversa se puede realizar por las unidades de codificación en lugar de que las unidades de transformación hayan sido sometidas a la transformada.
El módulo de predicción 230 puede generar un bloque predicho sobre la base de la información de generación de bloques predicha suministrada desde el módulo de decodificación de entropía 210 y la información de imagen o bloque previamente decodificada suministrada desde la memoria 240.
Como se describió anteriormente, de manera similar a la operación del dispositivo de codificación de imágenes, cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son iguales entre sí en el momento de realizar la intrapredicción, la intrapredicción en la unidad de predicción se realiza sobre la base de píxeles ubicados en el lado izquierdo de la unidad de predicción, un píxel ubicado en la esquina superior izquierda y píxeles ubicados en el lado superior. Por otro lado, cuando el tamaño de una unidad de predicción y el tamaño de una unidad de transformación son diferentes uno de otro en el momento de realizar la intrapredicción, la intrapredicción se puede realizar utilizando píxeles de referencia basados en la unidad de transformación. La intrapredicción se puede realizar utilizando la división NxN solo para la unidad de codificación mínima.
El módulo de predicción 230 incluye un módulo de determinación de unidad de predicción, un módulo de interpredicción y un módulo de intrapredicción. El módulo de determinación de la unidad de predicción puede recibir una variedad de información, tal como la entrada de información de la unidad de predicción del módulo de decodificación de entropía, la información del modo de predicción del método de intrapredicción e información relacionada con la predicción de movimiento del método de interpredicción, puede separar una unidad de predicción de la unidad de codificación actual, y puede determinar cuál de la interpredicción y la intrapredicción se debería realizar en la unidad de predicción. El módulo de interpredicción puede realizar la interpredicción en la unidad de predicción actual sobre la base de la información incluida en al menos una imagen de una imagen anterior y una imagen posterior de la imagen actual que incluye la unidad de predicción actual utilizando la información necesaria para la interpredicción de la unidad de predicción actual suministrada desde el dispositivo de codificación de imágenes.
Con el fin de realizar la interpredicción, se puede determinar cuál de un modo de salto, un modo de fusión y un modo de AMVP es el método de predicción de movimiento de la unidad de predicción incluida en la unidad de codificación sobre la base de la unidad de codificación.
De aquí en adelante, se describirá a continuación un método de construcción de una lista de candidatos de vectores de movimiento predichos en el momento de realizar la interpredicción usando el método de AMVP según una realización de la invención.
El módulo de intrapredicción puede generar un bloque predicho sobre la base de información de píxeles en la imagen actual. Cuando una unidad de predicción es la unidad de predicción sometida a la intrapredicción, la intrapredicción se puede realizar sobre la base de la información del modo de intrapredicción de la unidad de predicción suministrada desde el dispositivo de codificación de imágenes. El módulo de intrapredicción incluye un filtro de MDIS, un módulo de interpolación de píxeles de referencia y un filtro de DC. El filtro de MDIS es un módulo que realiza el filtrado sobre los píxeles de referencia del bloque actual y se puede aplicar determinando si se debería aplicar el filtro dependiendo del modo de predicción de la unidad de predicción actual. El filtro de MDIS se puede realizar en los píxeles de referencia del bloque actual utilizando el modo de predicción de la unidad de predicción suministrada desde el dispositivo de codificación de imágenes y la información del filtro de MDIS. Cuando el modo de predicción del bloque actual es un modo en el que no se realiza el filtrado de MDIS, puede no ser aplicado el filtro de MDIS.
Cuando el modo de predicción de la unidad de predicción es una unidad de predicción a ser sometida a la intrapredicción sobre la base de los valores de píxel obtenidos interpolando los píxeles de referencia, el módulo de interpolación de píxeles de referencia puede generar píxeles de referencia en la unidad de píxeles inferior a un número entero interpolando los píxeles de referencia. Cuando el modo de predicción de la unidad de predicción actual es un modo de predicción en el que se genera un bloque predicho sin interpolar los píxeles de referencia, los píxeles de referencia pueden no ser interpolados. Cuando el modo de predicción del bloque actual es el modo de DC, el filtro de DC puede generar un bloque predicho a través del filtrado.
El bloque o imagen reconstruida se puede suministrar al módulo de filtro 235. El módulo de filtro 235 incluye un filtro de desbloqueo, un módulo de corrección de desplazamiento y un ALF.
La información sobre si el filtro de desbloqueo se aplica al bloque o imagen correspondiente y la información sobre cuál del filtro fuerte y el filtro débil se ha aplicado cuando se ha aplicado el filtro de desbloqueo se puede suministrar desde el dispositivo de codificación de imágenes. El filtro de desbloqueo del dispositivo de decodificación de imágenes se puede suministrar con la información relacionada con el filtro de desbloqueo desde el dispositivo de codificación de imágenes y puede realizar el filtrado de desbloqueo sobre el bloque correspondiente en el dispositivo de descodificación. De manera similar al dispositivo de codificación de imágenes, primero se realizan el filtrado de desbloqueo vertical y el filtro de desbloqueo horizontal, donde al menos uno del filtrado de desbloqueo vertical y el filtrado de desbloqueo horizontal se puede realizar en una parte superpuesta. El filtrado de desbloqueo vertical o el filtrado de desbloqueo horizontal que no se realiza previamente se puede realizar en la parte en la que se superponen el filtrado de desbloqueo vertical y el filtrado de desbloqueo horizontal. El procesamiento paralelo de los procesos de filtrado de desbloqueo se puede realizar a través de este filtrado de desbloqueo.
El módulo de corrección de desplazamiento puede realizar la corrección de desplazamiento en la imagen reconstruida sobre la base del tipo de corrección de desplazamiento aplicada a la imagen en la codificación y la información del valor de desplazamiento.
El ALF puede realizar el filtrado sobre la base del resultado de la comparación entre la imagen reconstruida sometida al filtrado y la imagen original. El ALF se puede aplicar a la unidad de codificación sobre la base de la información de aplicación de ALF y la información de coeficiente de ALF suministrada desde el dispositivo de codificación. La información de ALF se puede incluir y suministrar en un conjunto de parámetros específico.
La memoria 240 puede almacenar la imagen o bloque reconstruido para usar como imagen de referencia o bloque de referencia y puede suministrar la imagen reconstruida a un módulo de salida.
Como se describió anteriormente, en las realizaciones de la invención, la unidad de codificación se usa como un término que representa una unidad de codificación, pero se puede usar como una unidad de decodificación así como de codificación.
Un método de codificación de imágenes y un método de decodificación de imágenes a ser descritos más adelante en las realizaciones de la invención se pueden realizar por los constituyentes del dispositivo de codificación de imágenes y el dispositivo de decodificación de imágenes descritos anteriormente con referencia a las FIGS. 1 y 2. Los constituyentes pueden incluir unidades de proceso de software que se pueden realizar a través de algoritmos, así como constituyentes de hardware.
Se puede usar un método de intrapredicción según una realización de la invención en lugar del método de intrapredicción existente, o se puede usar selectivamente junto con el modo de intrapredicción existente sobre la base de información de bandera. El modo de intrapredicción según la realización de la invención se puede denominar modo de intrapredicción avanzada (AIP). La información de advanced_intra_pred_flag, que es información que representa si la predicción se debería realizar utilizando el modo de intrapredicción avanzada (AIP) o utilizando un método de predicción convencional en lugar del modo de intrapredicción avanzada (AIP) se puede transmitir en un estado en el que la información se carga en un estructura de sintaxis genérica predeterminada tal como un SPS (Conjunto de Parámetros de Secuencia) o un PPS (Conjunto de Parámetros de Imagen) o una cabecera de segmentación. El modo de AIP se puede transmitir para una señal de luminancia o una señal de crominancia. El modo de AIP se puede transmitir usando advanced_intra_pred_flag para la señal de luminancia y se puede transmitir usando advanced_intra_pred_chroma_flag para la señal de crominancia.
La FIG. 3 es un diagrama que ilustra una unidad de predicción y píxeles de referencia en la realización de la invención.
Haciendo referencia a la FIG. 3, los píxeles de referencia en la realización de la invención se pueden clasificar en píxeles de referencia superiores 300, un píxel de referencia superior izquierdo 310 y píxeles de referencia izquierdos 320.
Cuando el tamaño de un bloque es nxn y el número de píxeles de referencia superiores es n, se hace referencia a un píxel de referencia ubicado en una primera posición de entre los píxeles de referencia superiores como primer píxel de referencia superior, se hace referencia a un píxel ubicado en el lado de más a la izquierda como píxel de referencia superior de orden n, se hace referencia a un píxel ubicado en la parte superior de entre los píxeles de referencia izquierdos como primer píxel de referencia izquierdo y se hace referencia a un píxel ubicado en la parte inferior como píxel de referencia izquierda de orden n De esta forma, secuencialmente, se hace referencia a un píxel ubicado en la posición de orden (n+1) justo en el lado derecho del píxel de referencia superior de orden n como píxel de referencia superior de orden (n+1) 330, y se hace referencia a un píxel ubicado en la posición de orden 2n como píxel de referencia superior de orden 2n 340. De manera similar, se hace referencia a un píxel de orden (n+1) ubicado justo debajo del píxel de referencia izquierdo de orden n como píxel de referencia izquierdo de orden (n 1) 350 y se hace referencia a un píxel ubicado en la posición de orden 2n como píxel de referencia inferior de orden 2n 360.
Las columnas y filas en una unidad de predicción se pueden expresar de la primera fila a la fila de orden n y de la primera columna a la columna de orden n con respecto a la fila y la columna que incluyen los píxeles.
La FIG. 4 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 4, un píxel inferior derecho 410 se establece en un valor predicho por DC para realizar una intrapredicción utilizando un modo de DC (400).
El valor predicho por DC se puede derivar usando el valor promedio de los píxeles de referencia superiores, los píxeles de referencia izquierdos y el píxel superior izquierdo, y este valor se puede usar como el valor predicho del píxel inferior derecho 410.
Los valores predichos de la columna de orden n se pueden derivar usando el píxel inferior derecho 410 y el píxel de referencia superior de orden n 423, y los valores predichos de la fila de orden n se pueden derivar usando el píxel inferior derecho 410 y el píxel de referencia izquierdo de orden n 426 (420).
La predicción lineal bidireccional se realiza para obtener los valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n (440).
Es decir, los valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se pueden generar realizando una predicción lineal en el píxel de referencia superior 445 ubicado en la parte superior en la dirección vertical, el píxel 450 en la fila de orden n ubicada en la parte inferior en la dirección vertical, el píxel de referencia izquierdo 455 ubicado a la izquierda en la dirección horizontal, y el píxel 460 en la columna de orden n en el lado derecho en la dirección horizontal.
La FIG. 5 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 5, se genera un píxel inferior derecho 520 usando el valor promedio del píxel de referencia superior izquierdo 505, el píxel de referencia superior de orden n 510 y el píxel de referencia izquierdo de orden n 515 (500).
El píxel inferior derecho 520 generado y el píxel de referencia superior de orden n 525 se interpolan para generar los valores predichos de los píxeles 530 incluidos en la columna de orden n, y el píxel inferior derecho 520 generado y el píxel de referencia izquierdo de orden n 535 se interpolan para generar los valores predichos de los píxeles 537 incluidos en la fila de orden n.
Se realiza la interpolación lineal y se dan valores de ponderación predeterminados al píxel inferior derecho 520 y al píxel de referencia superior de orden n 525 para generar los valores predichos de los píxeles incluidos en la columna de orden n. De manera similar, el píxel inferior derecho 520 y el píxel de referencia izquierdo de orden n 535 se interpolan para generar los valores predichos de los píxeles incluidos en la fila de orden n.
Los valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se derivan realizando una predicción lineal bidireccional sobre la base de los píxeles de referencia superiores 545 ubicados en la parte superior en la dirección vertical, los píxeles de referencia izquierdos 550, los valores predichos generados de los píxeles 555 incluidos en la fila de orden n, y los valores predichos generados de los píxeles 557 incluidos en la columna de orden n (560).
La FIG. 6 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 6, el píxel inferior derecho se establece en un valor predicho por DC (600).
El valor predicho por DC del píxel inferior derecho 610 se puede generar calculando el valor promedio de los píxeles de referencia superiores, los píxeles de referencia izquierdos y el píxel superior izquierdo.
El píxel de referencia superior de orden n 615 y el píxel inferior derecho 610 se interpolan para generar los valores predichos de los píxeles incluidos en la columna de orden n, y los píxeles de referencia izquierdos de orden n 617 y el píxel de referencia inferiores derechos 610 se interpolan para generar los valores predichos de los píxeles incluidos en la fila de orden n (620).
Los valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se generan sobre la base de los valores de píxel de referencia presentes en la dirección diagonal y los valores de píxel predichos de la fila de orden n y la columna de orden n (640).
Los primeros valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se pueden generar realizando una interpolación lineal usando un valor de píxel presente en el lado superior derecho en la dirección diagonal de entre los valores de píxel de referencia existentes y los valores de píxel de la fila de orden n y la columna de orden n y un valor de píxel presente en el lado inferior izquierdo.
Los segundos valores predichos 670 se generan realizando una predicción lineal bidireccional utilizando dos píxeles en la dirección horizontal y dos píxeles en la dirección vertical, que están presentes alrededor de los primeros valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n. y la columna de orden n (660).
El píxel 675 ubicado justo encima en la dirección vertical del píxel de predicción actual, el píxel 680 ubicado justo debajo de la dirección vertical del píxel de predicción actual, el píxel 685 ubicado justo en el lado izquierdo en la dirección horizontal del píxel de predicción actual, y el píxel 690 ubicado justo en el lado derecho en la dirección horizontal del píxel de predicción actual se interpolan para generar los segundos valores predichos 670.
La FIG. 7 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 7, el píxel inferior derecho 710 se genera (700) usando el promedio del píxel de referencia superior izquierdo 703, el píxel de referencia superior de orden n 706 y el píxel de referencia izquierdo de orden n 709.
El píxel de referencia superior de orden n 706 y el píxel inferior derecho 710 se interpolan para generar los valores predichos 713 de los píxeles incluidos en la columna de orden n, y los píxeles de referencia izquierdos de orden n 709 y el píxel inferior derecho 710 se interpolan para generar los valores predichos de los píxeles 715 incluidos en la fila de orden n (720).
Los valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se generan sobre la base de los valores de píxel de referencia ubicados en la dirección diagonal y los valores de píxel predichos de la fila de orden n y la columna de orden n (740).
Los primeros valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se pueden generar realizando una interpolación usando un valor de píxel ubicado en el lado superior derecho en la dirección diagonal (por ejemplo, 45 grados) de entre los valores de píxel de referencia existentes y los valores de píxel predichos de la fila de orden n y la columna de orden n y un valor de píxel ubicado en el lado inferior izquierdo.
Los segundos valores predichos se generan realizando una predicción lineal bidireccional utilizando dos píxeles en la dirección horizontal y dos píxeles en la dirección vertical ubicados alrededor de los primeros valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n (760). El píxel 745 ubicado justo encima en la dirección vertical del píxel de predicción actual, el píxel 750 ubicado justo debajo de la dirección vertical del píxel de predicción actual, el píxel 755 ubicado justo en el lado izquierdo en la dirección horizontal del píxel de predicción actual, y el píxel 757 ubicado justo en el lado derecho en la dirección horizontal del píxel de predicción actual se interpolan para generar los segundos valores predichos 770.
La FIG. 8 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo vertical avanzado según una realización de la invención.
Haciendo referencia a la FIG. 8, los valores promedio del píxel de referencia izquierdo de orden n 810 y cada uno de los valores de píxel de referencia superior se insertan en la fila de orden n (800).
Cada píxel incluido en la fila de orden n puede tener el valor promedio del valor del píxel incluido en la misma columna de entre los píxeles de referencia superiores y el píxel de referencia inferior izquierdo de orden n.
Los valores predichos de los píxeles incluidos en las filas distintas de la fila de orden n se generan interpolando los píxeles incluidos en la fila de orden n y los valores de píxel de referencia superior (850).
Empleando este método, es posible expresar información de valor de píxel que varía linealmente en las unidades de filas.
La FIG. 9 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo horizontal avanzado según una realización de la invención.
Haciendo referencia a la FIG. 9, los valores promedio del píxel de referencia superior de orden (n+1) y cada uno de los píxeles de referencia izquierdos se insertan en la columna de orden n (900).
Cada píxel incluido en la columna de orden n puede tener el valor promedio del valor del píxel incluido en la misma fila de entre los píxeles de referencia izquierdos y el píxel de referencia superior de orden (n+1).
En otro método, los valores de píxel promedio del píxel de referencia superior de orden n y cada uno de los píxeles de referencia izquierdos se pueden insertar en la columna de orden n (925).
Es decir, cada píxel incluido en la columna de orden n puede tener el valor promedio del píxel incluido en la misma fila de entre los píxeles de referencia izquierdos y el píxel de referencia superior de orden n.
Los valores predichos de los píxeles incluidos en las columnas distintas la columna de orden n interpolando los píxeles incluidos en la columna de orden n y los valores de píxel de referencia superior (950).
Empleando este método, es posible expresar información de valor de píxel que varía en las unidades de filas.
La FIG. 10 es un diagrama conceptual que ilustra un método de derivación de una unidad de predicción usando un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 10, el valor predicho del píxel inferior derecho 1000 se deriva para realizar una intrapredicción usando el modo planar. El valor interpolado del valor predicho derivado del píxel inferior derecho 1000 y el píxel de referencia izquierdo de orden n 1010 se usa como los valores predichos de los píxeles incluidos en la fila de orden n, y el valor interpolado del valor predicho derivado del píxel inferior derecho 1000 y el píxel de referencia superior de orden n 1020 se usa como los valores predichos de los píxeles incluidos en la columna de orden n.
Los valores predichos de los píxeles incluidos en la unidad de predicción restante distinta de la fila de orden n y la columna de orden n se pueden derivar realizando una interpolación bidireccional sobre la base de los píxeles de referencia superior, los píxeles de referencia izquierdos, el píxel de referencia superior izquierdo y los valores de píxel predichos de la columna de orden n y la fila de orden n generados en el paso anterior.
Aquí, el píxel inferior derecho se puede derivar usando varios métodos. Las FIGS. 11 a 14 muestran métodos para derivar el píxel inferior derecho según una realización de la invención.
La FIG. 11 es un diagrama conceptual que ilustra un método de derivación del píxel inferior derecho en un método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 11, el píxel inferior derecho se puede derivar del valor promedio del píxel de referencia izquierdo de orden n 1100 y el píxel de referencia superior de orden n 1110.
Es decir, empleando el método de derivación del valor de píxel inferior derecho usando solo dos valores de píxel, es posible reducir la complejidad del cálculo.
La FIG. 12 es un diagrama conceptual que ilustra un método para derivar el píxel inferior derecho en un método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 12, el píxel inferior derecho se puede derivar del valor promedio del píxel de referencia superior de orden 2n 1200 y el píxel de referencia izquierdo de orden 2n 1210.
Es decir, es posible derivar el píxel inferior derecho usando solo dos valores de píxel, a diferencia de los métodos existentes.
Cuando una unidad de predicción está ubicada en un borde y el píxel de referencia superior de orden 2n 1200 y el píxel de referencia izquierdo de orden 2n 1210 no están presentes, el píxel inferior derecho se puede generar usando el valor de píxel de referencia izquierdo de orden n y el valor de píxel de referencia superior de orden n como se muestra en la FIG. 11, o el píxel inferior derecho se puede generar usando otro método.
La FIG. 13 es un diagrama conceptual que ilustra un método de derivación del píxel inferior derecho en un método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 13, el píxel inferior derecho se puede derivar usando un píxel promedio superior 1320 generado sobre la base del valor promedio del píxel de referencia superior de orden n 1300 y el píxel de referencia superior de orden 2n 1310 y un píxel promedio izquierdo 1350 derivado sobre la base del valor promedio del píxel de referencia izquierdo de orden n 1330 y el píxel de referencia izquierdo de orden 2n 1340.
Es decir, el píxel inferior derecho se puede derivar sobre la base del valor promedio del píxel promedio superior 1320 y el píxel promedio izquierdo 1350.
Cuando una unidad de predicción está ubicada en un borde y el píxel correspondiente no está presente, el píxel inferior derecho se puede generar usando el valor de píxel de referencia izquierdo de orden n y el valor de píxel de referencia superior de orden n como se muestra en la FIG. 11, o el píxel inferior derecho se puede generar usando otro método.
La FIG. 14 es un diagrama conceptual que ilustra un método de derivación del píxel inferior derecho en un método de intrapredicción utilizando un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 14, el píxel inferior derecho 1460 se puede generar usando el valor promedio de un píxel central superior 1420 ubicado en el medio entre el píxel de referencia superior de orden n 1400 y el píxel de referencia superior de orden 2n 1410 y un píxel central izquierdo 1450 ubicado en el medio entre el píxel de referencia izquierdo de orden n 1430 y el píxel de referencia izquierdo de orden 2n 1440. El píxel ubicado en el medio puede ser el píxel de referencia superior o izquierdo de orden (n+n/2) ubicado en la posición de orden (n+n/2) o de orden ((n+n/2)+1), o puede ser el píxel de referencia superior o izquierdo de orden ((n+n/2)+1).
Cuando una unidad de predicción está ubicada en un borde y el píxel correspondiente no está presente, el píxel inferior derecho se puede generar usando el valor de píxel de referencia izquierdo de orden n y el valor de píxel de referencia superior de orden n, o el píxel inferior derecho se puede generar utilizando otro método.
Las FIGS. 15 y 16 son diagramas conceptuales que ilustran un método de generación de la fila de orden n y la columna de orden n incluidas en una unidad de predicción por interpolación al realizar un modo de predicción planar avanzada.
La FIG. 15 es un diagrama conceptual que ilustra un método de generación de la fila de orden n y la columna de orden n al realizar un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 15, los valores predichos de los píxeles distintos del píxel inferior derecho incluido en la columna de orden n se pueden generar copiando los píxeles del píxel de referencia superior de orden (n+1) al píxel de referencia superior de orden (2n-1).
Los valores predichos de los píxeles distintos del píxel inferior derecho incluido en la fila de orden n se pueden generar copiando los píxeles del píxel de referencia izquierdo de orden (n+1) al píxel de referencia izquierdo de orden (2n-1). El valor predicho del píxel inferior derecho se puede generar calculando el valor promedio del píxel superior de orden 2n y el píxel izquierdo de orden 2n.
La FIG. 16 es un diagrama conceptual que ilustra un método de generación de la fila de orden n y la columna de orden n al realizar un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 16, los valores predichos de la columna de orden n se pueden generar utilizando los píxeles generados prediciendo linealmente los píxeles desde el píxel de referencia superior de orden (n+1) hasta el píxel de referencia superior de orden (2n-1) y los píxeles desde el píxel de referencia izquierdo de orden (n+1) hasta el píxel de referencia izquierdo de orden (2n-1) dependiendo de la distancia entre los mismos. Por ejemplo, el valor predicho del segundo píxel 1600 en la columna de orden n se puede generar interpolando linealmente el píxel de referencia superior de orden (n+2) y el píxel de referencia izquierdo de orden (n+2).
De manera similar, los valores predichos de la fila de orden n se pueden generar usando los píxeles generados prediciendo linealmente los píxeles desde el píxel de referencia superior de orden (n+1) hasta el píxel de referencia superior de orden (2n-1) y los píxeles desde el píxel de referencia izquierdo de orden (n+1) hasta el píxel de referencia izquierdo de orden (2n-1) dependiendo de la distancia entre los mismos. Por ejemplo, el valor predicho del segundo píxel en la fila de orden n se puede generar interpolando linealmente el píxel de referencia superior de orden (n+2) y el píxel de referencia izquierdo de orden (n+2).
Empleando este método, los valores de píxel predichos de la fila de orden n y la columna de orden n se pueden generar para tener una mayor influencia sobre un valor de píxel que tiene una distancia más pequeña y luego se puede realizar la predicción usando el modo planar.
La FIG. 17 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 17, se pueden usar cuatro píxeles para generar el valor predicho de cada píxel incluido en una unidad de predicción.
El primer píxel 1700 puede ser un píxel de entre el primer píxel de referencia superior al píxel de referencia superior de orden n ubicado encima en la dirección vertical de un píxel objetivo de predicción. El segundo píxel 1720 puede ser un píxel ubicado debajo en la dirección vertical del píxel objetivo de predicción y puede tener un valor obtenido copiando el píxel de referencia izquierdo de orden 2n 1725.
El tercer píxel 1740 puede ser un píxel de entre el primer píxel de referencia izquierdo al píxel de referencia izquierdo de orden n ubicado en el lado izquierdo en la dirección horizontal del píxel objetivo de predicción. El cuarto píxel 1760 puede ser un píxel ubicado en el lado derecho en la dirección horizontal del píxel objetivo de predicción y puede tener un valor obtenido copiando el píxel de referencia superior de orden 2n 1765.
En el método de predicción planar según una realización de la invención, los valores predichos de los píxeles incluidos en la unidad de predicción se pueden generar utilizando un método de realización de una interpolación lineal bidireccional sobre el primer píxel al cuarto píxel.
La FIG. 18 es un diagrama conceptual que ilustra un método de intrapredicción que usa un modo planar según una realización de la invención.
Haciendo referencia a la FIG. 18, se pueden dar valores ponderados de una relación predeterminada al valor predicho en la dirección horizontal y al valor predicho en la dirección vertical para generar los valores predichos de la unidad de predicción cuando se realiza la predicción usando un modo planar.
El valor predicho en la dirección horizontal se puede derivar interpolando el valor del píxel ubicado en la misma fila que el píxel objetivo de predicción de entre los píxeles de referencia izquierdos y el píxel de referencia superior de orden n (1800).
El valor predicho en la dirección vertical se puede derivar interpolando el valor del píxel ubicado en la misma columna que el píxel objetivo de predicción de entre los píxeles de referencia superiores y el píxel de referencia izquierdo de orden n (1850).
El valor predicho en la dirección horizontal y el valor predicho en la dirección vertical se pueden generar multiplicándolos por valores de ponderación.
La Expresión matemática 1 representa que se genera un valor predicho sobre la base de un valor de ponderación.
Expresión matemática 1
P _ (x.y) . = - ■" V.. +...1 X + 1
. - x Horz -\ ------------- x Veri
' ” x + y 2 x + y 2
Con referencia a la Expresión matemática 1, se da un valor de ponderación mayor a una dirección más cercana dependiendo de si la dirección es la más cercana entre la dirección horizontal y la dirección vertical para generar el valor predicho.
La FIG. 19 es un diagrama conceptual que ilustra un método de intrapredicción que usa un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 19, cuando se realiza una intrapredicción utilizando un modo de DC avanzado, los píxeles de referencia superiores y los píxeles de referencia izquierdos se pueden copiar en los píxeles de la primera fila y la primera columna de la unidad de predicción para minimizar la discontinuidad de las unidades de predicción vecinas. El valor predicho del píxel ubicado en la primera fila y la primera columna se puede derivar usando el valor del primer píxel de los píxeles de referencia superiores o el valor del primer píxel de los píxeles de referencia izquierdos. Los valores predichos de los píxeles distintos de la primera fila y la segunda columna se pueden generar realizando la intrapredicción usando el modo de DC sobre la base de los valores predichos de la primera fila y la primera columna de la unidad de predicción.
La FIG. 20 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la parte izquierda de la FIG. 20, al realizar una intrapredicción usando un modo de DC avanzado, los valores predichos se pueden generar calculando el valor promedio del primer píxel de referencia superior que es el primer píxel de los píxeles de referencia superiores, el píxel de referencia superior de orden n que es el píxel de orden n de los píxeles de referencia superiores, el primer píxel de referencia izquierdo que es el primer píxel de los píxeles de referencia izquierdos y el píxel de referencia izquierdo de orden n que es el píxel de orden n de los píxeles de referencia izquierdos. Es decir, es posible reducir la complejidad del cálculo cuando se realiza una intrapredicción a través del uso de un método de derivación de los valores predichos de los píxeles incluidos en una unidad de predicción usando solo píxeles parciales de los píxeles de referencia.
Haciendo referencia a la parte derecha de la FIG. 20, al realizar una intrapredicción usando un modo de DC avanzado, los valores predichos se pueden generar calculando el valor promedio del píxel de referencia superior de orden n que es el píxel de orden n de los píxeles de referencia superiores, el píxel de referencia izquierdo de orden n, que es el píxel de orden n de los píxeles de referencia izquierdos, y el píxel de referencia superior izquierdo. Es decir, de manera similar a la parte izquierda de la FIG. 20, es posible reducir la complejidad del cálculo utilizando solo píxeles parciales de los píxeles de referencia.
La FIG. 21 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 21, en el método de intrapredicción que usa un modo de DC avanzado, los píxeles de la primera columna y la primera fila se establecen en los valores predichos de DC derivados usando los píxeles de referencia (2100).
Los valores predichos por DC incluidos en la primera fila y la primera columna pueden ser los valores promedio de los píxeles de referencia superiores, el píxel de referencia superior izquierdo y los píxeles de referencia izquierdos.
Se realiza una operación de filtrado utilizando los píxeles de referencia superiores, los píxeles de referencia izquierdos y el píxel de referencia superior izquierdo (2120).
Los píxeles incluidos en la primera columna y la primera fila distintos del píxel ubicado en la intersección de la primera fila y la primera columna en una unidad de predicción se pueden filtrar utilizando los píxeles de referencia y un filtro de 2 derivaciones. El píxel ubicado en la intersección de la primera fila y la primera columna en la unidad de predicción se puede filtrar sobre la base del primer píxel de referencia superior y el primer píxel de referencia izquierdo usando un filtro de 3 derivaciones.
La intrapredicción que usa el modo de DC se realiza sobre la base de los píxeles filtrados incluidos en la primera columna y la primera fila para generar los valores predichos de los píxeles incluidos en la unidad de predicción (2140). La intrapredicción usando el modo de DC se puede realizar usando el valor promedio de los píxeles filtrados ubicados en la primera columna y la primera fila.
La FIG. 22 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 22, los valores de píxel incluidos en la primera fila y la primera columna de la unidad de predicción se pueden predecir realizando una intrapredicción usando un modo de DC sobre la base de los píxeles de referencia (2200).
Los valores intrapredichos en el modo de DC pueden ser los valores promedio de los píxeles de referencia superiores, el píxel de referencia superior izquierdo y los píxeles de referencia izquierdos como se muestra en la FIG. 21
Se realiza una operación de filtrado usando los píxeles de referencia superiores, los píxeles de referencia izquierdos, el píxel de referencia superior izquierdo y los píxeles generados incluidos en la primera fila y la primera columna (2220). Los píxeles predichos de la primera columna y la primera fila se pueden filtrar usando un filtro de 2 derivaciones y los valores de píxeles de referencia. El píxel ubicado en la intersección de la primera fila y la primera columna se puede filtrar sobre la base del primer píxel de referencia superior y el primer píxel de referencia izquierdo usando un filtro de 3 derivaciones.
Los valores predichos de los píxeles incluidos en la unidad de predicción distintos de la primera fila y la primera columna se pueden generar calculando los valores promedio de los valores de píxeles ubicados en los lados superior e izquierdo (2240).
La FIG. 23 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 23, los píxeles de referencia superiores y los píxeles de referencia izquierdos se utilizan como los píxeles predichos de la unidad de predicción (2300). Los píxeles de referencia superiores y los píxeles de referencia izquierdos se pueden utilizar como los valores predichos de los píxeles incluidos en la primera columna y la primera fila de la unidad de predicción.
Los valores predichos de los píxeles de la primera fila y la primera columna se pueden derivar sobre la base de al menos uno de los primeros valores de píxeles de referencia izquierdos y el primer valor de píxel de referencia superior. En cuanto a los píxeles en la unidad de predicción restante distintos de los píxeles incluidos en la primera fila y la primera columna, los primeros valores predichos se pueden derivar realizando la predicción en modo de DC sobre la base de los valores de píxeles de la primera fila y la primera columna (2320).
En cuanto a los valores predichos en la unidad de predicción distintos de los valores de píxel incluidos en la primera fila y la primera columna, los segundos valores predichos se pueden generar calculando los valores promedio de los valores de píxel ubicados en los lados superior e izquierdo (2340).
La FIG. 24 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo de DC avanzado según una realización de la invención.
Haciendo referencia a la FIG. 24, los valores predichos en el modo de DC se derivan utilizando los píxeles de referencia.
Los valores predichos por DC se pueden derivar calculando los valores promedio de los píxeles de referencia superiores, el píxel de referencia superior izquierdo y los píxeles de referencia izquierdos.
La Expresión matemática 2 representa un método de derivación de un valor predicho usando un modo de DC.
Expresión matemática 2
Se puede derivar un valor de Desviación entre el valor predicho usando un modo de DC para cada píxel de referencia y el valor del píxel de referencia correspondiente. La Expresión matemática 3 representa el valor del píxel de referencia y el valor predicho usando el modo de DC.
Expresión matemática 3
x , - \ \ x = o ~ w- 1
Figure imgf000016_0001
H1 -
Los valores predichos de los píxeles incluidos en una unidad de predicción se pueden derivar utilizando los valores predichos por DC derivados por la Expresión matemática 2 y los valores promedio de las desviaciones en la dirección x y las desviaciones en la dirección y derivadas por la Expresión matemática 3.
Expresión matemática 4
Realizando la intrapredicción de esta manera y sumando o restando los valores de desviación en la columna correspondiente y la fila correspondiente a o de los valores predichos por DC, es posible reflejar las características de las filas y las columnas.
La FIG. 25 es un diagrama conceptual que ilustra un método de intrapredicción que utiliza un modo planar avanzado según una realización de la invención.
Haciendo referencia a la FIG. 25, al realizar un modo de predicción planar, la interpolación vertical se puede realizar usando el píxel 2500 ubicado encima en la dirección vertical en la misma columna que el píxel de predicción actual e incluido en los píxeles de referencia superiores y el píxel de referencia izquierdo de orden 2n 2510 que es el píxel de orden 2n de los píxeles de referencia izquierdos. La interpolación horizontal se puede realizar usando el valor de píxel de referencia izquierdo 2520 ubicado en el lado izquierdo en la dirección horizontal del píxel de predicción actual e incluido en la misma fila que el píxel de predicción actual y el píxel de referencia superior de orden 2n 2530 que es el píxel de referencia de orden 2n de los píxeles de referencia superiores.
Cuando el píxel de referencia izquierdo de orden 2n 2510 o el píxel de referencia superior de orden 2n 2530 no está presente, la interpolación horizontal o la interpolación vertical se pueden realizar usando el píxel de referencia izquierdo de orden n o el píxel de referencia superior de orden n.
La FIG. 26 es un diagrama conceptual que ilustra un método de realización de una predicción de modo planar cuando el píxel de referencia izquierdo de orden 2n o el píxel de referencia superior de orden 2n no están presentes según una realización de la invención.
La parte izquierda de la FIG. 26 muestra un caso en el que al menos uno del píxel de referencia izquierdo de orden 2n y el píxel de referencia superior de orden 2n no está presente.
Cuando el píxel de referencia izquierdo de orden 2n no está presente, la interpolación se puede realizar utilizando el píxel de referencia izquierdo de orden n en lugar del píxel de referencia izquierdo de orden 2n. Cuando el píxel de referencia superior de orden 2n no está presente, la interpolación se puede realizar utilizando el píxel de referencia superior de orden n en lugar del píxel de referencia superior de orden 2n.
La parte derecha de la FIG. 26 muestra un caso en el que el píxel de referencia izquierdo de orden 2n y el píxel de referencia superior de orden 2n no están presentes. Cuando el píxel de referencia izquierdo de orden 2n y el píxel de referencia superior de orden 2n no están presentes, el modo planar se puede realizar utilizando el píxel de referencia izquierdo de orden n y el píxel de referencia superior de orden n.
El método de codificación de imágenes y el método de decodificación de imágenes descritos anteriormente se pueden realizar mediante los módulos constituyentes del dispositivo de codificación de imágenes y el dispositivo de decodificación de imágenes descritos anteriormente con referencia a las FIGS. 1 y 2
Si bien la invención se ha descrito con referencia a las realizaciones, los expertos en la técnica serán capaces de comprender que la invención se puede modificar y cambiar de diversas formas sin apartarse del alcance de la invención descrito en las reivindicaciones adjuntas.

Claims (15)

REIVINDICACIONES
1. Un método de intrapredicción que usa un modo intraplanar realizado por un aparato de decodificación, el método que comprende:
recibir información sobre un modo de predicción;
determinar un modo de intrapredicción para un bloque actual como un modo intraplanar en base a la información sobre el modo de predicción;
derivar píxeles de referencia vecinos del bloque actual; y
generar un valor de píxel de predicción actual de un píxel de predicción actual en el bloque actual en base al modo intraplanar usando 4 píxeles de referencia entre los píxeles de referencia vecinos,
en donde los 4 píxeles de referencia incluyen:
un primer píxel de referencia (1740) que se ubica en el lado izquierdo del bloque actual y ubicado en la misma fila que el píxel de predicción actual;
un segundo píxel de referencia (1725) que se ubica en un lado inferior del primer píxel de referencia y ubicado en la misma columna que el primer píxel de referencia;
un tercer píxel de referencia (1700) que se ubica en un lado superior del bloque actual y ubicado en la misma columna que el píxel de predicción actual; y
un cuarto píxel de referencia (1765) que se ubica en el lado derecho del tercer píxel de referencia y ubicado en la misma fila que el tercer píxel de referencia,
en donde el segundo píxel de referencia se ubica en el lado inferior de los píxeles de referencia izquierdos que son adyacentes al lado izquierdo de un límite izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en el lado derecho de los píxeles de referencia superiores que son adyacentes a un lado superior de un límite superior del bloque actual,
en donde el segundo píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje y en el lado izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje x en el lado superior del bloque actual, en donde el bloque actual es un bloque de tamaño N x N, en donde el valor de píxel de predicción actual se deriva en base a la interpolación bilineal utilizando un valor del primer píxel de referencia, un valor del segundo píxel de referencia, un valor del tercer píxel de referencia y un valor del cuarto píxel de referencia,
en donde la interpolación bilineal para el valor de píxel de predicción actual se calcula copiando el segundo píxel de referencia en una primera posición específica que bordea un límite inferior del bloque actual y se ubica en la misma columna que el píxel de predicción actual, y el cuarto píxel de referencia en un segunda posición específica que bordea un límite derecho del bloque actual y se ubica en la misma fila que el píxel de predicción actual, en donde el segundo píxel de referencia se ubica a lo largo de una dirección diagonal inferior izquierda con respecto a la primera posición específica, y el cuarto píxel de referencia se ubica a lo largo de una dirección diagonal superior derecha con respecto a la segunda posición específica.
2. El método de la reivindicación 1, en donde para el píxel de predicción actual que es adyacente al límite izquierdo del bloque actual, el segundo píxel de referencia se ubica en una posición de píxel de orden (N+1) con respecto al eje y en el lado izquierdo del bloque actual,
en donde una posición de píxel de orden N con respecto al eje y en el lado izquierdo del bloque actual es una posición de píxel más baja entre las posiciones de píxel de los píxeles de referencia izquierdos.
3. El método de la reivindicación 1, en donde para el píxel de predicción actual que es adyacente al límite superior del bloque actual, el cuarto píxel de referencia se ubica en una posición de píxel de orden (N+1) con respecto al eje x en el lado superior del bloque actual,
en donde una posición de píxel de orden N con respecto al eje x en el lado superior del bloque actual es una posición de píxel más a la derecha entre las posiciones de píxel de los píxeles de referencia superiores.
4. El método de la reivindicación 1, en donde el segundo píxel de referencia se ubica en la posición del píxel de orden 2N con respecto al eje y en el lado izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en la posición del píxel de orden 2n con respecto al eje x en el lado superior del bloque actual.
5. El método de la reivindicación 1, en donde el valor del píxel de predicción actual se deriva en base a la interpolación bilineal según una distancia entre el píxel de predicción actual y el primer píxel de referencia, una distancia entre el píxel de predicción actual y el segundo píxel de referencia, una distancia entre el píxel de predicción actual y el tercer píxel de referencia y una distancia entre el píxel de predicción actual y el cuarto píxel de referencia.
6. El método de la reivindicación 1, en donde el valor del píxel de predicción actual se deriva en base a la interpolación bilineal según una distancia horizontal entre el píxel de predicción actual y el primer píxel de referencia, una distancia horizontal entre el píxel de predicción actual y el cuarto píxel de referencia, una distancia vertical entre el píxel de predicción actual y el segundo píxel de referencia, y una distancia vertical entre el píxel de predicción actual y el tercer píxel de referencia.
7. El método de la reivindicación 1, en donde para el píxel de predicción actual ubicado en una primera columna del bloque actual, el segundo píxel de referencia se ubica en una posición de píxel de orden (N+1) con respecto al eje y en el lado izquierdo del bloque actual.
8. El método de la reivindicación 8, en donde para el píxel de predicción actual ubicado en una primera fila del bloque actual, el cuarto píxel de referencia se ubica en una posición de píxel de orden (N+1) con respecto al eje x en el lado superior del bloque actual.
9. Un método de intrapredicción que usa un modo intraplanar realizado por un aparato de codificación, el método que comprende:
determinar un modo de intrapredicción para un bloque actual como modo intraplanar;
derivar píxeles de referencia vecinos del bloque actual; y
generar un valor de píxel de predicción actual de un píxel de predicción actual en el bloque actual en base al modo intraplanar usando 4 píxeles de referencia entre los píxeles de referencia vecinos,
en donde los 4 píxeles de referencia incluyen:
un primer píxel de referencia (1740) que se ubica en el lado izquierdo del bloque actual y se ubica en la misma fila que el píxel de predicción actual;
un segundo píxel de referencia (1725) que se ubica en un lado inferior del primer píxel de referencia y se ubica en la misma columna que el primer píxel de referencia;
un tercer píxel de referencia (1700) que se ubica en un lado superior del bloque actual y se ubica en la misma columna que el píxel de predicción actual; y
un cuarto píxel de referencia (1765) que se ubica en el lado derecho del tercer píxel de referencia y se ubica en la misma fila que el tercer píxel de referencia,
en donde el segundo píxel de referencia se ubica en el lado inferior de los píxeles de referencia izquierdos que son adyacentes al lado izquierdo de un límite izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en el lado derecho de los píxeles de referencia superiores que son adyacentes a un lado superior de un límite superior del bloque actual,
en donde el segundo píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje y en el lado izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje x en el lado superior del bloque actual, en donde el bloque actual es un bloque de tamaño N x N,
en donde el valor del píxel de predicción actual se deriva en base a la interpolación bilineal utilizando un valor del primer píxel de referencia, un valor del segundo píxel de referencia, un valor del tercer píxel de referencia y un valor del cuarto píxel de referencia,
en donde la interpolación bilineal para el valor del píxel de predicción actual se calcula copiando el segundo píxel de referencia en una primera posición específica que bordea un límite inferior del bloque actual y se ubica en la misma columna que el píxel de predicción actual, y el cuarto píxel de referencia en una segunda posición específica que bordea un límite derecho del bloque actual y se ubica en la misma fila que el píxel de predicción actual,
en donde el segundo píxel de referencia se ubica a lo largo de una dirección diagonal inferior izquierda con respecto a la primera posición específica, y el cuarto píxel de referencia se ubica a lo largo de una dirección diagonal superior derecha con respecto a la segunda posición específica.
10. El método de la reivindicación 9, en donde para el píxel de predicción actual que es adyacente al límite izquierdo del bloque actual, el segundo píxel de referencia se ubica en una posición de píxel de orden (N+1) con respecto al eje y en el lado izquierdo del bloque actual,
en donde una posición de píxel de orden N con respecto al eje y en el lado izquierdo del bloque actual es una posición de píxel más baja entre las posiciones de píxel de los píxeles de referencia izquierdos.
11. El método de la reivindicación 9, en donde para el píxel de predicción actual que es adyacente al límite superior del bloque actual, el cuarto píxel de referencia se ubica en una posición de píxel de orden (N+1) con respecto al eje x en el lado superior del bloque actual,
en donde una posición de píxel de orden N con respecto al eje x en el lado superior del bloque actual es una posición de píxel más a la derecha entre las posiciones de píxel de los píxeles de referencia superiores.
12. El método de la reivindicación 9, en donde el segundo píxel de referencia se ubica en la posición del píxel de orden 2N con respecto al eje y en el lado izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en la posición del píxel de orden 2n con respecto al eje x en la parte superior del bloque actual.
13. El método de la reivindicación 9, en donde el valor del píxel de predicción actual se deriva en base a la interpolación bilineal según una distancia entre el píxel de predicción actual y el primer píxel de referencia, una distancia entre el píxel de predicción actual y el segundo píxel de referencia, una distancia entre el píxel de predicción actual y el tercer píxel de referencia y una distancia entre el píxel de predicción actual y el cuarto píxel de referencia.
14. Un medio de almacenamiento legible por ordenador que almacena un flujo de bits generado por un método, el método que comprende:
determinar un modo de intrapredicción para un bloque actual como un modo intraplanar;
derivar píxeles de referencia vecinos del bloque actual; y
generar un valor de píxel de predicción actual de un píxel de predicción actual en el bloque actual en base al modo intraplanar usando 4 píxeles de referencia entre los píxeles de referencia vecinos,
codificar información de imagen, incluyendo información sobre el modo de intrapredicción para generar el flujo de bits,
en donde los 4 píxeles de referencia incluyen:
un primer píxel de referencia (1740) que se ubica en el lado izquierdo del bloque actual y se ubica en la misma fila que el píxel de predicción actual;
un segundo píxel de referencia (1725) que se ubica en un lado inferior del primer píxel de referencia y se ubica en la misma columna que el primer píxel de referencia;
un tercer píxel de referencia (1700) que se ubica en un lado superior del bloque actual y se ubica en la misma columna que el píxel de predicción actual; y
un cuarto píxel de referencia (1765) que se ubica en el lado derecho del tercer píxel de referencia y se ubica en la misma fila que el tercer píxel de referencia,
en donde el segundo píxel de referencia se ubica en el lado inferior de los píxeles de referencia izquierdos que son adyacentes al lado izquierdo de un límite izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en el lado derecho de los píxeles de referencia superiores que son adyacentes a un lado superior de un límite superior del bloque actual,
en donde el segundo píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje y en el lado izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje x en el lado superior del bloque actual, en donde el bloque actual es un bloque de tamaño N x N, en donde el valor del píxel de predicción actual se deriva en base a la interpolación bilineal utilizando un valor del primer píxel de referencia, un valor del segundo píxel de referencia, un valor del tercer píxel de referencia y un valor del cuarto píxel de referencia,
en donde la interpolación bilineal para el valor del píxel de predicción actual se calcula copiando el segundo píxel de referencia en una primera posición específica que bordea un límite inferior del bloque actual y se ubica en la misma columna que el píxel de predicción actual, y el cuarto píxel de referencia en un segunda posición específica que bordea un límite derecho del bloque actual y se ubica en la misma fila que el píxel de predicción actual,
en donde el segundo píxel de referencia se ubica a lo largo de una dirección diagonal inferior izquierda con respecto a la primera posición específica, y el cuarto píxel de referencia se ubica a lo largo de una dirección diagonal superior derecha con respecto a la segunda posición específica.
15. Un método para transmitir datos para información de imagen, el método que comprende:
obtener un flujo de bits de la información de imagen que incluye información sobre un modo de intrapredicción, en donde el flujo de bits se genera en base a la determinación de un modo de intrapredicción para un bloque actual como un modo intraplanar, derivando píxeles de referencia vecinos del bloque actual, generando un valor de píxel de predicción actual de un píxel de predicción actual en el bloque actual en base al modo intraplanar usando 4 píxeles de referencia entre los píxeles de referencia vecinos, codificando la información de imagen que incluye la información sobre el modo de intrapredicción; y
transmitir los datos que comprenden el flujo de bits de la información de la imagen, incluyendo la información sobre el modo de intrapredicción,
en donde los 4 píxeles de referencia incluyen:
un primer píxel de referencia (1740) que se ubica en el lado izquierdo del bloque actual y se ubica en la misma fila que el píxel de predicción actual;
un segundo píxel de referencia (1725) que se ubica en un lado inferior del primer píxel de referencia y se ubica en la misma columna que el primer píxel de referencia;
un tercer píxel de referencia (1700) que se ubica en un lado superior del bloque actual y se ubica en la misma columna que el píxel de predicción actual; y
un cuarto píxel de referencia (1765) que se ubica en el lado derecho del tercer píxel de referencia y se ubica en la misma fila que el tercer píxel de referencia,
en donde el segundo píxel de referencia se ubica en el lado inferior de los píxeles de referencia izquierdos que son adyacentes al lado izquierdo de un límite izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en el lado derecho de los píxeles de referencia superiores que son adyacentes a un lado superior de un límite superior del bloque actual,
en donde el segundo píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje y en el lado izquierdo del bloque actual, y el cuarto píxel de referencia se ubica en una posición entre las posiciones de píxel de orden (N+1) hasta de orden 2N, inclusive, con respecto al eje x en el lado superior del bloque actual, en donde el bloque actual es un bloque de tamaño N x N, en donde el valor del píxel de predicción actual se deriva en base a una interpolación bilineal utilizando un valor del primer píxel de referencia, un valor del segundo píxel de referencia, un valor del tercer píxel de referencia y un valor del cuarto píxel de referencia,
en donde la interpolación bilineal para el valor del píxel de predicción actual se calcula copiando el segundo píxel de referencia en una primera posición específica que bordea un límite inferior del bloque actual y se ubica en la misma columna que el píxel de predicción actual, y el cuarto píxel de referencia en una segunda posición específica que bordea un límite derecho del bloque actual y se ubica en la misma fila que el píxel de predicción actual,
en donde el segundo píxel de referencia se ubica a lo largo de una dirección diagonal inferior izquierda con respecto a la primera posición específica, y el cuarto píxel de referencia se ubica a lo largo de una dirección diagonal superior derecha con respecto a la segunda posición específica.
ES11850923T 2010-12-22 2011-12-21 Método de intrapredicción y aparato que utiliza el método Active ES2934221T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201061426480P 2010-12-22 2010-12-22
US201161451121P 2011-03-10 2011-03-10
US201161471185P 2011-04-03 2011-04-03
US201161475636P 2011-04-14 2011-04-14
US201161476311P 2011-04-17 2011-04-17
PCT/KR2011/009954 WO2012087034A2 (ko) 2010-12-22 2011-12-21 화면 내 예측 방법 및 이러한 방법을 사용하는 장치

Publications (1)

Publication Number Publication Date
ES2934221T3 true ES2934221T3 (es) 2023-02-20

Family

ID=46314639

Family Applications (2)

Application Number Title Priority Date Filing Date
ES22194881T Active ES2955938T3 (es) 2010-12-22 2011-12-21 Intrapredicción en codificación de vídeo
ES11850923T Active ES2934221T3 (es) 2010-12-22 2011-12-21 Método de intrapredicción y aparato que utiliza el método

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES22194881T Active ES2955938T3 (es) 2010-12-22 2011-12-21 Intrapredicción en codificación de vídeo

Country Status (11)

Country Link
US (6) US9693054B2 (es)
EP (2) EP4124034B1 (es)
KR (3) KR101883932B1 (es)
CN (1) CN103283237B (es)
ES (2) ES2955938T3 (es)
FI (1) FI2658263T3 (es)
HR (1) HRP20230003T1 (es)
HU (2) HUE063154T2 (es)
PL (2) PL4124034T3 (es)
SI (1) SI2658263T1 (es)
WO (1) WO2012087034A2 (es)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103238320B (zh) * 2010-09-30 2016-06-01 三星电子株式会社 通过使用平滑插值滤波器对图像进行插值的方法和装置
CN103283237B (zh) * 2010-12-22 2017-03-22 Lg电子株式会社 帧内预测方法和使用该方法的设备
CN103299637B (zh) 2011-01-12 2016-06-29 三菱电机株式会社 图像编码装置、图像译码装置、图像编码方法以及图像译码方法
US9420294B2 (en) * 2011-02-23 2016-08-16 Lg Electronics Inc. Intra-prediction method using filtering, and apparatus using the method
HUE062143T2 (hu) * 2011-10-18 2023-09-28 Lg Electronics Inc Eljárások intra predikcióra, valamint tárolóközeg
WO2013111593A1 (ja) 2012-01-27 2013-08-01 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置
WO2014003421A1 (ko) * 2012-06-25 2014-01-03 한양대학교 산학협력단 비디오 부호화 및 복호화를 위한 방법
CN103152540B (zh) * 2013-03-11 2016-01-20 深圳创维-Rgb电子有限公司 分辨率转换方法及装置、超高清电视机
US9571809B2 (en) 2013-04-12 2017-02-14 Intel Corporation Simplified depth coding with modified intra-coding for 3D video coding
WO2014168643A1 (en) 2013-04-12 2014-10-16 Intel Corporation Coding unit size dependent simplified depth coding for 3d video coding
CN106063271B (zh) 2013-12-26 2019-09-03 三星电子株式会社 用于执行基于子块的预测的层间视频解码方法及其设备以及用于执行基于子块的预测的层间视频编码方法及其设备
US9504038B2 (en) 2014-12-25 2016-11-22 Intel Corporation Apparatus, method and system of communicating a wide-bandwidth data frame
US10645416B2 (en) * 2015-05-12 2020-05-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding an image using a modified distribution of neighboring reference pixels
WO2016200235A1 (ko) * 2015-06-11 2016-12-15 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2017018664A1 (ko) * 2015-07-28 2017-02-02 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN108353185B (zh) 2015-08-28 2022-09-13 株式会社Kt 用于处理视频信号的方法和设备
KR20180044943A (ko) * 2015-09-23 2018-05-03 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2017069505A1 (ko) * 2015-10-19 2017-04-27 엘지전자(주) 영상의 부호화/복호화 방법 및 이를 위한 장치
KR20180107097A (ko) * 2016-02-16 2018-10-01 삼성전자주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
KR102346713B1 (ko) * 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
WO2018034374A1 (ko) * 2016-08-19 2018-02-22 엘지전자(주) 인트라 예측 필터링을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
CN107801039B (zh) * 2016-08-30 2020-04-14 华为技术有限公司 运动补偿预测方法和装置
CN116980592A (zh) 2016-08-31 2023-10-31 株式会社Kt 用于处理视频信号的方法和设备
WO2018047995A1 (ko) * 2016-09-08 2018-03-15 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN116389728A (zh) 2016-09-20 2023-07-04 株式会社Kt 对视频进行解码和编码的方法以及传输方法
US10721479B2 (en) 2016-09-30 2020-07-21 Lg Electronics Inc. Intra prediction method and apparatus in image coding system
KR102228474B1 (ko) 2016-10-14 2021-03-16 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 코딩을 위한 디바이스들 및 방법들
CN109845263B (zh) * 2016-10-14 2021-07-16 华为技术有限公司 用于视频编码的设备和方法
WO2018105759A1 (ko) * 2016-12-05 2018-06-14 엘지전자(주) 영상 부호화/복호화 방법 및 이를 위한 장치
WO2018124850A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 예측 블록의 중복성을 고려한 화면 내 예측 방법 및 화면 내 예측을 수행하는 영상 복호화 장치
WO2018142795A1 (en) * 2017-01-31 2018-08-09 Sharp Kabushiki Kaisha Systems and methods for performing planar intra prediction video coding
WO2018174358A1 (ko) * 2017-03-21 2018-09-27 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2018174354A1 (ko) * 2017-03-21 2018-09-27 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
CN116614643A (zh) 2017-05-17 2023-08-18 株式会社Kt 用于解码视频的方法和用于编码视频的方法
EP3410724A1 (en) * 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for signalling bi-directional intra prediction in video encoding and decoding
WO2018219925A1 (en) * 2017-05-31 2018-12-06 Interdigital Vc Holdings, Inc. Method and apparatus for signalling bi-directional intra prediction in video encoding and decoding
WO2018236133A1 (ko) * 2017-06-19 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN111034196B (zh) 2017-08-21 2023-11-17 韩国电子通信研究院 用于对视频进行编码/解码的方法和设备以及存储比特流的记录介质
CN107302689B (zh) * 2017-08-24 2018-05-18 北京顺顺通科技有限公司 枪式摄像机自适应开关系统
CN107392942B (zh) * 2017-08-28 2018-06-05 广州文冠信息科技有限公司 人体目标实时分析系统
CN107563321B (zh) * 2017-08-28 2018-07-13 深圳市奥丝卡生物科技有限公司 一种人体目标实时分析方法
KR20230045102A (ko) 2017-09-28 2023-04-04 삼성전자주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
US20190110052A1 (en) * 2017-10-06 2019-04-11 Futurewei Technologies, Inc. Bidirectional intra prediction
US10484695B2 (en) 2017-10-23 2019-11-19 Google Llc Refined entropy coding for level maps
US11070831B2 (en) 2017-11-30 2021-07-20 Lg Electronics Inc. Method and device for processing video signal
US10869060B2 (en) * 2018-01-30 2020-12-15 Google Llc Efficient context model computation design in transform coefficient coding
US11483564B2 (en) 2018-03-19 2022-10-25 Kt Corporation Method and apparatus for video signal processing determining reference sample lines for a prediction target sample
KR20240055111A (ko) * 2018-03-30 2024-04-26 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치
US10645381B2 (en) 2018-04-30 2020-05-05 Google Llc Intra-prediction for smooth blocks in image/video
CN112272950A (zh) * 2018-06-18 2021-01-26 交互数字Vc控股公司 帧内预测中的平面和dc模式的边界滤波
CN112954349A (zh) * 2018-06-21 2021-06-11 株式会社Kt 用于处理视频信号的方法和设备
CN116132668A (zh) * 2018-08-09 2023-05-16 Oppo广东移动通信有限公司 视频图像分量的预测方法和装置、及计算机存储介质
US11159789B2 (en) 2018-10-24 2021-10-26 City University Of Hong Kong Generative adversarial network based intra prediction for video coding
WO2020125804A1 (en) * 2018-12-21 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Inter prediction using polynomial model
CN110072112B (zh) * 2019-03-12 2023-05-12 浙江大华技术股份有限公司 帧内预测方法、编码器及存储装置
CN113170101A (zh) * 2019-03-12 2021-07-23 Oppo广东移动通信有限公司 帧内预测方法及装置、计算机可读存储介质
US11640649B2 (en) * 2019-06-19 2023-05-02 Samsung Electronics Co., Ltd. Methods and apparatus for efficient range calculation
US11277616B2 (en) * 2019-06-20 2022-03-15 Qualcomm Incorporated DC intra mode prediction in video coding
US11388419B2 (en) * 2020-02-05 2022-07-12 Apple Inc. Smoothed directional and DC intra prediction
US11962784B2 (en) 2020-09-23 2024-04-16 Ofinno, Llc Intra prediction
WO2024039132A1 (ko) * 2022-08-18 2024-02-22 삼성전자 주식회사 영상 복호화 장치 및 방법, 및 영상 부호화 장치 및 방법

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100281967B1 (ko) 1998-08-31 2001-02-15 전주범 공간 상관성을 이용한 영상 부호화 장치 및 그 방법
US7649943B2 (en) * 2000-04-21 2010-01-19 Microsoft Corporation Interface and related methods facilitating motion compensation in media processing
ES2745044T3 (es) * 2002-04-19 2020-02-27 Panasonic Ip Corp America Método de cálculo de vectores de movimiento
US7289674B2 (en) * 2002-06-11 2007-10-30 Nokia Corporation Spatial prediction based intra coding
BRPI0413647A (pt) * 2003-08-26 2006-10-17 Thomson Licensing método e aparelho para codificar blocos intra-inter codificados hìbridos
KR100723403B1 (ko) 2005-02-28 2007-05-30 삼성전자주식회사 컬러 성분간 단일 부호화 모드를 이용한 예측영상 생성 방법 및 장치와, 그를 이용한 영상 및 비디오 부호화/복호화방법 및 장치
KR100703200B1 (ko) 2005-06-29 2007-04-06 한국산업기술대학교산학협력단 인트라 부호화 장치 및 방법
JP2007259306A (ja) * 2006-03-24 2007-10-04 Univ Waseda 予測器及び画像符号化器
JP4802944B2 (ja) * 2006-08-31 2011-10-26 大日本印刷株式会社 補間演算装置
US8650238B2 (en) * 2007-11-28 2014-02-11 Qualcomm Incorporated Resolving buffer underflow/overflow in a digital system
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
KR20090097688A (ko) * 2008-03-12 2009-09-16 삼성전자주식회사 영상의 인트라 예측 부호화/복호화 방법 및 장치
KR101596829B1 (ko) * 2008-05-07 2016-02-23 엘지전자 주식회사 비디오 신호의 디코딩 방법 및 장치
KR101361005B1 (ko) * 2008-06-24 2014-02-13 에스케이 텔레콤주식회사 인트라 예측 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8982961B2 (en) * 2010-04-05 2015-03-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using transformation index, and method and apparatus for decoding video by using transformation index
US9049450B2 (en) * 2010-04-05 2015-06-02 Samsung Electronics Co., Ltd. Method and apparatus for encoding video based on internal bit depth increment, and method and apparatus for decoding video based on internal bit depth increment
CN102972028B (zh) * 2010-05-17 2015-08-12 Lg电子株式会社 新的帧内预测模式
PL2391129T3 (pl) * 2010-05-25 2019-04-30 Lg Electronics Inc Nowy tryb predykcji planarnej
US8917774B2 (en) * 2010-06-30 2014-12-23 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion
US20120134425A1 (en) * 2010-11-29 2012-05-31 Faouzi Kossentini Method and System for Adaptive Interpolation in Digital Video Coding
CN103283237B (zh) * 2010-12-22 2017-03-22 Lg电子株式会社 帧内预测方法和使用该方法的设备
WO2012093377A1 (en) * 2011-01-07 2012-07-12 Nokia Corporation Motion prediction in video coding
WO2012097376A1 (en) * 2011-01-14 2012-07-19 General Instrument Corporation Spatial block merge mode
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
CN107360420B (zh) * 2011-02-09 2020-11-06 Lg 电子株式会社 一种图像解码装置和图像编码装置
US20130329797A1 (en) * 2011-02-25 2013-12-12 Panasonic Corporation Image coding method and image decoding method
EP2685722A4 (en) * 2011-03-11 2014-09-03 Samsung Electronics Co Ltd METHOD AND DEVICE FOR ENCRYPTION OF IMAGES AND METHOD AND DEVICE FOR DECOMPOSING IMAGES
US9288500B2 (en) * 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
PL3474551T3 (pl) * 2011-09-22 2022-07-04 Lg Electronics Inc. Sposób predykcji międzyobrazowej wykonywany przez urządzenie dekodujące, sposób kodowania wideo wykonywany przez urządzenie kodujące i odczytywalny przez dekoder nośnik zapisu przechowujący zakodowaną informację wideo.
US9883203B2 (en) * 2011-11-18 2018-01-30 Qualcomm Incorporated Adaptive overlapped block motion compensation
US9451277B2 (en) * 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9426463B2 (en) * 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9143781B2 (en) * 2012-04-03 2015-09-22 Qualcomm Incorporated Weighted prediction parameter coding
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US9635356B2 (en) * 2012-08-07 2017-04-25 Qualcomm Incorporated Multi-hypothesis motion compensation for scalable video coding and 3D video coding
KR102257542B1 (ko) * 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9693060B2 (en) * 2012-11-16 2017-06-27 Qualcomm Incorporated Device and method for scalable coding of video information
US9948939B2 (en) * 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9800857B2 (en) * 2013-03-08 2017-10-24 Qualcomm Incorporated Inter-view residual prediction in multi-view or 3-dimensional video coding
US9491460B2 (en) * 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
US9554152B2 (en) * 2013-07-12 2017-01-24 Qualcomm Incorporated Concurrent processing of horizontal and vertical transforms
US9451254B2 (en) * 2013-07-19 2016-09-20 Qualcomm Incorporated Disabling intra prediction filtering
US9560358B2 (en) * 2013-07-22 2017-01-31 Qualcomm Incorporated Device and method for scalable coding of video information
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
US10362336B2 (en) * 2014-03-25 2019-07-23 Qualcomm Incorporated Palette predictor signaling with run length code for video coding

Also Published As

Publication number Publication date
US20170280157A1 (en) 2017-09-28
HUE063154T2 (hu) 2023-12-28
HUE060871T2 (hu) 2023-04-28
US20200228829A1 (en) 2020-07-16
EP2658263A4 (en) 2016-12-28
CN103283237A (zh) 2013-09-04
WO2012087034A2 (ko) 2012-06-28
CN103283237B (zh) 2017-03-22
KR20130133250A (ko) 2013-12-06
US9693054B2 (en) 2017-06-27
US10609410B2 (en) 2020-03-31
KR101883932B1 (ko) 2018-07-31
SI2658263T1 (sl) 2023-03-31
EP4124034A1 (en) 2023-01-25
KR101774392B1 (ko) 2017-09-04
EP2658263B1 (en) 2022-12-14
US20180124426A1 (en) 2018-05-03
KR20150140848A (ko) 2015-12-16
US20190089980A1 (en) 2019-03-21
FI2658263T3 (fi) 2023-01-13
EP2658263A2 (en) 2013-10-30
US9860557B2 (en) 2018-01-02
EP4124034B1 (en) 2023-08-23
US11622129B2 (en) 2023-04-04
US10136158B2 (en) 2018-11-20
HRP20230003T1 (hr) 2023-02-17
PL4124034T3 (pl) 2024-01-03
KR101579356B1 (ko) 2015-12-21
US20130272405A1 (en) 2013-10-17
US20210235115A1 (en) 2021-07-29
ES2955938T3 (es) 2023-12-11
KR20170102385A (ko) 2017-09-08
WO2012087034A3 (ko) 2012-09-07
PL2658263T3 (pl) 2023-03-13
US11006145B2 (en) 2021-05-11

Similar Documents

Publication Publication Date Title
ES2934221T3 (es) Método de intrapredicción y aparato que utiliza el método
ES2948265T3 (es) Método de codificación/descodificación de señales de imagen y aparato para el mismo
ES2719132B1 (es) Procedimiento y dispositivo para procesar señales de vídeo
ES2699723B2 (es) Metodo y aparato para tratar una senal de video
ES2705331B1 (es) Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
ES2699749B2 (es) Método y aparato para procesar una señal de vídeo
ES2933424T3 (es) Método de predicción intra para bloques de crominancia
CN109792515A (zh) 图像编码/解码方法和装置以及存储比特流的记录介质
CN110024394A (zh) 对图像编码/解码的方法和设备及存储比特流的记录介质
CN110024402A (zh) 图像编码/解码方法和装置以及存储有比特流的记录介质