ES3015229T3 - Method of decoding an intra coded prediction unit - Google Patents

Method of decoding an intra coded prediction unit Download PDF

Info

Publication number
ES3015229T3
ES3015229T3 ES18150753T ES18150753T ES3015229T3 ES 3015229 T3 ES3015229 T3 ES 3015229T3 ES 18150753 T ES18150753 T ES 18150753T ES 18150753 T ES18150753 T ES 18150753T ES 3015229 T3 ES3015229 T3 ES 3015229T3
Authority
ES
Spain
Prior art keywords
mode
intra prediction
prediction mode
unit
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18150753T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gensquare LLC
Original Assignee
Gensquare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48191356&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES3015229(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Gensquare LLC filed Critical Gensquare LLC
Application granted granted Critical
Publication of ES3015229T3 publication Critical patent/ES3015229T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Se proporciona un método que construye un grupo MPM con tres modos de intrapredicción, determina el modo de intrapredicción del grupo MPM especificado por el índice de modo de predicción como el modo de intrapredicción de la unidad de predicción actual si el indicador de grupo de modos indica el grupo MPM, y deriva el modo de intrapredicción de la unidad de predicción actual utilizando el índice de modo de predicción y los tres modos de predicción del grupo MPM si el indicador de grupo de modos no indica el grupo MPM. Por consiguiente, se reducen eficazmente los bits adicionales resultantes del aumento del número de modos de intrapredicción. Además, se puede mejorar la relación de compresión de la imagen generando un bloque de predicción similar al bloque original. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método de decodificación de una unidad de predicción intra codificada
Campo técnico
La presente invención se refiere a un método de decodificación de una unidad de predicción intra codificada para derivar un bloque reconstruido.
Técnica anterior
En procedimientos de compresión de imágenes tales como MPEG-1, MPEG-2, MPEG-4 y H.264/MPEG-4 AVC, una imagen se divide en macro-bloques para codificar una imagen. Entonces, los macro-bloques respectivos se codifican utilizando la inter predicción o la intra predicción.
En la intra predicción, se codifica un bloque actual de la imagen sin utilizar una imagen de referencia, sino que se utilizan valores de píxeles reconstruidos que son espacialmente adyacentes al bloque actual. Se selecciona un modo de predicción óptimo con poca distorsión de entre una pluralidad de modos de intra predicción comparando un bloque de predicción generado utilizando los valores de píxeles adyacentes con un bloque original. Luego, se calculan valores de predicción del bloque actual utilizando el modo de intra predicción que se ha seleccionado y los valores de píxeles adyacentes. Se calculan diferencias entre los valores de predicción y los valores de píxeles del bloque actual original y luego se codifican mediante codificación de transformación, cuantificación y codificación de entropía. El modo de intra predicción también es codificado.
De acuerdo con el estándar H.264, hay nueve modos en la intra predicción 4x4. Los nueve modos son un modo vertical, un modo horizontal, un modo D<c>(modo de componente continua), un modo en diagonal hacia abajo a la izquierda, un modo en diagonal hacia abajo a la derecha, un modo vertical hacia la derecha, un modo vertical hacia la izquierda, un modo horizontal hacia arriba y un modo horizontal hacia abajo. Se selecciona un modo de entre los nueve modos para generar un bloque de predicción del bloque actual, y se transmite la información del modo al decodificador.
En el estándar HEVC en desarrollo, el número de modos de intra predicción aumenta a 18 o 35, el tamaño de la unidad de codificación se encuentra entre 8x8 y 128x128. La unidad de codificación tiene un propósito similar al macro-bloque de H.264/AVC.
En consecuencia, si el modo de intra predicción se codifica utilizando el mismo procedimiento de H.264/AVC, la eficacia de codificación se deteriora debido a que el número de modos de intra predicción es mayor que el de H.264/AVC. Además, a medida que aumenta el tamaño de la unidad de codificación y aumenta el número de modos de intra predicción, deben modificarse el procedimiento de cuantificación y el procedimiento de exploración para mejorar la eficacia de la codificación.
W-J Chien et al, "Parsing friendly intra mode coding", 6. JCT-VC Meeting; 97. MPEG Meeting; 14-7-2011 - 22-7-2011; Turín; (Joint Collaborative Team on Video Coding of 1SO/IEC JTC1/SC29/WG11 e ITU-T SG.16) divulga un procedimiento de codificación para el modo de intra predicción para abordar problemas en el proceso de análisis(parsing).Durante el proceso de análisis, el procedimiento propuesto no depende de la información vecina, por lo que no se necesita almacenamiento de memoria adicional. Los resultados de la simulación muestran una ganancia promedio de rendimiento de un 0,2% en configuraciones solo intra.
Thomas Wiegand ET AL, ''WD3: Working Draft 3 of High-Efficiency Video Coding (JCTVC-E603)", (20110627) divulga una técnica relacionada con HEVC, la creciente necesidad de una mayor compresión de imágenes en movimiento para diversas aplicaciones tales como videoconferencia, medios de almacenamiento digital, etc. Los algoritmos de codificación pueden seleccionar entre inter e intra codificación para regiones en forma de bloque en cada imagen. La inter codificación usa vectores de movimiento para la inter predicción basada en bloques para explotar dependencias estadísticas temporales entre diferentes imágenes. La intra codificación usa varios modos de predicción espacial para explotar dependencias estadísticas espaciales en la señal de origen para una sola imagen. Los vectores de movimiento y los modos de intra predicción pueden especificarse para una diversidad de tamaños de bloques en la imagen. El residuo de la predicción se comprime después utilizando una transformación para eliminar la correlación espacial dentro del bloque de transformación antes de su cuantificación, produciendo un proceso irreversible que normalmente descarta información visual menos importante mientras forma una aproximación cercana a las muestras de origen. Finalmente, se combinan los vectores de movimiento o los modos de intra predicción con la información de coeficiente de transformación cuantificada y se realiza su codificación usando una codificación de longitud variable o codificación aritmética.
Chen (BOG Coordinator) J, "BoG report on intra mode coding with fixed number of MPM candidates", 6. JCT-VC Meeting; 97. MPEG Meeting; 14-7-2011 - 22-7-2011; Turín; (Joint Collaborative Team on Video Coding of ISO/IEC JTC1/SC29/WG11 e ITU-T SG.16) divulga una técnica relacionada con el desacoplamiento del análisis y la reconstrucción del modo intra usando un número fijo de candidatos MPM con un cambio mínimo (denominado 2MpM). Zou F et al, "Planar Mode Mapping for lntra Mode Coding", 6. JCT-VC Meeting; 97. MPEG Meeting; 14-7-2011 - 22-7 2011; Turín; (Joint Collaborative Team on Video Coding of 1SO/IEC JTC1/SC29/WG11 e ITU-T SG.16) divulga un esquema de selección de palabra de código para modo plano. El esquema permite que se mapee el modo plano al modo 2 en primer lugar, y a continuación decide si los modos más probables van a predecirlo correctamente. Si los modos más probables no pueden predecir el modo actual correctamente, y los dos modos más probables son diferentes, se remapea el modo plano al modo con la palabra de código máxima permitida. Al hacer esto, no hay necesidad de transmitir la bandera DC Planar en este caso. De lo contrario, se aplica el esquema IIEM3.0 original. El esquema se implementa en IIM3.0, logrando una reducción de tasa de bits del 0,1 % promedio para intra IIE sin efecto sobre el tiempo de codificación y decodificación. Los resultados se verificaron por Motorola Mobility en F572.
Por lo tanto, es el objeto de la invención proporcionar un método mejorado de decodificación de una unidad de predicción intra codificada para derivar un bloque reconstruido.
Este objeto se resuelve por la materia objeto de las reivindicaciones independientes. Se definen realizaciones preferidas por las reivindicaciones dependientes.
Un aspecto de la presente invención proporciona un método para derivar un modo de intra predicción de una unidad de predicción actual, que comprende: decodificar por entropía un indicador de grupo de modos y un índice de modo de predicción, construir un grupo de MPM que incluye tres modos de intra predicción, determinar si el indicador de grupo de modos indica o no indica el grupo de MPM, determinar un modo de intra predicción del grupo de MPM especificado por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual si el indicador de grupo de modos indica el grupo de MPM, y derivar el modo de intra predicción de la unidad de predicción actual utilizando el índice de modo de predicción y los tres modos de predicción del grupo de MPM si el indicador de grupo de modos no indica el grupo de MPM.
Efectos ventajosos
Un procedimiento según un ejemplo construye un grupo de MPM que incluye tres modos de intra predicción, determina el modo de intra predicción del grupo de MPM especificado por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual si el indicador de grupo de modos indica el grupo de MPM, y deriva el modo de intra predicción de la unidad de predicción actual utilizando el índice de modo de predicción y los tres modos de predicción del grupo de MPM si el indicador de grupo de modos no indica el grupo de MPM. Por lo tanto, se mejora la eficiencia de codificación del modo de intra predicción codificando el modo de intra predicción del bloque actual utilizando una pluralidad de candidatos más probables. Además, se mejora la eficiencia de codificación del modo de intra predicción generando el bloque de predicción muy similar a un bloque original y minimizando la cantidad de bits necesarios para codificar el bloque residual.
Descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según un ejemplo.
La figura 2 es un diagrama conceptual que ilustra modos de intra predicción según un ejemplo.
La figura 3 es un diagrama de bloques de un aparato de decodificación de imágenes según un ejemplo.
La figura 4 es un diagrama de flujo que ilustra un procedimiento para generar un bloque de predicción en la intra predicción según un ejemplo.
La figura 5 es un diagrama de flujo que ilustra un procedimiento para restablecer el modo de intra predicción según un ejemplo.
La figura 6 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia de un bloque actual según un ejemplo.
La figura 7 es un diagrama de bloques que ilustra un aparato para generar un bloque de predicción en la inter predicción según un ejemplo.
Modo para la invención
A continuación, se describirán en detalle varias realizaciones de la presente invención con referencia a los dibujos adjuntos.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según un ejemplo.
Con referencia a la figura 1, el aparato de codificación de imágenes 100 según el presente ejemplo incluye una unidad de división de imágenes 101, una unidad de transformación 103, una unidad de cuantificación 104, una unidad de exploración 105, una unidad de codificación de entropía 106, una unidad de cuantificación inversa 107, una unidad de transformación inversa 108, una unidad de post procesamiento 110, una unidad de almacenamiento de imágenes 111, una unidad de intra predicción 112, una unidad de inter predicción 113, un sustractor 102 y un agregador 109.
La unidad de división de imágenes 101 divide una imagen o una porción en una pluralidad de unidades de codificación (Largest Coding Unit, LCU) más grandes, y divide cada LCU en una o más unidades de codificación. La unidad de división de imágenes 101 determina el modo de predicción de cada unidad de codificación y un tamaño de unidad de predicción y un tamaño de unidad de transformación.
Una LCU incluye una o más unidades de codificación. La LCU tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de codificación es incluida en un conjunto de parámetros de secuencia. La estructura de división es especificada por una o más banderas de división de unidad de codificación (split_cu_flags). La unidad de codificación tiene un tamaño de 2Nx2N.
Una unidad de codificación incluye una o más unidades de predicción. En la intra predicción, el tamaño de la unidad de predicción es 2Nx2N o NxN. En la inter predicción, el tamaño de la unidad de predicción es 2Nx2N, 2NxN, Nx2N o NxN. Cuando la unidad de predicción es una partición asimétrica de la inter predicción, el tamaño de la unidad de predicción también puede ser uno de entre hNx2N, (2-h)Nx2N, 2NxhN y 2Nx(2-h)N. El valor de h es 1/2.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La estructura de división es especificada por una o más banderas de división de unidad de transformación (split_tu_flags). La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de transformación es incluida en un conjunto de parámetros de secuencia.
La unidad de intra predicción 112 determina un modo de intra predicción de una unidad de predicción actual y genera uno o más bloques de predicción usando el modo de intra predicción. El bloque de predicción tiene el mismo tamaño de la unidad de transformación. La unidad de intra predicción 112 genera píxeles de referencia si no hay píxeles de referencia de un bloque actual disponibles, filtra de forma adaptativa los píxeles de referencia del bloque actual según el tamaño del bloque actual y el modo de intra predicción, y genera un bloque de predicción del bloque actual. El bloque actual tiene el mismo tamaño del bloque de predicción.
La figura 2 es un diagrama conceptual que ilustra los modos de intra predicción según un ejemplo.
Como se muestra en la figura 2, el número de modos de intra predicción es 35. El modo DC y el modo plano son modos de intra predicción no direccionales y los otros son modos de intra predicción direccionales.
La unidad de inter predicción 113 determina información de movimiento de la unidad de predicción actual utilizando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 111, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de imagen de referencia que indican las imágenes de referencia y uno o más vectores de movimiento.
La unidad de transformación 103 transforma señales residuales generadas utilizando un bloque original y un bloque de predicción para generar un bloque transformado. Las señales residuales se transforman en unidades de transformación. Un tipo de transformación es determinado por el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación es una transformación de enteros basada en DCT (transformada discreta del coseno) o una transformación de enteros basada en DST (transformada discreta del seno).
La unidad de cuantificación 104 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación es determinado por cada unidad de cuantificación que tiene un tamaño igual o mayor que un tamaño de referencia. Una unidad de cuantificación del tamaño de referencia se denomina unidad de cuantificación mínima. Si el tamaño de la unidad de codificación es igual o mayor que el tamaño de referencia, la unidad de codificación se convierte en la unidad de cuantificación. Se puede incluir una pluralidad de unidades de codificación en la unidad de cuantificación mínima. El tamaño de referencia es determinado por una imagen y se incluye en el conjunto de parámetros de la imagen.
La unidad de cuantificación 104 genera un predictor de parámetro de cuantificación y genera un parámetro de cuantificación diferencial restando el predictor del parámetro de cuantificación al parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado y transmitido al decodificador. Si no hay señales residuales a transmitir en la unidad de codificación, puede no transmitirse el parámetro de cuantificación diferencial de la unidad de codificación.
El predictor de parámetro de cuantificación se genera utilizando parámetros de cuantificación de unidades de codificación vecinas y/o un parámetro de cuantificación de una unidad de codificación previa.
La unidad de cuantificación 104 recupera secuencialmente un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación previo en este orden. Se establece un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden como el predictor del parámetro de cuantificación cuando al menos dos parámetros de cuantificación están disponibles. Cuando solo está disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor del parámetro de cuantificación. El parámetro de cuantificación izquierdo es un parámetro de cuantificación de la unidad de codificación vecina izquierda. El parámetro de cuantificación superior es un parámetro de cuantificación de la unidad de codificación vecina superior. El parámetro de cuantificación previo es un parámetro de cuantificación de una unidad de codificación previa en orden de codificación.
La unidad de cuantificación 104 cuantifica el bloque transformado utilizando una matriz de cuantificación y el parámetro de cuantificación para generar un bloque cuantificado. Se proporciona el bloque cuantificado a la unidad de cuantificación inversa 107 y a la unidad de exploración 105.
La unidad de exploración 105 determina un patrón de exploración y aplica el patrón de exploración al bloque cuantificado. Cuando se utiliza CABAC (codificación aritmética binaria adaptable al contexto) para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
En la intra predicción, el patrón de exploración es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El patrón de exploración se selecciona de entre una exploración en diagonal, una exploración vertical y una exploración horizontal. Los coeficientes de transformación cuantificados del bloque cuantificado se dividen en coeficientes significativos, banderas de signo y niveles. El patrón de exploración se aplica a los coeficientes significativos, banderas de signo y niveles, respectivamente.
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de intra predicción. El primer tamaño es 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción.
En la inter predicción, se utiliza un patrón de exploración predeterminado. El patrón de exploración predeterminado es la exploración en diagonal.
Cuando el tamaño de la unidad de transformación es mayor que un segundo tamaño, el bloque cuantificado se divide en una pluralidad de subconjuntos y es explorado. El segundo tamaño es 4x4. El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto son explorados en la dirección inversa. Los subconjuntos también son explorados en la dirección inversa.
La última posición diferente de cero es codificada y transmitida al decodificador. La última posición diferente de cero especifica la posición del último coeficiente de transformación cuantificado diferente de cero dentro de la unidad de transformación.
Se determinan y codifican banderas de subconjuntos diferentes de cero. La bandera de subconjunto diferente de cero indica si el subconjunto contiene o no contiene coeficientes diferentes de cero. La bandera de subconjunto diferente de cero no se define para un subconjunto que cubra un coeficiente de DC ni un subconjunto que cubra el último coeficiente diferente de cero.
La unidad de cuantificación inversa 107 cuantifica inversamente los coeficientes de transformación cuantificados del bloque cuantificado.
La unidad de transformación inversa 108 transforma inversamente el bloque cuantificado inverso para generar señales residuales del dominio espacial.
El agregador 109 genera un bloque reconstruido agregando el bloque residual y el bloque de predicción.
La unidad de post procesamiento 110 realiza un proceso de filtrado de desbloqueo para eliminar un artefacto de bloqueo generado en una imagen reconstruida.
La unidad de almacenamiento de imágenes 111 recibe una imagen post procesada desde la unidad de post procesamiento 110, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma(frame)o un campo.
La unidad de codificación de entropía 106 codifica por entropía la información de coeficiente unidimensional recibida desde la unidad de exploración 105, información de intra predicción recibida desde la unidad de intra predicción 112, información de movimiento recibida desde la unidad de inter predicción 113, etcétera.
La figura 3 es un diagrama de bloques de un aparato de decodificación de imágenes 200 según un ejemplo.
El aparato de decodificación de imágenes 200 según el presente ejemplo incluye una unidad de decodificación de entropía 201, una unidad de exploración inversa 202, una unidad de cuantificación inversa 203, una unidad de transformación inversa 204, un agregador 205, una unidad de post procesamiento 206, una unidad de almacenamiento de imágenes 207, una unidad de intra predicción 208 y una unidad de inter predicción 209.
La unidad de decodificación de entropía 201 extrae la información de intra predicción, la información de inter predicción y la información de coeficiente unidimensional de un flujo de bits(bit stream)recibido. La unidad de decodificación de entropía 201 transmite la información de inter predicción a la unidad de inter predicción 209, la información de intra predicción a la unidad de intra predicción 208 y la información de coeficiente a la unidad de exploración inversa 202.
La unidad de exploración inversa 202 usa un patrón de exploración inversa para generar dos bloques cuantificados dimensionales. Se supone que se utiliza CABAC como procedimiento de codificación de entropía. El patrón de exploración inversa es uno de entre la exploración en diagonal, la exploración vertical y la exploración horizontal.
En la intra predicción, el patrón de exploración inversa es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El patrón de exploración inversa es seleccionado de entre la exploración en diagonal, la exploración vertical y la exploración horizontal. El patrón de exploración inversa seleccionado es aplicado a los coeficientes significativos, las banderas de signo y los niveles que generan respectivamente el bloque cuantificado.
Cuando el tamaño de la unidad de transformación es igual o menor que el primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de intra predicción. El primer tamaño es 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción.
En la inter predicción, se usa la exploración en diagonal.
Cuando el tamaño de la unidad de transformación es mayor que el segundo tamaño, los coeficientes significativos, las banderas de signo y los niveles son explorados inversamente en la unidad del subconjunto para generar subconjuntos. Y los subconjuntos son explorados inversamente para generar el bloque cuantificado. El segundo tamaño es 4x4.
El patrón de exploración inversa utilizado para generar cada subconjunto es el mismo que el patrón de exploración inversa utilizado para generar el bloque cuantificado. Los coeficientes significativos, las banderas de signo y los niveles son explorados en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
La última posición diferente de cero y las banderas de subconjunto diferente de cero son recibidas procedentes del codificador. La última posición de coeficiente diferente de cero se utiliza para determinar el número de subconjuntos a generar. Las banderas de subconjunto diferente de cero se utilizan para determinar los subconjuntos a generar aplicando el patrón de exploración inversa. El subconjunto que cubre el coeficiente DC y el subconjunto que cubre el último coeficiente diferente de cero se generan usando el patrón de exploración inversa porque las banderas de subconjunto diferente de cero para un subconjunto que cubre el coeficiente DC y un subconjunto que cubre el último coeficiente diferente de cero no son transmitidas.
La unidad de cuantificación inversa 203 recibe el parámetro de cuantificación diferencial desde la unidad de decodificación de entropía 201 y genera el predictor del parámetro de cuantificación. El predictor del parámetro de cuantificación se genera a través de la misma operación de la unidad de cuantificación 104 de la figura 1. Entonces, la unidad de cuantificación inversa 203 agrega el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación actual. Si la unidad de codificación actual es igual a o mayor que la unidad de cuantificación mínima y no se recibe el parámetro de cuantificación diferencial para la unidad de codificación actual desde el codificador, se determina el parámetro de cuantificación diferencial igual a 0.
La unidad de cuantificación inversa 203 cuantifica inversamente el bloque cuantificado.
La unidad de transformación inversa 204 transforma inversamente el bloque cuantificado inversamente para restablecer un bloque residual. El tipo de transformación inversa es determinado de forma adaptativa según el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST.
La unidad de intra predicción 208 restablece el modo de intra predicción de la unidad de predicción actual utilizando la información de intra predicción recibida, y genera un bloque de predicción según el modo de intra predicción restablecido. El bloque de predicción tiene el mismo tamaño de la unidad de transformación. La unidad de intra predicción 208 genera píxeles de referencia en el caso de píxeles de referencia no disponibles del bloque actual, y filtra de forma adaptativa los píxeles de referencia del bloque actual según el tamaño del bloque actual y el modo de intra predicción. El bloque actual tiene el mismo tamaño de la unidad de transformación.
La unidad de inter predicción 209 restablece la información de movimiento de la unidad de predicción actual usando la información de inter predicción recibida, y genera un bloque de predicción usando la información de movimiento.
La unidad de post procesamiento 206 funciona igual que la unidad de post procesamiento 110 de la figura 1.
La unidad de almacenamiento de imágenes 207 recibe una imagen post procesada desde la unidad de post procesamiento 206, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o un campo.
El agregador 205 agrega el bloque residual restablecido y un bloque de predicción para generar un bloque reconstruido.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de generar un bloque de predicción en la intra predicción según un ejemplo.
La información de intra predicción de la unidad de predicción actual es decodificada por entropía (S110).
La información de intra predicción incluye un indicador de grupo de modos y un índice de modo de predicción. El indicador de grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intra predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra predicción de la unidad de predicción actual pertenece a un grupo de modos residuales. El grupo de modos residuales incluye todos los modos de intra predicción que no son modos de intra predicción pertenecientes al grupo de MPM. El índice de modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
El modo de intra predicción de la unidad de predicción actual se deriva utilizando la información de intra predicción (S120).
La figura 5 es un diagrama de flujo que ilustra un procedimiento de derivar el modo de intra predicción según un ejemplo. El modo de intra predicción de la unidad de predicción actual se deriva utilizando las siguientes etapas ordenadas.
El grupo de MPM se construye utilizando los modos de intra predicción de las unidades de predicción vecinas (S121). Los modos de intra predicción del grupo de MPM se determinan de forma adaptativa mediante un modo de intra predicción izquierdo y un modo de intra predicción superior. El modo de intra predicción izquierdo es el modo de intra predicción de la unidad de predicción vecina izquierda, y el modo de intra predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intra predicción.
Si la unidad de predicción vecina izquierda o superior no existe, el modo de intra predicción de la unidad vecina izquierda o superior se establece como no disponible. Por ejemplo, si la unidad de predicción actual se encuentra en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior se encuentra dentro de otra porción u otro recuadro, el modo de intra predicción de la unidad vecina izquierda o superior se establece como no disponible. Si la unidad vecina izquierda o superior está inter codificada, el modo de intra predicción de la unidad vecina izquierda o superior se establece como no disponible. Si la unidad vecina superior se encuentra dentro de otra LCU, el modo de intra predicción de la unidad vecina izquierda o superior se puede establecer como no disponible.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son diferentes entre sí, el modo de intra predicción izquierdo y el modo de intra predicción superior se incluyen en el grupo de MPM y se agrega un modo de intra predicción adicional al grupo de MPM. Se asigna el índice 0 a un modo de intra predicción con número de modo pequeño y se asigna el índice 1 al otro. Alternativamente, el índice 0 puede asignarse al modo de intra predicción izquierdo y el índice 1 puede asignarse al modo de intra predicción superior. El modo de intra predicción adicional es determinado por los modos de intra predicción izquierdo y superior de la siguiente manera.
Si uno de los modos de intra predicción izquierdo y superior es un modo no direccional y el otro es un modo direccional, se agrega el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intra predicción izquierdo y superior es el modo DC, se agrega el modo plano al grupo de MPM. Si uno de los modos de intra predicción izquierdo y superior es el modo plano, se agrega el modo DC al grupo de MPM. Si ambos modos de intra predicción izquierdo y superior son modos no direccionales, se agrega el modo vertical al grupo de MPM. Si ambos modos de intra predicción izquierdo y superior son modos direccionales, se agrega el modo DC o el modo plano al grupo de MPM.
Cuando solo está disponible uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo no direccional, se agregan el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agregan el modo plano y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es el modo plano, se agregan el modo DC y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son iguales entre sí, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo 23, se agregan el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra predicción disponible es el modo 30, se agregan los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intra predicción disponible es un modo no direccional, se agregan el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agregan el modo plano y el modo vertical al grupo de MPM.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior no están disponibles, se agregan tres modos de intra predicción adicionales al grupo de MPM. Los tres modos de intra predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra predicción en el siguiente orden: modo DC, modo plano y modo vertical, o en el siguiente orden: modo plano, modo DC y modo vertical.
Se determina si el indicador de grupo de modos indica el grupo de MPM (S122).
Si el indicador del grupo de modos indica el grupo de MPM, se determina la intra predicción del grupo de MPM especificada por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual (S123).
Si el indicador de grupo de modos no indica el grupo de MPM, se determina la intra predicción del grupo de modos residuales especificada por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual (S124). El modo de intra predicción de la unidad actual se deriva utilizando el índice de modo de predicción y los modos de intra predicción del grupo de MPM como las siguientes etapas ordenadas.
1) Se reordenan los tres modos de intra predicción del grupo de MPM en el orden del número de modo. El modo de intra predicción con el número de modo más bajo se establece en un primer candidato. El modo de intra predicción con el número de modo intermedio se establece en un segundo candidato. El modo de intra predicción con el número de modo más alto se establece en un tercer candidato.
2) Se compara el índice de modo de predicción con el primer candidato. Si el índice del modo de predicción es igual o mayor que el primer candidato del grupo de MPM, se incrementa en uno el valor del índice de modo de predicción. De lo contrario, se mantiene el valor del índice de modo de predicción.
3) Se compara el índice de modo de predicción con el segundo candidato. Si el índice de modo de predicción es igual o mayor que el segundo candidato del grupo de MPM, se incrementa en uno el valor del índice de modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
4) Se compara el índice de modo de predicción con el tercer candidato. Si el índice del modo de predicción es igual o mayor que el tercer candidato del grupo de MPM, se incrementa en uno el valor del índice de modo de predicción. De lo contrario, se mantiene el valor del índice de modo de predicción.
5) El valor final del índice del modo de predicción se establece como el número de modo del modo de intra predicción de la unidad de predicción actual.
Se determina un tamaño del bloque de predicción en base a la información de tamaño de transformación que especifica el tamaño de la unidad de transformación (S130). La información de tamaño de transformación puede ser una o más banderas de división de transformación,split_transform_flags,que especifican el tamaño de la unidad de transformación.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de predicción actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de transformación. En este caso, se realiza un proceso de generación de un bloque reconstruido en cada sub-bloque de la unidad de predicción actual. Es decir, se generan un bloque de predicción y un bloque residual de un sub-bloque actual y se genera un bloque reconstruido de cada sub bloque agregando el bloque de predicción y el bloque residual. A continuación, se generan un bloque de predicción, un bloque residual y un bloque reconstruido del siguiente sub-bloque en orden de decodificación. Se utiliza el modo de intra predicción restablecido para generar todos los bloques de predicción de todos los sub-bloques. Algunos píxeles del bloque reconstruido del sub-bloque actual se utilizan como píxeles de referencia del siguiente sub-bloque. Por lo tanto, es posible generar un bloque de predicción que es más similar al sub-bloque original.
A continuación, se determina si todos los píxeles de referencia del bloque actual están disponibles, y se generan píxeles de referencia si uno o más píxeles de referencia no están disponibles (S140). El bloque actual es la unidad de predicción actual o el sub-bloque actual. El tamaño del bloque actual es el tamaño de la unidad de transformación.
La figura 6 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia del bloque actual según un ejemplo.
Como se muestra en la figura 6, los píxeles de referencia de los bloques actuales están compuestos por píxeles de referencia superiores ubicados en (x=0,..., 2N-1, y=-1), píxeles de referencia izquierdos situados en (x=-1, y=0,..., 2M-1) y un píxel de esquina ubicado en (x=-1, y=-1). N es el ancho del bloque actual y M es la altura del bloque actual.
Si no existen píxeles reconstruidos en posiciones correspondientes o hay píxeles reconstruidos que se encuentran dentro de otra porción(slice),los píxeles de referencia se determinan como no disponibles. En el modo de intra predicción limitada (modo CIP), los píxeles reconstruidos del modo inter también se determinan como no disponibles.
Si uno o más píxeles de referencia no están disponibles, se generan de la siguiente manera uno o más píxeles de referencia para el uno o más píxeles de referencia no disponibles.
Si todos los píxeles de referencia no están disponibles, un valor constante de 2L'1 sustituye a los valores de todos los píxeles de referencia. El valor de L es el número de bits utilizados para representar un valor de píxel de luminancia.
Si hay píxeles de referencia disponibles situados a un solo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible.
Si hay píxeles de referencia disponibles situados a ambos lados del píxel de referencia no disponible, el valor promedio de los píxeles de referencia más cercanos al píxel no disponible en cada lado o el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
A continuación, los píxeles de referencia son filtrados de forma adaptativa en base al modo de intra predicción y al tamaño del bloque actual (S150). El tamaño del bloque actual es el tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de referencia son adaptados según el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modo de inter predicción en el que se filtran los píxeles de referencia aumenta a medida que el tamaño del bloque actual es mayor. Por ejemplo, los píxeles de referencia no son filtrados en el modo vertical y un número predeterminado de modo de intra predicción vecino del modo vertical. Los píxeles de referencia tampoco son filtrados en el modo horizontal y el número predeterminado de modo de intra predicción vecino del modo horizontal. El número predeterminado se encuentra entre 0 y 7 y disminuye a medida que el tamaño del bloque actual es mayor.
A continuación, se genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra predicción restablecido (S160).
En el modo DC, se generan los píxeles de predicción del bloque de predicción promediando los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,...M-1). A continuación, el píxel de predicción adyacente al píxel de referencia es filtrado usando uno o dos píxeles de referencia adyacentes.
En el modo vertical, se generan los píxeles de predicción del bloque de predicción copiando el valor del correspondiente píxel de referencia vertical. A continuación, los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados por el píxel de referencia vecino izquierdo y el píxel de esquina.
En el modo horizontal, los píxeles de predicción del bloque de predicción son generados copiando el valor del correspondiente píxel de referencia horizontal. A continuación, los píxeles de predicción adyacentes al píxel de referencia superior son filtrados por el píxel de referencia vecino superior y el píxel de esquina.
La figura 7 es un diagrama de bloques que ilustra un aparato 300 de generación de un bloque de predicción en intra predicción según un ejemplo.
El aparato 300 según el presente ejemplo incluye una unidad de análisis(parsing)310, una unidad de decodificación del modo de predicción 320, una unidad de determinación del tamaño de predicción 330, una unidad de verificación de disponibilidad de píxeles de referencia 340, una unidad de generación de píxeles de referencia 350, una unidad de filtrado de píxeles de referencia 360 y una unidad de generación de bloques de predicción 370.
La unidad de análisis 310 restablece la información de intra predicción de la unidad de predicción actual a partir del flujo de bits(bit stream).
La información de intra predicción incluye un indicador de grupo de modos y un índice de modo de predicción. El indicador de grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intra predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra predicción de la unidad de predicción actual pertenece a un grupo de modos residuales. El grupo de modos residuales incluye todos los modos de intra predicción que no son modos de intra predicción que pertenecen al grupo de MPM. El índice de modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
La unidad de decodificación del modo de predicción 320 incluye una unidad de construcción del grupo de MPM 321 y una unidad de restablecimiento del modo de predicción 322.
La unidad de construcción del grupo de MPM 321 construye el grupo de MPM de la unidad de predicción actual. El grupo de MPM se construye utilizando modos de intra predicción de las unidades de predicción vecinas. Los modos de intra predicción del grupo de MPM son determinados de forma adaptativa por un modo de intra predicción izquierdo y un modo de intra predicción superior. El modo de intra predicción izquierdo es el modo de intra predicción de la unidad de predicción vecina izquierda, y el modo de intra predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intra predicción.
La unidad de construcción del grupo de MPM 321 verifica la disponibilidad del modo de intra predicción izquierdo y del modo de intra predicción superior. Si la unidad de predicción vecina izquierda o superior no existe, se establece el modo de intra predicción de la unidad vecina izquierda o superior como no disponible. Por ejemplo, si la unidad de predicción actual se encuentra en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior se encuentra dentro de otra porción u otro recuadro, se establece el modo de intra predicción de la unidad vecina izquierda o superior como no disponible. Si la unidad vecina izquierda o superior está inter codificada, se establece el modo de intra predicción de la unidad vecina izquierda o superior como no disponible. Si la unidad vecina superior se encuentra dentro de otra LCU, se establece el modo de intra predicción de la unidad vecina izquierda o superior como no disponible.
La unidad de construcción del grupo de MPM 321 construye el grupo de MPM de la siguiente manera.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son diferentes entre sí, se incluyen el modo de intra predicción izquierdo y el modo de intra predicción superior en el grupo de MPM y se agrega un modo de intra predicción adicional al grupo de MPM. Se asigna el índice 0 a un modo de intra predicción con número de modo pequeño y se asigna el índice 1 al otro. O se asigna el índice 0 al modo de intra predicción izquierdo y se asigna el índice 1 al modo de intra predicción superior. El modo de intra predicción agregado es determinado por los modos de intra predicción izquierdo y superior de la siguiente manera.
Si uno de los modos de intra predicción izquierdo y superior es un modo no direccional y el otro es un modo direccional, se agrega el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intra predicción izquierdo y superior es el modo DC, se agrega el modo plano al grupo de MPM. Si uno de los modos de intra predicción izquierdo y superior es el modo plano, se agrega el modo DC al grupo de MPM. Si ambos modos de intra predicción izquierdo y superior son modos no direccionales, se agrega el modo vertical al grupo de MPM. Si ambos modos de intra predicción izquierdo y superior son modos direccionales, se agrega el modo DC o el modo plano al grupo de MPM.
Cuando solo está disponible uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo no direccional, se agregan el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agregan el modo plano y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es el modo plano, se agregan el modo DC y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son iguales entre sí, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo 23, se agregan el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra predicción disponible es el modo 30, se agregan los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intra predicción disponible es un modo no direccional, se agregan el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agregan el modo plano y el modo vertical al grupo de MPM.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior no están disponibles, se agregan tres modos de intra predicción adicionales al grupo de MPM. Los tres modos de intra predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra predicción en el siguiente orden: modo DC, modo plano y modo vertical, o en el siguiente orden: modo plano, modo DC y modo vertical.
La unidad de restablecimiento del modo de predicción 322 deriva el modo de intra predicción de la unidad de predicción actual utilizando el indicador de grupo de modos y el índice de modo de predicción de la siguiente manera.
La unidad de restablecimiento del modo de predicción 322 determina si el indicador del grupo de modos indica el grupo de MPM.
Si el indicador del grupo de modos indica el grupo de MPM, la unidad de restablecimiento del modo de predicción 322 determina la intra predicción del grupo de MPM especificada por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual.
Si el indicador de grupo de modos no indica el grupo de MPM, la unidad de restablecimiento del modo de predicción 322 determina la intra predicción del grupo de modos residuales especificada por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual. El modo de intra predicción de la unidad actual se deriva utilizando el índice de modo de predicción y los modos de intra predicción del grupo de MPM como las siguientes etapas ordenadas.
1) Se reordenan los tres modos de intra predicción del grupo de MPM en el orden del número de modo. El modo de intra predicción con el número de modo más bajo se establece en un primer candidato. El modo de intra predicción con el número de modo intermedio se establece en un segundo candidato. El modo de intra predicción con el número de modo más alto se establece en un tercer candidato.
2) Se compara el índice de modo de predicción con el primer candidato. Si el índice del modo de predicción es igual o mayor que el primer candidato del grupo de MPM, se incrementa en uno el valor del índice de modo de predicción. De lo contrario, se mantiene el valor del índice de modo de predicción.
3) Se compara el índice de modo de predicción con el segundo candidato. Si el índice de modo de predicción es igual o mayor que el segundo candidato del grupo de MPM, se incrementa en uno el valor del índice de modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
4) Se compara el índice de modo de predicción con el tercer candidato. Si el índice del modo de predicción es igual o mayor que el tercer candidato del grupo de MPM, se incrementa en uno el valor del índice de modo de predicción. De lo contrario, se mantiene el valor del índice de modo de predicción.
5) El valor final del índice del modo de predicción se establece como el número de modo del modo de intra predicción de la unidad de predicción actual.
La unidad de determinación del tamaño de predicción 330 determina el tamaño del bloque de predicción en base a la información de tamaño de transformación que especifica el tamaño de la unidad de transformación. La información de tamaño de transformación puede ser una o más de entre las banderas de división de transformación,split_transform_flags,que especifican el tamaño de la unidad de transformación.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de predicción actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de transformación. En este caso, se realiza un proceso de generación de un bloque reconstruido en cada sub-bloque de la unidad de predicción actual. Es decir, se generan un bloque de predicción y un bloque residual de un sub-bloque actual y se genera un bloque reconstruido de cada sub bloque agregando el bloque de predicción y el bloque residual. A continuación, se generan un bloque de predicción, un bloque residual y un bloque reconstruido del siguiente sub-bloque en orden de decodificación. El modo de intra predicción restablecido se utiliza para generar todos los bloques de predicción de todos los sub-bloques. Algunos píxeles del bloque reconstruido del sub-bloque actual se utilizan como píxeles de referencia del siguiente sub-bloque. Por lo tanto, es posible generar un bloque de predicción que sea más similar al sub-bloque original.
La unidad de verificación de disponibilidad de píxeles de referencia 340 determina si están disponibles todos los píxeles de referencia del bloque actual. El bloque actual es la unidad de predicción actual o el sub-bloque actual. El tamaño del bloque actual es el tamaño de la unidad de transformación.
La unidad de generación de píxeles de referencia 350 genera píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles.
Si todos los píxeles de referencia no están disponibles, el valor de 2L'1 sustituye a los valores de todos los píxeles de referencia. El valor de L es la cantidad de bits utilizados para representar el valor de píxel de luminancia.
Si los píxeles de referencia disponibles están ubicados en un solo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible.
Si hay píxeles de referencia disponibles ubicados a ambos lados del píxel de referencia no disponible, el valor promedio de los píxeles de referencia más cercanos al píxel no disponible en cada lado o el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
La unidad de filtrado de píxeles de referencia 360 filtra de forma adaptativa los píxeles de referencia en base al modo de intra predicción y al tamaño del bloque actual.
En el modo DC, los píxeles de referencia no se filtran. En el modo vertical y el modo horizontal, los píxeles de referencia no se filtran. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de referencia son adaptados según el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modo de inter predicción en el que se filtran los píxeles de referencia aumenta a medida que el tamaño del bloque actual es mayor. Por ejemplo, los píxeles de referencia no son filtrados en el modo vertical y un número predeterminado de modo de intra predicción vecino del modo vertical. Los píxeles de referencia tampoco son filtrados en el modo horizontal y el número predeterminado de modo de intra predicción vecino del modo horizontal. El número predeterminado se encuentra entre 0 y 7 y disminuye a medida que el tamaño del bloque actual es mayor.
La unidad de generación del bloque de predicción 370 genera un bloque de predicción del bloque actual utilizando los píxeles de referencia según el modo de intra predicción restablecido.
En el modo DC, se genera el píxel de predicción del bloque de predicción que no es adyacente al píxel de referencia promediando los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,...M-1). El píxel de predicción adyacente al píxel de referencia se genera usando el valor promedio y uno o dos píxeles de referencia adyacentes.
En el modo vertical, se generan los píxeles de predicción que no son adyacentes al píxel de referencia izquierdo copiando el valor del píxel de referencia vertical. Los píxeles de predicción que son adyacentes al píxel de referencia izquierdo son generados por el píxel de referencia vertical y la variancia entre el píxel de esquina y el píxel vecino izquierdo.
En el modo horizontal, los píxeles de predicción se generan usando el mismo procedimiento.

Claims (4)

REIVINDICACIONES
1. Un método de decodificación de una unidad de predicción intra codificada para derivar un bloque reconstruido, que comprende:
decodificar por entropía información de intra predicción, e información de coeficiente unidimensional a partir de un flujo de bits recibido;
generar un bloque cuantificado bidimensional aplicando un patrón de exploración inversa seleccionado entre la exploración diagonal, la exploración vertical y la exploración horizontal a coeficientes significativos unidimensionales decodificados por entropía, banderas de signo y niveles, respectivamente;
generar un predictor de parámetro de cuantificación;
añadir el predictor de parámetro de cuantificación y un parámetro de cuantificación diferencial decodificado por entropía para generar el parámetro de cuantificación;
cuantificar inversamente el bloque cuantificado usando el parámetro de cuantificación;
transformar inversamente el bloque cuantificado inversamente para restaurar un bloque residual;
derivar un indicador de grupo de modos y un índice de modo de predicción a partir de la información de intra predicción, en donde el indicador de grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables, MPM;
construir un grupo de modos más probables, MPM, que incluye tres modos de intra predicción usando un modo de intra predicción izquierdo y un modo de intra predicción superior de la unidad de predicción actual;
determinar si el indicador de grupo de modos indica o no el grupo de MPM;
si el indicador de grupo de modos indica el grupo de MPM, determinar un modo de intra predicción del grupo de MPM especificado por el índice de modo de predicción como el modo de intra predicción de la unidad de predicción actual; si el indicador de grupo de modos no indica el grupo de MPM, derivar el modo de intra predicción de la unidad de predicción actual usando el índice de modo de predicción y los tres modos de intra predicción del grupo de MPM, generar un bloque de predicción usando dicho modo de intra predicción de la unidad de predicción actual; y generar un bloque reconstruido añadiendo el bloque residual restaurado y el bloque de predicción,
en donde cuando el modo de intra predicción izquierdo es igual al modo de intra predicción superior y es uno de dos modos de intra predicción no direccionales, el grupo de MPM incluye dos modos de intra predicción no direccionales y un modo vertical, en donde los dos modos de intra predicción no direccionales son el modo de DC y el modo plano, y
en donde derivar el modo de predicción de la unidad de predicción actual usando el índice de modo de predicción y los tres modos de intra predicción del grupo de MPM comprende las subetapas ordenadas de:
reordenar los tres modos de intra predicción del grupo de MPM en el orden de número de modo en donde el modo de intra predicción con el número de modo más bajo se establece a un primer candidato, el modo de intra predicción con el número de modo medio se establece a un segundo candidato, y el modo de intra predicción con el número de modo más alto se establece a un tercer candidato;
aumentar un valor del índice de modo de predicción en uno si el índice de modo de predicción es igual o mayor que un primer modo de intra predicción del grupo de MPM;
aumentar el valor del índice de modo de predicción en uno si el índice de modo de predicción es igual o mayor que un segundo modo de intra predicción del grupo de MPM;
aumentar el valor del índice de modo de predicción en uno si el índice de modo de predicción es igual o mayor que un tercer modo de intra predicción del grupo de MPM; y
determinar el valor del índice de modo de predicción como el número de modo del modo de intra predicción de la unidad de predicción actual.
2. El método de la reivindicación 1, en donde cuando el modo de intra predicción izquierdo es un modo de DC, el grupo de MPM incluye el modo de DC, un modo plano y un modo vertical.
3. El método de la reivindicación 1, en donde cuando el modo de intra predicción izquierdo es un modo plano, el grupo de MPM incluye el modo plano, un modo de DC y un modo vertical.
4. El método de la reivindicación 1, en donde cuando un tamaño de una unidad de transformación es igual o menor que 8x8, el tipo de exploración inversa se selecciona entre una exploración horizontal, una exploración vertical y una exploración diagonal basándose en un modo de intra predicción, en donde:
la exploración horizontal se selecciona para el modo de intra predicción vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical,
la exploración vertical se selecciona para el modo de intra predicción horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y
la exploración diagonal se selecciona para otros modos de intra predicción, y
en donde, si el tamaño de la unidad de transformación es mayor que 4x4, las banderas significativas, las banderas de signo y los niveles se exploran inversamente en la dirección inversa de acuerdo con el patrón de exploración inversa seleccionado para generar varios subconjuntos y los diversos subconjuntos se exploran inversamente en la dirección inversa de acuerdo con el patrón de exploración inversa seleccionado para generar el bloque cuantificado,
en donde el patrón de exploración inversa para generar los diversos subconjuntos es el mismo que el patrón de exploración inversa para generar el bloque cuantificado.
ES18150753T 2011-11-04 2012-11-02 Method of decoding an intra coded prediction unit Active ES3015229T3 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20110114606A KR20130049522A (ko) 2011-11-04 2011-11-04 인트라 예측 블록 생성 방법

Publications (1)

Publication Number Publication Date
ES3015229T3 true ES3015229T3 (en) 2025-04-30

Family

ID=48191356

Family Applications (2)

Application Number Title Priority Date Filing Date
ES18150753T Active ES3015229T3 (en) 2011-11-04 2012-11-02 Method of decoding an intra coded prediction unit
ES12845560.7T Active ES2673189T3 (es) 2011-11-04 2012-11-02 Procedimiento de derivación de modo de intra predicción

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES12845560.7T Active ES2673189T3 (es) 2011-11-04 2012-11-02 Procedimiento de derivación de modo de intra predicción

Country Status (18)

Country Link
US (8) US8948259B2 (es)
EP (5) EP2774120B1 (es)
JP (5) JP5789057B2 (es)
KR (6) KR20130049522A (es)
CN (8) CN106878716B (es)
CY (1) CY1120253T1 (es)
DK (2) DK3324627T3 (es)
ES (2) ES3015229T3 (es)
HR (1) HRP20180968T1 (es)
HU (2) HUE070097T2 (es)
IN (1) IN2014CN03907A (es)
LT (1) LT2774120T (es)
PL (2) PL3324627T3 (es)
PT (2) PT3324627T (es)
RS (1) RS57168B1 (es)
SI (1) SI2774120T1 (es)
TW (5) TWI571101B (es)
WO (1) WO2013064094A1 (es)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
PL3125555T3 (pl) 2010-08-17 2018-09-28 M&K Holdings Inc. Sposób kodowania trybu intra-predykcji
KR20120070479A (ko) * 2010-12-21 2012-06-29 한국전자통신연구원 화면 내 예측 방향 정보 부호화/복호화 방법 및 그 장치
EP4668749A3 (en) 2011-10-07 2026-03-11 Dolby Laboratories Licensing Corporation Method for decoding an intra prediction mode using candidate intra prediction modes
HUE071077T2 (hu) 2011-10-18 2025-07-28 Lg Electronics Inc Kép dekódolási eljárás, kép kódolási eljárás, számítógéppel olvasható adathordozó és képadat átviteli eljárás
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049525A (ko) 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
WO2014049981A1 (ja) * 2012-09-28 2014-04-03 三菱電機株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
US10003792B2 (en) 2013-05-27 2018-06-19 Microsoft Technology Licensing, Llc Video encoder for images
CN105453567B (zh) 2013-07-24 2019-04-23 微软技术许可有限责任公司 用于非变换编码的扫描次序
US10136140B2 (en) 2014-03-17 2018-11-20 Microsoft Technology Licensing, Llc Encoder-side decisions for screen content encoding
WO2015139180A1 (zh) * 2014-03-17 2015-09-24 富士通株式会社 图像编码方法、装置以及图像处理设备
CN104581152A (zh) * 2014-12-25 2015-04-29 同济大学 一种hevc帧内预测模式选择加速方法
EP3254463A4 (en) 2015-02-06 2018-02-21 Microsoft Technology Licensing, LLC Skipping evaluation stages during media encoding
US10038917B2 (en) 2015-06-12 2018-07-31 Microsoft Technology Licensing, Llc Search strategies for intra-picture prediction modes
US10841593B2 (en) 2015-06-18 2020-11-17 Qualcomm Incorporated Intra prediction and intra mode coding
US11463689B2 (en) 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding
US10136132B2 (en) 2015-07-21 2018-11-20 Microsoft Technology Licensing, Llc Adaptive skip or zero block detection combined with transform size decision
EP3340632B1 (en) * 2015-08-19 2021-08-11 LG Electronics Inc. Method and device for processing video signals
US11233990B2 (en) * 2016-02-08 2022-01-25 Sharp Kabushiki Kaisha Systems and methods for intra prediction coding
KR102346713B1 (ko) 2016-04-12 2022-01-03 세종대학교산학협력단 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
CN113810712B (zh) 2016-04-29 2025-04-25 世宗大学校产学协力团 用于对图像信号进行编码和解码的方法和装置
US10880564B2 (en) * 2016-10-01 2020-12-29 Qualcomm Incorporated Transform selection for video coding
US10958903B2 (en) * 2016-10-04 2021-03-23 Electronics And Telecommunications Research Institute Method and apparatus for encoding/decoding image and recording medium storing bit stream
CN116916001A (zh) 2016-10-19 2023-10-20 Sk电信有限公司 对视频数据进行编码或解码的设备及发送比特流的方法
KR20180043149A (ko) 2016-10-19 2018-04-27 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
WO2018101687A1 (ko) 2016-11-29 2018-06-07 성균관대학교 산학협력단 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
JP6770192B2 (ja) * 2017-06-01 2020-10-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、符号化方法、復号装置及び復号方法
US11178405B2 (en) * 2017-10-18 2021-11-16 Samsung Electronics Co., Ltd. Method and apparatus for video decoding, and method and apparatus for video encoding
CN118301336A (zh) 2017-11-16 2024-07-05 英迪股份有限公司 图像编码/解码方法以及存储比特流的记录介质
WO2019194440A1 (ko) * 2018-04-02 2019-10-10 엘지전자 주식회사 인트라 예측 모드에 대한 룩업 테이블을 이용한 영상 코딩 방법 및 그 장치
WO2019216605A1 (ko) * 2018-05-07 2019-11-14 엘지전자 주식회사 적응적으로 도출되는 mpm 리스트를 사용하는 인트라 예측에 따른 영상 코딩 방법 및 그 장치
KR20250155071A (ko) 2018-05-10 2025-10-29 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
JP7373509B2 (ja) 2018-06-25 2023-11-02 オッポ広東移動通信有限公司 フレーム内予測方法及び装置
US11277644B2 (en) 2018-07-02 2022-03-15 Qualcomm Incorporated Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching
WO2020042916A1 (en) * 2018-08-27 2020-03-05 Huawei Technologies Co., Ltd. Method and Apparatus for Intra Prediction
CN112640467B (zh) 2018-09-03 2023-10-20 华为技术有限公司 用于帧内预测的方法和装置
WO2020050678A1 (ko) 2018-09-06 2020-03-12 엘지전자 주식회사 Mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 그 장치
US10771778B2 (en) * 2018-09-14 2020-09-08 Tencent America LLC Method and device for MPM list generation for multi-line intra prediction
EP3844964A4 (en) * 2018-09-19 2021-11-03 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR PREDICTING THE MOST LIKELY INTRA-MODES
KR102727268B1 (ko) 2018-09-21 2024-11-06 후아웨이 테크놀러지 컴퍼니 리미티드 이웃 블록에 기초한 인트라 예측 모드 도출
US11303885B2 (en) 2018-10-25 2022-04-12 Qualcomm Incorporated Wide-angle intra prediction smoothing and interpolation
CA3120877A1 (en) * 2018-11-22 2020-05-28 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for inter prediction
CN116527893B (zh) * 2019-01-08 2025-10-17 北京小米移动软件有限公司 解码设备、编码设备和数据发送设备
KR20250119668A (ko) 2019-01-14 2025-08-07 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
CN113924777B (zh) * 2019-03-12 2025-06-24 现代自动车株式会社 视频解码方法、视频编码方法以及提供包含视频数据的比特流的方法
EP3922018A4 (en) 2019-03-12 2022-06-08 Zhejiang Dahua Technology Co., Ltd. IMAGE CODING SYSTEMS AND METHODS
CN110166772B (zh) * 2019-03-12 2021-04-27 浙江大华技术股份有限公司 帧内预测模式的编解码方法、装置、设备和可读存储介质
AU2020245002B2 (en) * 2019-03-23 2023-03-30 Lg Electronics Inc. Method for coding image on basis of intra prediction using MPM list and apparatus therefor
EP3932076B1 (en) * 2019-03-23 2023-11-01 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for intra prediction
EP4055822A1 (en) * 2019-11-07 2022-09-14 InterDigital VC Holdings France, SAS Encoding and decoding methods and apparatus
US12081742B2 (en) 2021-06-11 2024-09-03 Tencent America LLC Intra mode coding

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3428033B2 (ja) * 1992-02-19 2003-07-22 株式会社日立製作所 ディジタルvtr
KR100212559B1 (ko) * 1996-03-22 1999-08-02 전주범 물체의 윤곽 부호화 시스템 및 그의 움직임 추정방법
KR100269125B1 (ko) * 1997-10-25 2000-10-16 윤덕용 양자화효과감소를위한영상데이터후처리방법및장치
EP2320660B8 (en) * 2001-11-29 2015-09-09 Godo Kaisha IP Bridge 1 Coding distortion removal method
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
US7627040B2 (en) * 2003-06-10 2009-12-01 Rensselaer Polytechnic Institute (Rpi) Method for processing I-blocks used with motion compensated temporal filtering
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
US7379608B2 (en) * 2003-12-04 2008-05-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Arithmetic coding for transforming video and picture data units
EP1558039A1 (en) * 2004-01-21 2005-07-27 Deutsche Thomson-Brandt Gmbh Method and apparatus for generating/evaluating prediction information in picture signal encoding/decoding
CN100401789C (zh) * 2004-06-11 2008-07-09 上海大学 H.264/avc帧内预测模式的快速选择方法
JP2006005438A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
US8885707B2 (en) * 2005-04-01 2014-11-11 Panasonic Corporation Image decoding apparatus and image decoding method
KR100779173B1 (ko) * 2005-07-20 2007-11-26 한국전자통신연구원 폴리페이즈 다운 샘플링기반 리던던트 슬라이스 코딩 방법및 그 방법을 이용하는 코덱
KR101246294B1 (ko) * 2006-03-03 2013-03-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR101311402B1 (ko) 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
US20100053300A1 (en) * 2007-02-02 2010-03-04 Einarsson Torbjoern Method And Arrangement For Video Telephony Quality Assessment
US8619853B2 (en) * 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
JPWO2009001793A1 (ja) * 2007-06-26 2010-08-26 株式会社東芝 画像符号化と画像復号化の方法及び装置
CN107105257B (zh) * 2007-06-29 2020-08-28 威勒斯媒体国际有限公司 图像编码装置、图像编码方法、图像译码装置、图像译码方法
KR100940444B1 (ko) * 2007-12-18 2010-02-10 한국전자통신연구원 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법
US9008171B2 (en) * 2008-01-08 2015-04-14 Qualcomm Incorporated Two pass quantization for CABAC coders
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
CN100596202C (zh) * 2008-05-30 2010-03-24 四川虹微技术有限公司 一种快速帧内模式选择方法
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
JP2009302776A (ja) * 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
CN101668202A (zh) * 2008-09-01 2010-03-10 中兴通讯股份有限公司 帧内预测模式的选择方法和装置
KR101306834B1 (ko) * 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
KR101356448B1 (ko) 2008-10-01 2014-02-06 한국전자통신연구원 예측 모드를 이용한 복호화 장치
EP2182732A1 (en) * 2008-10-28 2010-05-05 Panasonic Corporation Switching between scans in image coding
WO2010067529A1 (ja) * 2008-12-10 2010-06-17 株式会社日立製作所 動画像復号化方法及び装置、動画像符号化方法及び装置
US20120020580A1 (en) 2009-01-29 2012-01-26 Hisao Sasai Image coding method and image decoding method
KR101128580B1 (ko) * 2009-04-09 2012-03-23 한국전자통신연구원 화면내 예측 시스템에서 최적 모드를 예측하는 장치 및 방법
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101507344B1 (ko) 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
JP5389742B2 (ja) 2009-09-30 2014-01-15 富士フイルム株式会社 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び電子内視鏡システムの作動方法
CN102045560B (zh) * 2009-10-23 2013-08-07 华为技术有限公司 一种视频编解码方法及设备
KR101282193B1 (ko) * 2009-11-10 2013-07-04 한국전자통신연구원 칼만 필터와 fir 필터를 사용한 동영상 인코더에서의 비트율 제어 방법
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US9094691B2 (en) 2010-03-15 2015-07-28 Mediatek Singapore Pte. Ltd. Methods of utilizing tables adaptively updated for coding/decoding and related processing circuits thereof
KR20110113561A (ko) * 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
KR101791242B1 (ko) * 2010-04-16 2017-10-30 에스케이텔레콤 주식회사 영상 부호화/복호화 장치 및 방법
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
CN101854551B (zh) * 2010-06-08 2012-08-15 浙江大学 帧内预测模式编解码方法及装置
MX353317B (es) * 2010-06-10 2018-01-05 Thomson Licensing Metodos y aparatos para determinar predictores de parametro de cuantificacion a partir de una pluralidad de parametros de cuantificacion contiguos.
US20110317757A1 (en) * 2010-06-25 2011-12-29 Qualcomm Incorporated Intra prediction mode signaling for finer spatial prediction directions
US8885701B2 (en) * 2010-09-08 2014-11-11 Samsung Electronics Co., Ltd. Low complexity transform coding using adaptive DCT/DST for intra-prediction
US9025661B2 (en) * 2010-10-01 2015-05-05 Qualcomm Incorporated Indicating intra-prediction mode selection for video coding
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
WO2012092761A1 (en) * 2011-01-07 2012-07-12 Mediatek Singapore Pte. Ltd. Method and apparatus for improved intra prediction mode coding
AU2011354441B2 (en) * 2011-01-07 2014-07-17 Hfi Innovation Inc. Method and apparatus of improved intra luma prediction mode coding
WO2012122495A1 (en) 2011-03-10 2012-09-13 Huawei Technologies Co., Ltd. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US8767823B2 (en) * 2011-03-30 2014-07-01 Industrial Technology Research Institute Method and apparatus for frame memory compression
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
GB2494468B (en) * 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
PH12013500709A1 (en) 2011-09-13 2013-05-20 Hfi Innovation Inc Method and apparatus for intra mode coding in hevc
US20130083845A1 (en) * 2011-09-30 2013-04-04 Research In Motion Limited Methods and devices for data compression using a non-uniform reconstruction space
EP4668749A3 (en) 2011-10-07 2026-03-11 Dolby Laboratories Licensing Corporation Method for decoding an intra prediction mode using candidate intra prediction modes
CN104935929B (zh) * 2011-10-24 2018-05-25 英孚布瑞智有限私人贸易公司 图像解码设备
US9769479B2 (en) * 2011-10-24 2017-09-19 Infobridge Pte. Ltd. Image decoding apparatus
US9020031B2 (en) * 2011-10-24 2015-04-28 Infobridge Pte. Ltd. Method and apparatus for decoding intra prediction mode
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
KR20130049525A (ko) * 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치

Also Published As

Publication number Publication date
HK1214441A1 (zh) 2016-07-22
US20150098505A1 (en) 2015-04-09
JP6026600B2 (ja) 2016-11-16
KR101490216B1 (ko) 2015-02-05
TW201611576A (zh) 2016-03-16
TWI519132B (zh) 2016-01-21
EP2774120B1 (en) 2018-04-04
JP5789057B2 (ja) 2015-10-07
CN104869409A (zh) 2015-08-26
CN103096069B (zh) 2016-10-12
EP2774120A1 (en) 2014-09-10
EP2774120A4 (en) 2015-07-29
CY1120253T1 (el) 2019-07-10
PT3324627T (pt) 2025-01-24
CN107105238A (zh) 2017-08-29
CN107105251B (zh) 2020-09-25
KR20140057663A (ko) 2014-05-13
CN107105252B (zh) 2021-01-08
US20140269914A1 (en) 2014-09-18
EP3324627A1 (en) 2018-05-23
RS57168B1 (sr) 2018-07-31
PL2774120T3 (pl) 2018-09-28
JP2016006992A (ja) 2016-01-14
TWI571101B (zh) 2017-02-11
US20150098506A1 (en) 2015-04-09
PL3324627T3 (pl) 2025-05-12
TW201611573A (zh) 2016-03-16
TW201611574A (zh) 2016-03-16
WO2013064094A1 (en) 2013-05-10
CN106878716A (zh) 2017-06-20
US20170041602A1 (en) 2017-02-09
EP3361727A1 (en) 2018-08-15
EP3324627B1 (en) 2025-01-01
JP2016006993A (ja) 2016-01-14
US20160134867A1 (en) 2016-05-12
SI2774120T1 (en) 2018-06-29
CN107087174B (zh) 2020-04-17
KR20140074344A (ko) 2014-06-17
TW201611575A (zh) 2016-03-16
US9143786B2 (en) 2015-09-22
US9237346B2 (en) 2016-01-12
CN104869409B (zh) 2018-05-01
KR20140057665A (ko) 2014-05-13
TW201334546A (zh) 2013-08-16
US9503730B2 (en) 2016-11-22
JP6093815B2 (ja) 2017-03-08
KR101452195B9 (ko) 2014-10-23
TWI566583B (zh) 2017-01-11
KR20140057664A (ko) 2014-05-13
EP3361728A1 (en) 2018-08-15
US10924734B2 (en) 2021-02-16
DK3324627T3 (da) 2025-02-17
JP2016006994A (ja) 2016-01-14
US10375390B2 (en) 2019-08-06
PT2774120T (pt) 2018-06-27
US9167251B2 (en) 2015-10-20
HUE070097T2 (hu) 2025-05-28
CN106878717B (zh) 2020-01-14
LT2774120T (lt) 2018-06-11
US8948259B2 (en) 2015-02-03
KR20130049522A (ko) 2013-05-14
TWI571102B (zh) 2017-02-11
KR101490220B1 (ko) 2015-02-05
CN106878716B (zh) 2020-04-17
TWI571103B (zh) 2017-02-11
EP3361728B1 (en) 2026-01-28
EP3376765A1 (en) 2018-09-19
JP2014534748A (ja) 2014-12-18
HUE039165T2 (hu) 2018-12-28
IN2014CN03907A (es) 2015-10-16
EP3361728C0 (en) 2026-01-28
HRP20180968T1 (hr) 2018-08-10
CN107105252A (zh) 2017-08-29
KR101452195B1 (ko) 2014-10-23
US20150146774A1 (en) 2015-05-28
US9270997B2 (en) 2016-02-23
CN107087174A (zh) 2017-08-22
ES2673189T3 (es) 2018-06-20
KR101490219B1 (ko) 2015-02-05
JP2016006995A (ja) 2016-01-14
JP6026602B2 (ja) 2016-11-16
US20190342548A1 (en) 2019-11-07
US20150098500A1 (en) 2015-04-09
CN106878717A (zh) 2017-06-20
KR20140068189A (ko) 2014-06-05
JP6026601B2 (ja) 2016-11-16
DK2774120T3 (en) 2018-05-28
CN107105251A (zh) 2017-08-29
CN103096069A (zh) 2013-05-08
CN107105238B (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
ES3015229T3 (en) Method of decoding an intra coded prediction unit
ES2673191T3 (es) Aparato de decodificación de datos de video
ES2984439T3 (es) Método de derivación de un modo de intra-predicción
ES2985067T3 (es) Procedimiento para decodificar una imagen de croma
ES2870799T3 (es) Procedimiento de generación de un bloque cuantificado