ES2881980T3 - Procedimiento de derivar un modo de intra predicción - Google Patents

Procedimiento de derivar un modo de intra predicción Download PDF

Info

Publication number
ES2881980T3
ES2881980T3 ES18158853T ES18158853T ES2881980T3 ES 2881980 T3 ES2881980 T3 ES 2881980T3 ES 18158853 T ES18158853 T ES 18158853T ES 18158853 T ES18158853 T ES 18158853T ES 2881980 T3 ES2881980 T3 ES 2881980T3
Authority
ES
Spain
Prior art keywords
mode
prediction
intra
unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18158853T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Innotive Ltd
Original Assignee
Innotive Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Innotive Ltd filed Critical Innotive Ltd
Application granted granted Critical
Publication of ES2881980T3 publication Critical patent/ES2881980T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Electrotherapy Devices (AREA)

Abstract

Un procedimiento de derivar un modo de intra predicción de una unidad de predicción actual, comprendiendo el procedimiento: decodificar por entropía un indicador de grupo de modos y un índice de modo de predicción, en el que el indicador de grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables, MPM, y en el que el índice de modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos; construir (S1120) el grupo de MPM utilizando modos de intra predicción de un bloque izquierdo y un bloque superior de la unidad de predicción actual, en el que el grupo de MPM incluye tres modos de intra predicción; determinar (S1130) si el indicador de grupo de modos indica el grupo de MPM; determinar (S1140) un modo de intra predicción especificado por el índice de modo de predicción entre los tres modos de intra predicción en el grupo de MPM como el modo de intra predicción de la unidad de predicción actual cuando el indicador de grupo de modos grupo indica el grupo de MPM; y derivar el modo de intra predicción de la unidad de predicción actual utilizando el índice de modo de predicción y los tres modos de intra predicción en el grupo de MPM cuando el indicador de grupo de modos no indica el grupo de MPM, en el que si el índice de modo de predicción es mayor o igual que un primer modo en el grupo de MPM, el valor del índice de modo de predicción se incrementa en uno; si el índice de modo de predicción es mayor o igual que un segundo modo en el grupo de MPM, el valor del índice de modo de predicción se incrementa en uno; y a continuación si el índice de modo de predicción es mayor o igual que un tercer modo en el grupo de MPM, el valor del índice de modo de predicción se incrementa en uno, en el que el grupo de MPM incluye dos modos no direccionales y un modo vertical cuando sólo uno de los modos de intra predicción de los bloques izquierdo y superior está disponible y el modo de intra predicción disponible es uno de los dos modos no direccionales, en el que los dos modos no direccionales son el modo planor y el modo DC, en el que el primer modo es un modo de intra predicción de un número de modo más bajo en el grupo de MPM, el segundo modo es un modo de intra predicción de un número de modo medio en el grupo de MPM, y el tercer modo es un modo de intra predicción de un número de modo más alto en el grupo de MPM, en el que los tres modos de intra predicción en el grupo de MPM son ordenados en un orden del primer modo, el segundo modo y el tercer modo; y en el que, cuando sólo está disponible uno de los modos de intra predicción de los bloques izquierdo y superior y el modo de intra predicción disponible es uno de los modos direccionales, el grupo de MPM incluye los dos modos no direccionales y el modo de intra predicción disponible.

Description

DESCRIPCIÓN
Procedimiento de derivar un modo de intra predicción
Campo técnico
La presente invención se refiere a un procedimiento de derivar un modo de intra predicción de una unidad de predicción actual.
Técnica anterior
En H.264/MPEG-4 AVC, una imagen es dividida en macro-bloques para codificar una imagen, los macro-bloques respectivos son codificados generando un bloque de predicción utilizando inter predicción o intra predicción. La diferencia entre un bloque original y el bloque de predicción es transformada para generar un bloque transformado, y el bloque transformado es cuantificado usando un parámetro de cuantificación y una de entre una pluralidad de matrices de cuantificación predeterminadas. El coeficiente cuantificado del bloque cuantificado es explorado mediante un tipo de exploración predeterminado y a continuación es codificado por entropía. El parámetro de cuantificación es ajustado por cada macro-bloque y es codificado utilizando un parámetro de cuantificación previo.
Mientras tanto, se introducen técnicas que usan varios tamaños de unidad de codificación para mejorar la eficiencia de la codificación. También se introducen técnicas que aumentan un número de modos de intra predicción para generar un bloque de predicción más similar a un bloque original.
Pero, si el número de modos de intra predicción aumenta, la cantidad de bits de codificación requeridos para señalizar el modo de intra predicción es mayor. Además, si el tamaño de la unidad de codificación es mayor, la diferencia entre un bloque original y un bloque de predicción es mayor.
En consecuencia, se requiere un procedimiento más efectivo para señalizar el modo de intra predicción. También se requiere un procedimiento más efectivo para minimizar la diferencia entre el bloque original y el bloque de predicción y para minimizar los bits de codificación del bloque residual.
W-J CHIEN ETAL: " Parsing friendly intra mode coding", 6. JCT-VC MEETING; 97. MPEG MEETING; 14-7-2011 - 22­ 7-2011 ; TORINO; (JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/I EC JTC1/SC29/WG11 AND ITU-T SG,16); URL: HTTP://WFTP3.ITU.INT/A/-ARCH/JCTVC-SITE/, no. JCTVC-F459, 2 de julio de 2011 (02-07-2011) describe un procedimiento de codificación para un modo de intra predicción. En el modelo de prueba actua1HM 3.0 del estándar HEVC, se definen diferentes binarizaciones de palabras de código en función de los modos de intra predicción de particiones vecinas para la codificación en modo intra predicción de luma. También utiliza diferentes binarizaciones de palabras de código para el modo de intra predicción de croma en base al modo de intra predicción de luma de la partición actual. Este procedimiento unifica diferentes binarizaciones utilizando un número constante de modos candidatos. Los resultados de la simulación muestran una ganancia de rendimiento promedio de 0,3% y 0,2% en configuraciones solo Intra.
Thomas Wiegand ET AL: " WD3: Working Draft 3 of High-Efficiency Video Coding (JCTVC-E603)", 27 de junio de 2011 (27-06-2011), obtenido de Internet: URL:http://wg11.sc29.0rg/jct/ describe el modelo de prueba HM 3.0 del estándar HEVC comentado anteriormente.
Por lo tanto, el objeto de la invención es proporcionar un procedimiento mejorado de derivar un modo de intra predicción de una unidad de predicción actual.
Este objeto es resuelto por la materia de la reivindicación independiente 1.
La reivindicación dependiente 2 define formas de realización preferidas.
La presente invención está orientada a un procedimiento de derivar un modo de intra predicción de una unidad de predicción.
Un aspecto de la presente divulgación que no es parte de la presente invención proporciona un procedimiento de generar un bloque reconstruido, que comprende: derivar un modo de intra predicción de una unidad de predicción, determinar un tamaño de un bloque actual usando información de tamaño de transformación, generar un bloque de predicción del bloque actual según el modo de intra predicción, generar un bloque residual del bloque actual según el modo de intra predicción y generar un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual.
Un procedimiento según la presente divulgación que no es parte de la presente invención deriva un modo de intra predicción de una unidad de predicción, determina un tamaño de un bloque actual usando información de tamaño de transformación, genera un bloque de predicción del bloque actual según el modo de intra predicción, genera un bloque residual del bloque actual según el modo de intra predicción y genera un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual. Los tamaños del bloque de predicción y bloque residual se determinan iguales al tamaño de una unidad de transformación. Por lo tanto, se acorta la distancia de la intra predicción y se reduce la cantidad de bits de codificación del bloque residual generando un bloque de predicción muy similar al bloque original. Además, los bits de señalización requeridos para señalizar el modo de intra predicción disminuyen generando un grupo de MPM de forma adaptativa de acuerdo con los modos de intra predicción vecinos.
Descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes.
La figura 3 es un diagrama de flujo que ilustra un procedimiento de generar un bloque reconstruido en la intra predicción.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de derivar un modo de intra predicción de una unidad de predicción actual según la presente invención.
La figura 5 es un diagrama conceptual que ilustra modos de intra predicción.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generar un bloque de predicción.
La figura 7 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia de un bloque actual. La figura 8 es un diagrama de flujo que ilustra un procedimiento de generar un bloque residual.
La figura 9 es un diagrama de flujo que ilustra un procedimiento de derivar un parámetro de cuantificación.
La figura 10 es un diagrama de bloques que ilustra un aparato para generar un bloque reconstruido.
Realizaciones de la invención
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según un ejemplo.
Con referencia a la figura 1, el aparato de codificación de imágenes 100 incluye una unidad de división de imágenes 101, una unidad de transformación 103, una unidad de cuantificación 104, una unidad de exploración 105, una unidad de codificación de entropía 106, una unidad de cuantificación inversa 107, una unidad de transformación inversa 108, una unidad de post procesamiento 110, una unidad de almacenamiento de imágenes 111, una unidad de intra predicción 112, una unidad de inter predicción 113, un sustractor 102 y un agregador 109.
La unidad de división de imágenes 101 divide una imagen o una porción en una pluralidad de unidades de codificación (Largest Coding Units, LCU) más grandes, y divide cada LCU en una o más unidades de codificación. La unidad de división de imágenes 101 determina el modo de predicción de cada unidad de codificación y un tamaño de unidad de predicción y un tamaño de unidad de transformación.
Una LCU incluye una o más unidades de codificación. La LCU tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de codificación es incluida en un conjunto de parámetros de secuencia. La estructura de división es especificada por una o más banderas de división de unidad de codificación (split_cu_flags). La unidad de codificación tiene un tamaño de 2Nx2N.
Una unidad de codificación incluye una o más unidades de predicción. En la intra predicción, el tamaño de la unidad de predicción es 2Nx2N o NxN. En la inter predicción, el tamaño de la unidad de predicción es 2Nx2N, 2NxN, Nx2N o NxN. Cuando la unidad de predicción es una partición asimétrica de la inter predicción, el tamaño de la unidad de predicción también puede ser uno de entre hNx2N, (2-h)Nx2N, 2NxhN y 2Nx(2-h)N. El valor de h es 1/2.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La estructura de división es especificada por una o más banderas de división de unidad de transformación (split_tu_flags). La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de transformación es incluida en un conjunto de parámetros de secuencia.
La unidad de intra predicción 112 determina un modo de intra predicción de una unidad de predicción actual y genera uno o más bloques de predicción usando el modo de intra predicción. El bloque de predicción tiene el mismo tamaño de la unidad de transformación.
La unidad de inter predicción 113 determina información de movimiento de la unidad de predicción actual usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 111, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de imágenes de referencia y uno o más vectores de movimiento.
La unidad de transformación 103 transforma las señales residuales generadas usando un bloque original y un bloque de predicción para generar un bloque transformado. Las señales residuales son transformadas en unidades de transformación. Un tipo de transformación es determinado por el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación es una transformación de enteros basada en DCT (transformada discreta del coseno) o una transformación de enteros basada en DST (transformada discreta del seno). Por ejemplo, en el modo de inter predicción, se usan transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT.
La unidad de cuantificación 104 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación es determinado por cada unidad de cuantificación. El tamaño de la unidad de cuantificación es uno de los tamaños permitidos de la unidad de codificación. Si un tamaño de la unidad de codificación es igual o mayor que un tamaño mínimo de la unidad de cuantificación, la unidad de codificación es determinada como la unidad de cuantificación. Se puede incluir una pluralidad de unidades de codificación en una unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se determina por cada imagen y se incluye información que especifica el tamaño mínimo de la unidad de cuantificación en un conjunto de parámetros de imagen.
La unidad de cuantificación 104 genera un predictor del parámetro de cuantificación y genera un parámetro de cuantificación diferencial sustrayendo el predictor del parámetro de cuantificación del parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado por entropía e incluido en la sintaxis de la unidad de codificación.
El predictor del parámetro de cuantificación es generado utilizando los parámetros de cuantificación de las unidades de codificación vecinas y un parámetro de cuantificación de la unidad de codificación anterior de la siguiente manera.
Un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior son recuperados secuencialmente en este orden. Un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden es determinado como el predictor del parámetro de cuantificación cuando dos o más parámetros de cuantificación están disponibles, y cuando solo está disponible un parámetro de cuantificación, el parámetro de cuantificación disponible es determinado como el predictor del parámetro de cuantificación. Es decir, si los parámetros de cuantificación izquierdo y superior están disponibles, el promedio de los parámetros de cuantificación izquierdo y superior es determinado como el predictor del parámetro de cuantificación. Si solo está disponible uno de los parámetros de cuantificación izquierdo y superior, el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior es determinado como el predictor del parámetro de cuantificación. Si tanto el parámetro de cuantificación izquierdo como el superior no están disponibles, el parámetro de cuantificación anterior es determinado como el predictor del parámetro de cuantificación. El promedio es redondeado.
La unidad de cuantificación 104 cuantifica el bloque transformado usando una matriz de cuantificación y el parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado es proporcionado a la unidad de cuantificación inversa 107 y a la unidad de exploración 105.
La unidad de exploración 105 determina un patrón de exploración y aplica el patrón de exploración al bloque cuantificado. Cuando se usa CABAC (codificación aritmética binaria adaptable al contexto) para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
En la intra predicción, el patrón de exploración es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El tamaño de la unidad de transformación, el tamaño del bloque transformado y el tamaño del bloque cuantificado son los mismos. El patrón de exploración se selecciona de entre una exploración en diagonal, exploración vertical y exploración horizontal. El patrón de exploración es aplicado a las banderas significativas, signos de coeficiente y niveles de coeficiente respectivamente. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es o no es cero. El signo de coeficiente indica un signo de coeficiente de transformación cuantificado diferente de cero, y el nivel de coeficiente indica un valor absoluto de coeficiente de transformación cuantificado diferente de cero.
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical en direccionalidad, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal en direccionalidad, y se selecciona la exploración en diagonal para los otros modos de intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. El primer tamaño es 8x8.
En la inter predicción, se usa un patrón de exploración predeterminado independientemente del tamaño de la unidad de transformación. El patrón de exploración predeterminado es la exploración en diagonal cuando se utiliza CABAC para la codificación de entropía.
Cuando el tamaño de la unidad de transformación es mayor que un segundo tamaño, se divide el bloque cuantificado en un subconjunto principal y una pluralidad de subconjuntos restantes y se aplica el patrón de exploración determinado a cada subconjunto. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente de cada subconjunto son explorados respectivamente según el patrón de exploración determinado. El subconjunto principal incluye el coeficiente DC y los subconjuntos restantes cubren la región que no es la región cubierta por el subconjunto principal. El segundo tamaño es 4x4. Un tamaño del subconjunto puede ser un bloque 4x4 o puede variar según el patrón de exploración. El subconjunto incluye 16 coeficientes de transformación.
El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto son explorados en la dirección inversa. Los subconjuntos también son explorados en la dirección inversa.
La última posición de coeficiente diferente de cero es codificada y transmitida al decodificador. La última posición de coeficiente diferente de cero especifica una posición del último coeficiente de transformación cuantificado diferente de cero dentro de la unidad de transformación. Se determina la bandera de subconjunto diferente de cero para cada subconjunto que no sea el subconjunto principal ni el último subconjunto. El último subconjunto cubre el último coeficiente diferente de cero. La bandera de subconjunto diferente de cero indica si el subconjunto contiene o no contiene coeficientes diferentes de cero.
La unidad de cuantificación inversa 107 cuantifica inversamente los coeficientes de transformación cuantificados del bloque cuantificado.
La unidad de transformación inversa 108 transforma inversamente el bloque cuantificado inverso para generar señales residuales del dominio espacial.
El agregador 109 genera un bloque reconstruido agregando el bloque residual y el bloque de predicción.
La unidad de post procesamiento 110 realiza un proceso de filtrado de desbloqueo para eliminar el artefacto de bloqueo generado en una imagen reconstruida.
La unidad de almacenamiento de imágenes 111 recibe una imagen post procesada desde la unidad de post procesamiento 110, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o un campo.
La unidad de codificación de entropía 106 codifica por entropía la información del coeficiente unidimensional recibida desde la unidad de exploración 105, la información de intra predicción recibida desde la unidad de intra predicción 112, la información de movimiento recibida desde la unidad de inter predicción 113, y así sucesivamente.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes 200.
El aparato de decodificación de imágenes 200 incluye una unidad de decodificación de entropía 201, una unidad de exploración inversa 202, una unidad de cuantificación inversa 203, una unidad de transformación inversa 204, un agregador 205, una unidad de post procesamiento 206, una unidad de almacenamiento de imágenes 207, una unidad de intra predicción 208 y una unidad de inter predicción 209.
La unidad de decodificación de entropía 201 extrae la información de intra predicción, la información de inter predicción y la información de coeficiente unidimensional de un flujo de bits (bit stream) recibido. La unidad de decodificación de entropía 201 transmite la información de inter predicción a la unidad de inter predicción 209, la información de intra predicción a la unidad de intra predicción 208 y la información de coeficiente a la unidad de exploración inversa 202.
La unidad de exploración inversa 202 usa un patrón de exploración inversa para generar un bloque cuantificado. Cuando se utiliza CABAC para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
En la intra predicción, el patrón de exploración inversa es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El patrón de exploración inversa es seleccionado de entre una exploración en diagonal, exploración vertical y exploración horizontal. El patrón de exploración inversa seleccionado es aplicado a banderas significativas, signos de coeficiente y niveles de coeficiente respectivamente para generar el bloque cuantificado.
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción. El primer tamaño es 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción.
En la inter predicción, se usa la exploración en diagonal.
Cuando el tamaño de la unidad de transformación es mayor que el segundo tamaño, las banderas significativas, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos que usa el patrón de exploración inversa determinado para generar subconjuntos, y los subconjuntos son explorados inversamente para generar el bloque cuantificado. El segundo tamaño es 4x4. El tamaño del subconjunto puede ser un bloque 4x4 o un bloque no cuadrado determinado por el patrón de exploración. El bloque no cuadrado incluye 16 coeficientes de transformación. Por ejemplo, el tamaño del subconjunto es 8x2 para la exploración horizontal, 2x8 para la exploración vertical y 4x4 para la exploración en diagonal.
El patrón de exploración inversa utilizado para generar cada subconjunto es el mismo que el patrón de exploración inversa utilizado para generar el bloque cuantificado. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
La última posición de coeficiente diferente de cero y las banderas de subconjunto diferente de cero son recibidas procedentes del codificador. El número de subconjuntos codificados se determina de acuerdo con la última posición de coeficiente diferente de cero y el patrón de exploración inversa. Las banderas de subconjunto diferente de cero se utilizan para seleccionar los subconjuntos a generar. El subconjunto principal y el último subconjunto se generan utilizando el patrón de exploración inversa.
La unidad de cuantificación inversa 203 recibe el parámetro de cuantificación diferencial desde la unidad de decodificación de entropía 201 y genera el predictor del parámetro de cuantificación. El predictor del parámetro de cuantificación se genera a través de la misma operación de la unidad de cuantificación 104 de la figura 1. Entonces, la unidad de cuantificación inversa 203 agrega el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación actual. Si el tamaño de la unidad de codificación actual es igual a o mayor que el tamaño mínimo de la unidad de cuantificación y no se recibe el parámetro de cuantificación diferencial para la unidad de codificación actual desde el codificador, el parámetro de cuantificación diferencial se determina como 0.
La unidad de cuantificación inversa 203 cuantifica inversamente el bloque cuantificado.
La unidad de transformación inversa 204 transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. El tipo de transformación inversa es determinado de forma adaptativa según el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. Por ejemplo, en la inter predicción, se usan transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan las transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT.
La unidad de intra predicción 208 restablece el modo de intra predicción de la unidad de predicción actual utilizando la información de intra predicción recibida, y genera un bloque de predicción según el modo de intra predicción restablecido.
La unidad de inter predicción 209 restablece la información de movimiento de la unidad de predicción actual usando la información de inter predicción recibida, y genera un bloque de predicción usando la información de movimiento.
La unidad de post procesamiento 206 funciona igual que la unidad de post procesamiento 110 de la figura 1.
La unidad de almacenamiento de imágenes 207 recibe una imagen post procesada desde la unidad de post procesamiento 206, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o un campo.
El agregador 205 agrega el bloque residual restablecido y un bloque de predicción para generar un bloque reconstruido.
La figura 3 es un diagrama de flujo que ilustra un procedimiento de generar un bloque reconstruido en la intra predicción.
Primero, se deriva un modo de intra predicción de una unidad de predicción actual (S1100).
La figura 4 es un diagrama de flujo que ilustra un procedimiento de derivar el modo de intra predicción de la unidad de predicción actual según la presente invención.
Los parámetros de inter predicción de la unidad de predicción actual son extraídos de un flujo de bits recibido (S1110).
Los parámetros de intra predicción son un indicador del grupo de modos y un índice del modo de predicción. El indicador del grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intra predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra predicción de la unidad de predicción actual pertenece a un grupo de modos residual. El grupo de modos residual incluye todos los modos de intra predicción diferentes de los modos de intra predicción del grupo de MPM. El índice del modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
El grupo de MPM es construido usando los modos de intra predicción de las unidades de predicción vecinas (S1120). Los modos de intra predicción del grupo de MPM son determinados de forma adaptativa por un modo de intra predicción izquierda y un modo de intra predicción superior. El modo de intra predicción izquierda es el modo de intra predicción de la unidad de predicción vecina izquierda, y el modo de intra predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intra predicción.
Si no existe la unidad de predicción vecina izquierda o superior, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Por ejemplo, si la unidad de predicción actual se encuentra en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior se encuentra dentro de otra porción u otro recuadro, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Si la unidad vecina izquierda o superior está inter codificada, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Si la unidad vecina superior se encuentra dentro de otra LCU, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible.
La figura 5 es un diagrama conceptual que ilustra los modos de intra predicción. Como se muestra en la figura 5, el número de modos de intra predicción es 35. El modo de componente continua (modo DC) y el modo plano son modos de intra predicción no direccional y los otros son modos de intra predicción direccional.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son diferentes entre sí, el modo de intra predicción izquierdo y el modo de intra predicción superior son incluidos en el grupo de MPM y se agrega un modo de intra predicción adicional al grupo de MPM. Se asigna el índice 0 a un modo de intra predicción que tiene número de modo pequeño y se asigna el índice 1 al otro. O se asigna el índice 0 al modo de intra predicción izquierdo y se asigna el índice 1 al modo de intra predicción superior. El modo de intra predicción agregado es determinado por los modos de intra predicción izquierdo y superior de la siguiente manera.
Si uno de los modos de intra predicción izquierda y superior es un modo no direccional y el otro es un modo direccional, se agrega el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intra predicción izquierdo y superior es el modo DC, se agrega el modo plano al grupo de m Pm . Si uno de los modos de intra predicción izquierdo y superior es el modo plano, se agrega el modo DC al grupo de MPM. Si ambos modos de intra predicción izquierda y superior son modos no direccionales, se agrega el modo vertical al grupo de MPM. Si ambos modos de intra predicción izquierda y superior son modos direccionales, se agrega el modo DC o el modo plano al grupo de MPM.
Cuando sólo está disponible uno de los modos de intra predicción izquierda y de intra predicción superior, se incluye el modo de intra predicción disponible en el grupo de m Pm y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo no direccional, se agrega el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agrega el modo plano y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es el modo plano, se agrega el modo DC y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando ambos modos de intra predicción izquierda y de intra predicción superior están disponibles y son iguales entre sí, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo 23, se agrega el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra predicción disponible es el modo 30, se agregan los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intra predicción disponible es un modo no direccional, se agrega el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agrega el modo plano y el modo vertical al grupo de MPM.
Cuando ambos modos de intra predicción izquierdo y de intra predicción superior no están disponibles, se agregan tres modos de intra predicción adicionales al grupo de MPM. Los tres modos de intra predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra predicción en el siguiente orden: modo DC, modo plano y modo vertical, o en el siguiente orden: modo plano, modo DC y modo vertical.
Se determina si el indicador del grupo de modos indica el grupo de MPM (S1130).
Si el indicador del grupo de modos indica el grupo de MPM, la intra predicción del grupo de MPM especificado por el índice del modo de predicción es determinada como el modo de intra predicción de la unidad de predicción actual (S1140).
Si el indicador del grupo de modos no indica el grupo de MPM, se reordenan las tres intra predicciones del grupo de MPM en el orden del número de modo (S1150). De entre los tres modos de intra predicción del grupo de MPM, se determina el modo de intra predicción con el menor número de modo como primer candidato, se determina el modo de intra predicción con el número de modo medio como segundo candidato y se determina el modo de intra predicción con el mayor número de modo como tercer candidato.
Se compara el índice del modo de predicción con el primer candidato (S1160). Si el índice del modo de predicción es igual o mayor que el primer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se compara el índice del modo de predicción con el segundo candidato (S1170). Si el índice del modo de predicción es igual o mayor que el segundo candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se compara el índice del modo de predicción con el tercer candidato (S1180). Si el índice del modo de predicción es igual o mayor que el tercer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se determina el valor del índice del modo de predicción final como el número de modo del modo de intra predicción de la unidad de predicción actual (S1190).
A continuación, se determina un tamaño de un bloque actual para generar un bloque de predicción (S1200).
El tamaño del bloque actual es igual al tamaño de la unidad de transformación. El tamaño del bloque actual se determina usando el tamaño de la unidad de predicción y la información del tamaño de transformación. Un bloque de predicción y un bloque residual del bloque actual tienen el mismo tamaño de la unidad de transformación. La información del tamaño de transformación incluye una o más split_tu_flags (banderas de división de unidad de transformación) para indicar la estructura de división.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, se determina la unidad de predicción actual como el bloque actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, la unidad de predicción se compone de una pluralidad de sub-bloques. Cada sub-bloque es determinado como el bloque actual. En este caso, las etapas S1300, S1400 y S1500 son realizadas para el primer sub-bloque de la unidad de predicción. A continuación, se realizan repetidamente las etapas S1300, S1400 y S1500 para los sub-bloques restantes de la unidad de predicción en el orden de decodificación. Se usa el mismo modo de intra predicción para todos los sub-bloques dentro de la unidad de predicción.
A continuación, se genera un bloque de predicción según el modo de intra predicción (S1300).
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generar el bloque de predicción.
Se determina si todos los píxeles de referencia del bloque actual están disponibles, y se generan píxeles de referencia si uno o más píxeles de referencia no están disponibles (S1210). El bloque actual es la unidad de predicción actual o el sub-bloque de la unidad de predicción actual. El tamaño del bloque actual es el tamaño de la unidad de transformación.
La figura 7 es un diagrama conceptual que ilustra las posiciones de los píxeles de referencia del bloque actual. Como se muestra en la figura 7, los píxeles de referencia de los bloques actuales están compuestos por píxeles de referencia superiores ubicados en (x=0,..., 2N-1, y=-1), píxeles de referencia izquierdos situados en (x=1-, y=0,..., 2M-1) y un píxel de esquina ubicado en (x=-1, y=-1). N es el ancho del bloque actual y M es la altura del bloque actual. Si uno o más píxeles de referencia no están disponibles, se generan uno o más píxeles de referencia de la siguiente manera.
Si todos los píxeles de referencia no están disponibles, un valor constante sustituye a los valores de todos los píxeles de referencia. El valor constante es 2L_1, y el valor de L es el número de bits utilizados para representar un valor de luminancia de píxel.
Si los píxeles de referencia disponibles están situados a un solo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible.
Si los píxeles de referencia disponibles están situados a ambos lados del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
Los píxeles de referencia son filtrados de forma adaptativa en base al modo de intra predicción y el tamaño del bloque actual (S1220). El tamaño del bloque actual es el tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, se adaptan los píxeles de referencia según el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modo de inter predicción en el que se filtran los píxeles de referencia aumenta a medida que el tamaño del bloque actual se hace mayor.
Se genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra predicción restablecido (S1230).
En el modo DC, se generan los píxeles de predicción copiando el valor promedio de los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,...M-1). El píxel de predicción adyacente al píxel de referencia es filtrado por uno o dos píxeles de referencia adyacentes.
En el modo vertical, se generan los píxeles de predicción copiando el valor del correspondiente píxel de referencia vertical. Los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados utilizando el píxel de esquina y el píxel vecino izquierdo.
En el modo horizontal, los píxeles de predicción son generados copiando el valor del correspondiente píxel de referencia horizontal. Los píxeles de predicción adyacentes al píxel de referencia superior son filtrados utilizando el píxel de esquina y el píxel vecino superior.
A continuación, se genera un bloque residual según el modo de intra predicción (S1400).
La figura 8 es un diagrama de flujo que ilustra un procedimiento de generar el bloque residual.
Las señales residuales codificadas son decodificadas por entropía para generar información de coeficientes cuantificados (S1410). Cuando se utiliza CABAC para la codificación de entropía, la información de coeficientes incluye banderas significativas, signos de coeficientes y niveles de coeficientes. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es cero o no es cero. El signo de coeficiente indica un signo de coeficiente de transformación cuantificado distinto de cero, y el nivel de coeficiente indica un valor absoluto del coeficiente de transformación cuantificado distinto de cero.
Se determina un patrón de exploración inversa y se genera un bloque cuantificado de acuerdo con el patrón de exploración inversa (S1420). La etapa es realizada por la unidad de exploración inversa 220 de la figura 2. Por lo tanto, se realiza la misma operación de la unidad de exploración inversa 220 para determinar el patrón de exploración inversa y para generar el bloque cuantificado.
El bloque cuantificado es cuantificado inversamente usando un parámetro de cuantificación (S1430).
La figura 9 es un diagrama de flujo que ilustra un procedimiento de derivar el parámetro de cuantificación.
Se deriva un tamaño mínimo de la unidad de cuantificación (S1431). El tamaño mínimo de la unidad de cuantificación es igual al tamaño de la LCU o al tamaño del sub-bloque de la LCU. El tamaño mínimo de la unidad de cuantificación es determinado por cada imagen. Se extrae un parámetro (cu_qp_delta_enabled_info) del PPS (conjunto de parámetros de la imagen) que especifica la profundidad del tamaño mínimo de la unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se deriva con la siguiente ecuación:
Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
MinQUSize es el tamaño mínimo de la unidad de cuantificación. MaxCUSize es el tamaño de la LCU. Sólo se usa un parámetro para derivar el tamaño mínimo de la unidad de cuantificación.
Se restablece un parámetro de cuantificación diferencial (dQP) de la unidad de codificación actual (S1432). El dQP se restablece por cada unidad de cuantificación. Por ejemplo, si el tamaño de la unidad de codificación actual es igual o mayor que el tamaño mínimo de la unidad de cuantificación, el dQP es restablecido para la unidad de codificación actual. Si la unidad de codificación actual no contiene un dQP codificado, el dQP se pone a cero. Si la unidad de cuantificación incluye varias unidades de codificación, una primera unidad de codificación que contiene el dQP y la siguiente unidad de codificación dentro de la unidad de cuantificación tienen el mismo dQP.
El dQP codificado es decodificado aritméticamente para generar una secuencia binaria (bin string), y se convierte la secuencia binaria en el dQP. La secuencia binaria comprende un indicador binario (bin) para indicar si el dQP es cero o no es cero. Cuando el dQP no es cero, la secuencia binaria comprende además un indicador binario para el signo del dQP, y una secuencia binaria para indicar el valor absoluto del dQP.
Se genera un predictor de parámetro de cuantificación de la unidad de codificación actual (S1433). El predictor de parámetro de cuantificación se genera usando la misma operación de la unidad de cuantificación inversa 230 de la figura 2.
Si la unidad de cuantificación incluye varias unidades de codificación, se genera el predictor de parámetro de cuantificación de la primera unidad de codificación en el orden de decodificación, y se usa el predictor de parámetro de cuantificación generado para todas las unidades de codificación dentro de la unidad de cuantificación.
El parámetro de cuantificación es generado utilizando el dQP y el predictor del parámetro de cuantificación (S1434).
Mientras tanto, también se restablecen las matrices de cuantificación definidas por el usuario. Se recibe un conjunto de las matrices de cuantificación definidas por el usuario procedente del aparato de codificación a través del SPS (conjunto de parámetros de secuencia) o del PPS. La matriz de cuantificación definida por el usuario se restablece utilizando la DPCM (modulación por codificación de impulsos diferencial) inversa. Se usa la exploración en diagonal para la DPCM. Cuando el tamaño de la matriz de cuantificación definida por el usuario es mayor que 8x8, se restablece la matriz de cuantificación definida por el usuario realizando un muestreo de subida (up-sampling) de los coeficientes de la matriz de cuantificación 8x8 recibida. El coeficiente DC de la matriz de cuantificación definida por el usuario es extraído del SPS o del PPS. Por ejemplo, si el tamaño de la matriz de cuantificación definida por el usuario es de 16x16, se hace un muestreo de subida (up-sampling) de los coeficientes de la matriz de cuantificación 8x8 recibida usando un muestreo de subida de 1:4.
Se genera un bloque residual transformando inversamente el bloque cuantificado inversamente (S1440). Se determina de forma adaptativa un tipo de transformación inversa según el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformadas de enteros basadas en DST, de lo contrario se usan las transformadas de enteros basadas en DCT.
A continuación, se genera un bloque reconstruido agregando el bloque de predicción y el bloque residual (S1500).
La figura 10 es un diagrama de bloques que ilustra un aparato de generación de un bloque reconstruido 300.
Como se muestra en la figura 10, el aparato 300 incluye una unidad de derivación de modo de predicción 310, una unidad de determinación de tamaño de predicción 320, una unidad de generación de bloque de predicción 330, una unidad de generación de bloque residual 340 y una unidad de generación de bloque reconstruido 350.
La unidad de derivación del modo de intra predicción 310 deriva el modo de intra predicción de la unidad de predicción actual. La unidad de derivación del modo de intra predicción 310 realiza el mismo procedimiento de la figura 4 para derivar el modo de intra predicción.
La unidad de determinación de tamaño de predicción 320 determina el tamaño del bloque actual usando el tamaño de la unidad de predicción actual y la información del tamaño de transformación. El tamaño del bloque actual es igual al tamaño de la unidad de transformación. Un bloque de predicción y un bloque residual del bloque actual tienen el mismo tamaño de la unidad de transformación. La unidad de predicción actual o un sub-bloque de la unidad de predicción actual se determina como el bloque actual en base a la información de tamaño de transformación.
La unidad de generación del bloque de predicción 330 genera el bloque de predicción del bloque actual usando el modo de intra predicción. La unidad de generación del bloque de predicción 330 incluye un generador de píxeles de referencia 331, un filtro de píxeles de referencia 332 y un generador del bloque de predicción 333.
El generador de píxeles de referencia 331 genera píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles. Si todos los píxeles de referencia no están disponibles, el valor de 2L-1 sustituye a los valores de todos los píxeles de referencia. El valor de L es la cantidad de bits utilizados para representar el valor de luminancia de píxel. Si los píxeles de referencia disponibles están situados a un solo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible. Si los píxeles de referencia disponibles están situados a ambos lados del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
El filtro de píxel de referencia 332 filtra de forma adaptativa los píxeles de referencia en base al modo de intra predicción y al tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de referencia son adaptados según el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modos de inter predicción en los que se filtran los píxeles de referencia aumenta a medida que aumenta el tamaño del bloque actual. Por ejemplo, los píxeles de referencia no son filtrados en el modo vertical y un número predeterminado de modo de intra predicción vecino del modo vertical. Los píxeles de referencia tampoco son filtrados en el modo horizontal y el número predeterminado de modo de intra predicción vecino del modo horizontal. El número predeterminado es uno de entre el 0 al 7 y disminuye a medida que aumenta el tamaño del bloque actual.
El generador de bloque de predicción 333 genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra predicción.
En el modo DC, los píxeles de predicción son generados copiando el valor promedio de los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,... M-1). El píxel de predicción adyacente al píxel de referencia es filtrado por uno o dos píxeles de referencia adyacentes.
En el modo vertical, los píxeles de predicción son generados copiando el valor del píxel de referencia vertical. Los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados usando el píxel de referencia de esquina y el píxel de referencia vecino izquierdo.
En el modo horizontal, los píxeles de predicción son generados copiando el valor del píxel de referencia horizontal. Los píxeles de predicción adyacentes al píxel de referencia superior son filtrados usando el píxel de referencia de esquina y el píxel de referencia vecino superior.
La unidad de generación de bloque residual 340 genera el bloque residual del bloque actual usando el modo de intra predicción. El mismo procedimiento de la figura 8 es realizado por la unidad de generación de bloque residual 340. La unidad de generación de bloque reconstruido 350 agrega el bloque de predicción y el bloque residual para generar el bloque reconstruido del bloque actual.
Aunque la invención se ha mostrado y descrito con referencia a ciertas realizaciones de ejemplo de la misma, los expertos en la técnica entenderán que pueden realizarse diversos cambios en la forma y detalles sin apartarse del alcance de la invención según definen las reivindicaciones adjuntas.

Claims (2)

REIVINDICACIONES
1. Un procedimiento de derivar un modo de intra predicción de una unidad de predicción actual, comprendiendo el procedimiento:
decodificar por entropía un indicador de grupo de modos y un índice de modo de predicción, en el que el indicador de grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables, MPM, y en el que el índice de modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos;
construir (S1120) el grupo de MPM utilizando modos de intra predicción de un bloque izquierdo y un bloque superior de la unidad de predicción actual, en el que el grupo de MPM incluye tres modos de intra predicción;
determinar (S1130) si el indicador de grupo de modos indica el grupo de MPM;
determinar (S1140) un modo de intra predicción especificado por el índice de modo de predicción entre los tres modos de intra predicción en el grupo de MPM como el modo de intra predicción de la unidad de predicción actual cuando el indicador de grupo de modos grupo indica el grupo de MPM; y
derivar el modo de intra predicción de la unidad de predicción actual utilizando el índice de modo de predicción y los tres modos de intra predicción en el grupo de MPM cuando el indicador de grupo de modos no indica el grupo de MPM, en el que si el índice de modo de predicción es mayor o igual que un primer modo en el grupo de MPM, el valor del índice de modo de predicción se incrementa en uno; si el índice de modo de predicción es mayor o igual que un segundo modo en el grupo de MPM, el valor del índice de modo de predicción se incrementa en uno; y a continuación si el índice de modo de predicción es mayor o igual que un tercer modo en el grupo de MPM, el valor del índice de modo de predicción se incrementa en uno,
en el que el grupo de MPM incluye dos modos no direccionales y un modo vertical cuando sólo uno de los modos de intra predicción de los bloques izquierdo y superior está disponible y el modo de intra predicción disponible es uno de los dos modos no direccionales, en el que los dos modos no direccionales son el modo planor y el modo DC,
en el que el primer modo es un modo de intra predicción de un número de modo más bajo en el grupo de MPM, el segundo modo es un modo de intra predicción de un número de modo medio en el grupo de MPM, y el tercer modo es un modo de intra predicción de un número de modo más alto en el grupo de MPM,
en el que los tres modos de intra predicción en el grupo de MPM son ordenados en un orden del primer modo, el segundo modo y el tercer modo; y
en el que, cuando sólo está disponible uno de los modos de intra predicción de los bloques izquierdo y superior y el modo de intra predicción disponible es uno de los modos direccionales, el grupo de MPM incluye los dos modos no direccionales y el modo de intra predicción disponible.
2. El procedimiento de la reivindicación 1, en el que el grupo de MPM comprende los dos modos no direccionales y el modo vertical cuando ambos modos de intra predicción del bloque izquierdo y del bloque superior no están disponibles.
ES18158853T 2011-11-04 2012-11-02 Procedimiento de derivar un modo de intra predicción Active ES2881980T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110114609A KR20130049525A (ko) 2011-11-04 2011-11-04 잔차 블록 복원을 위한 역변환 방법

Publications (1)

Publication Number Publication Date
ES2881980T3 true ES2881980T3 (es) 2021-11-30

Family

ID=48191360

Family Applications (2)

Application Number Title Priority Date Filing Date
ES18158853T Active ES2881980T3 (es) 2011-11-04 2012-11-02 Procedimiento de derivar un modo de intra predicción
ES12846401.3T Active ES2669502T3 (es) 2011-11-04 2012-11-02 Procedimiento de generación de un bloque reconstruido

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES12846401.3T Active ES2669502T3 (es) 2011-11-04 2012-11-02 Procedimiento de generación de un bloque reconstruido

Country Status (29)

Country Link
US (8) US9014262B2 (es)
EP (5) EP3346447B1 (es)
JP (6) JP5789343B2 (es)
KR (4) KR20130049525A (es)
CN (8) CN107734334B (es)
AU (5) AU2012331601B2 (es)
BR (4) BR122020014282B1 (es)
CA (7) CA3057770C (es)
CY (1) CY1120400T1 (es)
DK (1) DK2774122T3 (es)
ES (2) ES2881980T3 (es)
HR (1) HRP20181016T1 (es)
HU (2) HUE054637T2 (es)
IL (5) IL231705A (es)
IN (1) IN2014CN03908A (es)
LT (1) LT2774122T (es)
MX (7) MX340474B (es)
MY (6) MY190516A (es)
NO (1) NO2774122T3 (es)
PE (1) PE20142032A1 (es)
PL (2) PL2774122T3 (es)
PT (1) PT2774122T (es)
RS (1) RS57282B1 (es)
RU (5) RU2710995C2 (es)
SG (2) SG10201607196UA (es)
SI (1) SI2774122T1 (es)
TW (6) TWI684350B (es)
WO (1) WO2013064099A1 (es)
ZA (2) ZA201600849B (es)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2014CN02377A (es) 2011-09-29 2015-06-19 Sharp Kk
CN103828364B (zh) * 2011-09-29 2018-06-12 夏普株式会社 图像解码装置、图像解码方法及图像编码装置
CN107257471B (zh) 2011-10-18 2020-04-14 Lg 电子株式会社 帧内预测方法及其设备
CN104935929B (zh) * 2011-10-24 2018-05-25 英孚布瑞智有限私人贸易公司 图像解码设备
CN105338346B (zh) * 2011-10-24 2018-11-13 英孚布瑞智有限私人贸易公司 用于图像解码的方法和装置
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130050407A (ko) 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
US10277915B2 (en) * 2011-11-07 2019-04-30 Qualcomm Incorporated Signaling quantization matrices for video coding
US9554136B2 (en) 2011-12-05 2017-01-24 Lg Electronics Inc. Method and device for intra prediction
PL2869557T3 (pl) 2012-06-29 2024-02-19 Electronics And Telecommunications Research Institute Sposób i urządzenie do kodowania/dekodowania obrazów
US9380307B2 (en) * 2012-11-19 2016-06-28 Qualcomm Incorporated Method and system for intra base layer (BL) transform in video coding
US11470339B2 (en) 2013-08-27 2022-10-11 Qualcomm Incorporated Residual prediction for intra block copying
CN104219531B (zh) * 2014-09-29 2018-02-06 北方工业大学 基于线状帧内块拷贝的hevc屏幕内容编码
WO2016136106A1 (ja) * 2015-02-27 2016-09-01 Kddi株式会社 符号化装置及び復号装置
US9769499B2 (en) * 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
WO2017030418A1 (ko) * 2015-08-19 2017-02-23 엘지전자(주) 다중 그래프 기반 모델에 따라 최적화된 변환을 이용하여 비디오 신호를 인코딩/ 디코딩하는 방법 및 장치
US10547854B2 (en) * 2016-05-13 2020-01-28 Qualcomm Incorporated Neighbor based signaling of intra prediction modes
CN114339225B (zh) * 2016-09-05 2024-06-04 罗斯德尔动力有限责任公司 图像编码和解码装置及比特流存储介质和发送装置
US10778976B2 (en) * 2016-09-28 2020-09-15 Sharp Kabushiki Kaisha Image decoding apparatus and image coding apparatus
US10506228B2 (en) 2016-10-04 2019-12-10 Qualcomm Incorporated Variable number of intra modes for video coding
US10728578B2 (en) 2017-03-06 2020-07-28 Sony Corporation Bias minimization for successive image reconstruction based on embedded codec circuitry
KR102257829B1 (ko) 2017-04-13 2021-05-28 엘지전자 주식회사 영상의 부호화/복호화 방법 및 이를 위한 장치
WO2018205914A1 (en) * 2017-05-10 2018-11-15 Mediatek Inc. Method and apparatus of reordering motion vector prediction candidate set for video coding
WO2019078630A1 (ko) 2017-10-18 2019-04-25 삼성전자 주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
GB2567861A (en) 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
KR102618498B1 (ko) 2018-03-08 2023-12-27 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019191713A1 (en) * 2018-03-30 2019-10-03 Hulu, LLC Intra prediction mode signaling for video coding
US10893285B2 (en) * 2018-06-29 2021-01-12 FG Innovation Company Limited Device and method for coding video data based on one or more reference lines
WO2020071871A1 (ko) * 2018-10-05 2020-04-09 엘지전자 주식회사 영상 서비스 처리 방법 및 그 장치
KR20200041801A (ko) * 2018-10-12 2020-04-22 인텔렉추얼디스커버리 주식회사 영상 부호화/복호화 방법 및 장치
US11159789B2 (en) 2018-10-24 2021-10-26 City University Of Hong Kong Generative adversarial network based intra prediction for video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
KR20220147731A (ko) 2019-03-11 2022-11-03 엘지전자 주식회사 Ibc 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN117241014A (zh) * 2019-06-05 2023-12-15 华为技术有限公司 Mpm列表构建方法、色度块的帧内预测模式获取方法及装置
KR20220005591A (ko) 2019-06-24 2022-01-13 엘지전자 주식회사 크로마 블록의 최대 변환 크기 설정을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
EP3965416B1 (en) 2020-09-08 2022-08-03 Axis AB Method and device for intra-coding an image frame

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
JP5017086B2 (ja) * 2002-07-15 2012-09-05 日立コンシューマエレクトロニクス株式会社 動画像復号化方法
JP2006005438A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
KR100621581B1 (ko) * 2004-07-15 2006-09-13 삼성전자주식회사 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
KR100678911B1 (ko) * 2005-07-21 2007-02-05 삼성전자주식회사 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치
KR101311402B1 (ko) 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
CN101087427B (zh) * 2006-06-06 2011-04-06 北京大学深圳研究生院 一种h.264标准的帧内预测模式选择方法
KR100927733B1 (ko) * 2006-09-20 2009-11-18 한국전자통신연구원 잔여계수의 상관성에 따라 변환기를 선택적으로 이용한부호화/복호화 장치 및 그 방법
CN101536530B (zh) * 2006-11-07 2011-06-08 三星电子株式会社 基于运动估计进行视频编码和解码的方法和设备
TW200830881A (en) * 2007-01-10 2008-07-16 Beyond Innovation Tech Co Ltd Method for processing images
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
JP2008193627A (ja) * 2007-01-12 2008-08-21 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
US8233537B2 (en) 2007-03-19 2012-07-31 Texas Instruments Incorporated Efficient implementation of H.264 4 by 4 intra prediction on a VLIW processor
WO2008120434A1 (ja) * 2007-03-28 2008-10-09 Panasonic Corporation 復号化回路、復号化方法、符号化回路及び符号化方法
US20090147849A1 (en) * 2007-12-07 2009-06-11 The Hong Kong University Of Science And Technology Intra frame encoding using programmable graphics hardware
KR100940444B1 (ko) * 2007-12-18 2010-02-10 한국전자통신연구원 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법
US20090161757A1 (en) * 2007-12-21 2009-06-25 General Instrument Corporation Method and Apparatus for Selecting a Coding Mode for a Block
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US8634456B2 (en) * 2008-10-03 2014-01-21 Qualcomm Incorporated Video coding with large macroblocks
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
WO2010131903A2 (en) * 2009-05-12 2010-11-18 Lg Electronics Inc. Method and apparatus for processing a video signal
CN104822066A (zh) * 2009-07-01 2015-08-05 汤姆森特许公司 用于视频编码器和解码器的方法和装置
CN101621692B (zh) * 2009-07-27 2011-04-20 宁波大学 一种基于预测模式的h.264/avc视频信息隐藏方法
KR101452860B1 (ko) * 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101507344B1 (ko) * 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
KR20110065089A (ko) * 2009-12-09 2011-06-15 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101487687B1 (ko) * 2010-01-14 2015-01-29 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
CN101854551B (zh) * 2010-06-08 2012-08-15 浙江大学 帧内预测模式编解码方法及装置
US9661338B2 (en) * 2010-07-09 2017-05-23 Qualcomm Incorporated Coding syntax elements for adaptive scans of transform coefficients for video coding
US9378185B2 (en) * 2010-09-30 2016-06-28 Texas Instruments Incorporated Transform and quantization architecture for video coding and decoding
US10397577B2 (en) * 2011-03-08 2019-08-27 Velos Media, Llc Inverse scan order for significance map coding of transform coefficients in video coding
US9667987B2 (en) 2011-03-10 2017-05-30 Futurewei Technologies, Inc. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
CN106851300B (zh) * 2011-09-13 2020-05-26 寰发股份有限公司 基于最可能模式的帧内预测模式的方法及装置
WO2013051903A1 (en) 2011-10-07 2013-04-11 Pantech Co., Ltd. Methods and apparatuses of encoding/decoding intra prediction mode using candidate intra prediction modes
CN105338346B (zh) * 2011-10-24 2018-11-13 英孚布瑞智有限私人贸易公司 用于图像解码的方法和装置
CN104935929B (zh) * 2011-10-24 2018-05-25 英孚布瑞智有限私人贸易公司 图像解码设备
ES2816567T3 (es) * 2011-10-24 2021-04-05 Innotive Ltd Método y aparato para decodificar modo de intra-predicción
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법

Also Published As

Publication number Publication date
CA3057770C (en) 2021-04-27
AU2016203216B2 (en) 2017-12-14
EP3379492A1 (en) 2018-09-26
US10917640B2 (en) 2021-02-09
KR20140070598A (ko) 2014-06-10
RU2016142729A (ru) 2018-12-17
CN107809640B (zh) 2020-06-09
US20180288412A1 (en) 2018-10-04
TW201921926A (zh) 2019-06-01
CN107770535A (zh) 2018-03-06
TWI715506B (zh) 2021-01-01
AU2016203216A1 (en) 2016-06-09
MX2014003912A (es) 2014-07-28
RU2014111828A (ru) 2015-12-10
CA2913567C (en) 2017-09-26
AU2016203214A1 (en) 2016-06-09
CN107682697B (zh) 2020-06-09
CN107770534B (zh) 2020-08-04
MX340476B (es) 2016-07-08
HRP20181016T1 (hr) 2018-11-02
MY190516A (en) 2022-04-26
ES2669502T3 (es) 2018-05-28
RU2710995C2 (ru) 2020-01-14
CN103096067A (zh) 2013-05-08
IL247674B (en) 2019-09-26
HUE054637T2 (hu) 2021-09-28
IL247675B (en) 2018-04-30
RU2711467C2 (ru) 2020-01-17
JP2017130969A (ja) 2017-07-27
SG10201607196UA (en) 2016-10-28
RU2016142725A (ru) 2018-12-17
SI2774122T1 (en) 2018-06-29
SG11201400674SA (en) 2014-04-28
CN107682696A (zh) 2018-02-09
RU2016142727A3 (es) 2019-10-31
KR20140066760A (ko) 2014-06-02
BR122020014282B1 (pt) 2021-07-20
AU2016203217B2 (en) 2017-12-14
TW202013959A (zh) 2020-04-01
RU2016142725A3 (es) 2019-12-02
LT2774122T (lt) 2018-06-11
CN107613293B (zh) 2020-10-20
CA3111640A1 (en) 2013-05-10
JP2015195617A (ja) 2015-11-05
RU2016142727A (ru) 2018-12-18
CA2913566A1 (en) 2013-05-10
RU2711306C2 (ru) 2020-01-16
US9497462B2 (en) 2016-11-15
AU2016203215B2 (en) 2017-12-14
IN2014CN03908A (es) 2015-10-16
MY170819A (en) 2019-08-30
MX356330B (es) 2018-05-24
IL231705A0 (en) 2014-05-28
US10015489B2 (en) 2018-07-03
TWI558170B (zh) 2016-11-11
US9497463B2 (en) 2016-11-15
MX340475B (es) 2016-07-08
EP3346447B1 (en) 2021-04-28
CY1120400T1 (el) 2019-07-10
US20150189273A1 (en) 2015-07-02
AU2016203215A1 (en) 2016-06-09
DK2774122T3 (en) 2018-07-16
EP2774122B1 (en) 2018-04-11
CA2913567A1 (en) 2013-05-10
JP6101316B2 (ja) 2017-03-22
AU2012331601B2 (en) 2016-02-18
HUE037565T2 (hu) 2018-09-28
TWI684350B (zh) 2020-02-01
CN107682697A (zh) 2018-02-09
IL247674A0 (en) 2016-11-30
CA3111640C (en) 2023-10-31
US20170041603A1 (en) 2017-02-09
BR122020014293B1 (pt) 2021-07-20
MY190529A (en) 2022-04-27
RS57282B1 (sr) 2018-08-31
JP6116626B2 (ja) 2017-04-19
JP2015195614A (ja) 2015-11-05
US9503726B2 (en) 2016-11-22
BR122020014298B1 (pt) 2021-07-20
AU2012331601A1 (en) 2014-04-10
TWI699992B (zh) 2020-07-21
CA3057770A1 (en) 2013-05-10
JP6116625B2 (ja) 2017-04-19
AU2016203217A1 (en) 2016-06-09
US20150195530A1 (en) 2015-07-09
CA2849028A1 (en) 2013-05-10
PT2774122T (pt) 2018-07-03
CA2849028C (en) 2016-01-26
CN107734334B (zh) 2020-07-24
CN107682696B (zh) 2020-06-23
WO2013064099A1 (en) 2013-05-10
CN107770534A (zh) 2018-03-06
ZA201600849B (en) 2017-05-31
CN107613293A (zh) 2018-01-19
CA2976066C (en) 2019-12-03
NO2774122T3 (es) 2018-09-08
US20140247868A1 (en) 2014-09-04
JP5789343B2 (ja) 2015-10-07
RU2604340C2 (ru) 2016-12-10
JP2015195615A (ja) 2015-11-05
US20150189274A1 (en) 2015-07-02
RU2710996C2 (ru) 2020-01-14
IL231705A (en) 2016-09-29
TW201342936A (zh) 2013-10-16
AU2016203214B2 (en) 2018-01-18
EP3346447A1 (en) 2018-07-11
PL2774122T3 (pl) 2018-09-28
US10623732B2 (en) 2020-04-14
EP2774122A4 (en) 2015-07-29
MX2018006177A (es) 2023-03-06
TW201743608A (zh) 2017-12-16
CA2976066A1 (en) 2013-05-10
MX340474B (es) 2016-07-08
PL3346447T3 (pl) 2021-11-29
JP2015195616A (ja) 2015-11-05
MY190530A (en) 2022-04-27
TWI650001B (zh) 2019-02-01
US20200228799A1 (en) 2020-07-16
BR122020014288B1 (pt) 2021-07-13
KR20130049525A (ko) 2013-05-14
CN107734334A (zh) 2018-02-23
JP6367413B2 (ja) 2018-08-01
US20150189275A1 (en) 2015-07-02
CA3212893A1 (en) 2013-05-10
JP6118374B2 (ja) 2017-04-19
MY190514A (en) 2022-04-26
KR20140074348A (ko) 2014-06-17
EP3364372A1 (en) 2018-08-22
TWI603610B (zh) 2017-10-21
CN103096067B (zh) 2017-11-28
RU2016142728A3 (es) 2019-10-31
EP2774122A1 (en) 2014-09-10
TW201644274A (zh) 2016-12-16
CN107809640A (zh) 2018-03-16
ZA201600847B (en) 2017-05-31
MY190515A (en) 2022-04-26
RU2016142728A (ru) 2018-12-17
EP3364373A1 (en) 2018-08-22
US9344728B2 (en) 2016-05-17
CA2913566C (en) 2018-04-10
RU2016142729A3 (es) 2019-11-29
MX340477B (es) 2016-07-08
IL247676A (en) 2017-10-31
US9014262B2 (en) 2015-04-21
TW202037158A (zh) 2020-10-01
PE20142032A1 (es) 2014-12-17
JP2014534751A (ja) 2014-12-18
CN107770535B (zh) 2020-07-14
IL247673B (en) 2018-04-30

Similar Documents

Publication Publication Date Title
ES2881980T3 (es) Procedimiento de derivar un modo de intra predicción
ES2870799T3 (es) Procedimiento de generación de un bloque cuantificado
BR112014007869B1 (pt) Método para gerar um bloco reconstruído