ES2705998T3 - Procedimiento de derivación de información de movimiento - Google Patents
Procedimiento de derivación de información de movimiento Download PDFInfo
- Publication number
- ES2705998T3 ES2705998T3 ES12847552T ES12847552T ES2705998T3 ES 2705998 T3 ES2705998 T3 ES 2705998T3 ES 12847552 T ES12847552 T ES 12847552T ES 12847552 T ES12847552 T ES 12847552T ES 2705998 T3 ES2705998 T3 ES 2705998T3
- Authority
- ES
- Spain
- Prior art keywords
- block
- candidate
- fusion
- unit
- movement information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/198—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Abstract
Un procedimiento de decodificar datos de video en un modo de fusión, en el que, en modo de fusión, información de movimiento de uno de entre unos bloques candidatos de fusión se establece como información de movimiento de una unidad de predicción actual, que comprende: construir una lista de fusión usando bloques candidatos de fusión espacial y temporal disponibles; establecer información de movimiento de un bloque candidato de fusión en la lista de fusión correspondiente a un índice de fusión como información de movimiento de la unidad de predicción actual; generar un bloque de predicción de la unidad de predicción actual usando la información de movimiento; y generar un bloque cuantificado explorando inversamente componentes de coeficiente cuantificado, generar un bloque transformado cuantificando inversamente el bloque cuantificado usando un parámetro de cuantificación y generar un bloque residual transformando inversamente el bloque transformado; en el que cuando la unidad de predicción actual es una segunda unidad de predicción de entre dos unidades de predicción divididas a partir de una unidad de codificación actual mediante partición asimétrica, una primera unidad de predicción dividida por medio de la partición asimétrica no se considera que sea un bloque candidato de fusión, y en el que un bloque candidato de fusión espacial es un bloque izquierdo, un bloque superior, un bloque superior derecho, un bloque inferior izquierdo o un bloque superior izquierdo de la unidad de predicción actual, y el bloque superior izquierdo se establece como un bloque candidato de fusión cuando están disponibles uno o más de entre el bloque izquierdo, el bloque superior, el bloque superior derecho, el bloque inferior izquierdo.
Description
DESCRIPCIÓN
Procedimiento de derivación de información de movimiento
La presente invención se refiere a un procedimiento de derivar información de movimiento, y más particularmente, a un procedimiento de derivar información de movimiento en modo de fusión construyendo una lista de candidatos de fusión usando candidatos de fusión espaciales y temporales.
Técnica anterior
Procedimientos para comprimir datos de video incluyen MPEG-2, MPEG-4 y H.264/MPEG-4 AVC. De acuerdo con estos procedimientos, una imagen se divide en macro-bloques para codificar una imagen, los respectivos macrobloques se codifican generando un bloque de predicción utilizando inter predicción o intra predicción. La diferencia entre un bloque original y el bloque de predicción es transformada para generar un bloque transformado, y se cuantifica el bloque transformado usando un parámetro de cuantificación y una de entre una pluralidad de matrices de cuantificación predeterminadas. El coeficiente cuantificado del bloque cuantificado es explorado mediante un tipo de exploración predeterminado y luego es codificado por entropía. El parámetro de cuantificación es ajustado por cada macro-bloque y es codificado utilizando un parámetro de cuantificación anterior.
En H.264/MPEG-4 AVC, se usa la estimación de movimiento para eliminar una redundancia temporal entre imágenes consecutivas. Para detectar la redundancia temporal, se utilizan una o más imágenes de referencia para estimar el movimiento de un bloque actual, y se realiza una compensación de movimiento para generar un bloque de predicción utilizando información de movimiento. La información de movimiento incluye uno o más índices de imagen de referencia y uno o más vectores de movimiento.
De acuerdo con H.264/MPEG-4 AVC, se predicen y codifican solo los vectores de movimiento utilizando vectores de movimiento vecinos, y se codifican los índices de imagen de referencia sin índices de imagen de referencia vecinos. Sin embargo, si se usan varios tamaños para la inter predicción, aumenta la correlación entre información de movimiento de un bloque actual e información de movimiento de uno o más bloques vecinos. Además, la correlación entre un vector de movimiento de un bloque actual y un vector de movimiento de un bloque vecino dentro de una imagen de referencia aumenta a medida que aumenta el tamaño de la imagen si el movimiento de la imagen es casi constante o lento. Por consiguiente, el procedimiento de compresión convencional descrito anteriormente reduce la eficiencia de compresión de la información de movimiento si el tamaño de la imagen es más grande que el de la imagen de alta definición y se permiten varios tamaños para la estimación de movimiento y la compensación de movimiento.
La presente invención se refiere a un procedimiento de derivar información de movimiento construyendo una lista de candidatos de fusión usando candidatos de fusión espaciales y candidatos temporales.
La invención se define en las reivindicaciones adjuntas.
Un aspecto de la presente invención proporciona un procedimiento de derivación de información de movimiento de una unidad de predicción actual, que comprende: extraer un índice de fusión de un flujo de bits; construir una lista de candidatos de fusión utilizando candidatos de fusión espaciales y temporales disponibles; seleccionar un predictor de fusión de entre los candidatos de fusión incluidos en la lista de candidatos de fusión utilizando el índice de fusión; y establecer información de movimiento del predictor de fusión como información de movimiento de la unidad de predicción actual. El candidato de fusión temporal incluye un índice de imagen de referencia y un vector de movimiento, se establece el cero como el índice de imagen de referencia del candidato de fusión temporal, y se establece un vector de movimiento de un bloque candidato de fusión temporal de una imagen candidata de fusión temporal como el vector de movimiento del candidato de fusión temporal.
Un procedimiento según la presente invención extrae un índice de fusión de un flujo de bits, construye una lista de candidatos de fusión utilizando candidatos de fusión espaciales y temporales disponibles, selecciona un predictor de fusión de entre los candidatos de fusión incluidos en la lista de candidatos de fusión utilizando el índice de fusión, y establece información de movimiento del predictor de fusión como información de movimiento de la unidad de predicción actual. El candidato de fusión temporal incluye un índice de imagen de referencia y un vector de movimiento, se establece el cero como el índice de imagen de referencia del candidato de fusión temporal, y se establece un vector de movimiento de un bloque candidato de fusión temporal de una imagen candidata de fusión temporal como el vector de movimiento del candidato de fusión temporal. En consecuencia, se mejora la eficiencia de codificación de información de movimiento incluyendo diversos candidatos de fusión. Además, se reduce la complejidad computacional de un codificador y un decodificador manteniendo una mejora de la eficiencia de codificación almacenando de manera adaptativa información de movimiento de imagen de referencia y generando de manera adaptativa un candidato de fusión temporal.
Descripción de dibujos
La Figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según la presente invención. La Figura 2 es un diagrama de flujo que ilustra un procedimiento de codificación de datos de video en un modo de inter predicción de acuerdo con la presente invención.
La Figura 3 es un diagrama de flujo que ilustra un procedimiento de codificación de información de movimiento en un modo de fusión de acuerdo con la presente invención.
La Figura 4 es un diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales de acuerdo con la presente invención.
La Figura 5 es un diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en un modo de partición asimétrica de acuerdo con la presente invención.
La Figura 6 es otro diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en otro modo de partición asimétrica de acuerdo con la presente invención.
La Figura 7 es otro diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en otro modo de partición asimétrica de acuerdo con la presente invención.
La Figura 8 es otro diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en otro modo de partición asimétrica de acuerdo con la presente invención.
La Figura 9 es un diagrama conceptual que ilustra una posición de un bloque candidato de fusión temporal de acuerdo con la presente invención.
La Figura 10 es un diagrama conceptual que ilustra un procedimiento de almacenar información de movimiento de acuerdo con la presente invención.
La Figura 11 es un diagrama de bloques de un aparato de decodificación de imágenes 200 de acuerdo con la presente invención.
La Figura 12 es un diagrama de flujo que ilustra un procedimiento de decodificación de una imagen en modo de inter predicción de acuerdo con la presente invención.
La Figura 13 es un diagrama de flujo que ilustra un procedimiento de derivar información de movimiento en modo de fusión.
La Figura 14 es un diagrama de flujo que ilustra un procedimiento de generar un bloque residual en modo de inter predicción según la presente invención.
La Figura 15 es un diagrama de flujo que ilustra un procedimiento de derivar un parámetro de cuantificación según la presente invención.
Formas de realización
En lo sucesivo, se describirán en detalle varias formas de realización de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las formas de realización descritas a continuación a modo de ejemplo, sino que se puede implementar de diversas maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y se debe entender que dentro del alcance del concepto divulgado, la presente invención se puede poner en práctica de otra manera a la que se ha descrito específicamente. Un aparato de codificación de imágenes y un aparato de decodificación de imágenes según la presente invención puede ser un terminal de usuario tal como un sistema informático personal, un terminal móvil personal, un reproductor multimedia móvil, un teléfono inteligente o un terminal de comunicación inalámbrica. El dispositivo de codificación de imágenes y el dispositivo de decodificación de imágenes pueden incluir una unidad de comunicación para comunicarse con diversos dispositivos, una memoria para almacenar diversos programas y datos utilizados para codificar o decodificar imágenes.
La Figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según la presente invención.
Con referencia a la Figura 1, el aparato de codificación de imágenes 100 según la presente invención incluye una unidad de división (o partición) de imágenes 110, una unidad de intra predicción 120, una unidad de inter predicción 130, una unidad de transformación 140, una unidad de cuantificación 150, una unidad de exploración (o escaneo) 160, una unidad de codificación de entropía 170, una unidad de cuantificación/transformación inversa 180, una unidad de post procesamiento 190 y una unidad de almacenamiento de imágenes 195.
La unidad de división de imágenes 110 divide una imagen o un segmento o corte (slice) en unidades de codificación de mayor tamaño y divide cada unidad de codificación de mayor tamaño en una o más unidades de codificación. El tamaño de unidad de codificación de mayor tamaño puede ser 32x32, 64x64 o 128x128. La unidad de división de imágenes 110 determina el modo de predicción y el modo de división de cada unidad de codificación.
Una unidad de codificación de mayor tamaño (LCU) incluye una o más unidades de codificación. La unidad de codificación de mayor tamaño tiene una estructura de árbol cuádruple recursivo para especificar una estructura de división (o partición) de la unidad de codificación de mayor tamaño. Los parámetros para especificar el tamaño máximo y el tamaño mínimo de la unidad de codificación son incluidos en un conjunto de parámetros de secuencia. La estructura de división es especificada por uno o más indicadores de unidad de codificación dividida (split_cu_flags). El tamaño de una unidad de codificación es 2Nx2N. Si el tamaño de la unidad de codificación de mayor tamaño es de 64x64 y el tamaño de la unidad de codificación de menor tamaño (SCU) es de 8x8, el tamaño de la unidad de codificación puede ser de 64x64, 32x32, 16x16 u 8x8.
Una unidad de codificación incluye una o más unidades de predicción. En la intra predicción, el tamaño de la unidad de predicción es 2Nx2N o NxN. En la inter predicción, el tamaño de la unidad de predicción es especificada por el modo de división. El modo de división es uno de entre 2Nx2N, 2NxN, Nx2N y NxN si la unidad de codificación es particionada (o dividida) simétricamente. El modo de división es uno de entre 2NxnU, 2NxnD, nLx2N y nRx2N si la unidad de codificación es particionada asimétricamente. Los modos de división son permitidos según el tamaño de la unidad de codificación para reducir la complejidad del hardware. Si la unidad de codificación tiene un tamaño mínimo, no se permite la partición asimétrica. Además, si la unidad de codificación tiene el tamaño mínimo, puede no permitirse el modo de división NxN.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura de árbol cuádruple recursivo para especificar una estructura de división de la unidad de codificación. La estructura de división es especificada por uno o más indicadores de unidad de transformación dividida (split_tu_flags). Los parámetros para especificar el tamaño máximo y el tamaño mínimo de la unidad de transformación de luma son incluidos en un conjunto de parámetros de secuencia.
La unidad de intra predicción 120 determina un modo de intra predicción de una unidad de predicción actual y genera un bloque de predicción usando el modo de intra predicción.
La unidad de inter predicción 130 determina información de movimiento de una unidad de predicción actual usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 195, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de imagen de referencia y uno o más vectores de movimiento.
La unidad de transformación 140 transforma un bloque residual para generar un bloque transformado. El bloque residual tiene el mismo tamaño que la unidad de transformación. Si la unidad de predicción es más grande que la unidad de transformación, las señales residuales entre el bloque actual y el bloque de predicción son divididas en múltiples bloques residuales.
La unidad de cuantificación 150 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación es determinado por cada unidad de cuantificación. El tamaño de la unidad de cuantificación puede variar y ser uno de los tamaños permitidos de la unidad de codificación. Si un tamaño de la unidad de codificación es igual o más grande que un tamaño mínimo de la unidad de cuantificación, la unidad de codificación pasa a ser la unidad de cuantificación. Se puede incluir una pluralidad de unidades de codificación en una unidad de cuantificación de tamaño mínimo. El tamaño mínimo de la unidad de cuantificación es determinado por cada imagen y se incluye un parámetro para especificar el tamaño mínimo de la unidad de cuantificación en un conjunto de parámetros de imagen.
La unidad de cuantificación 150 genera un predictor de parámetro de cuantificación y genera un parámetro de cuantificación diferencial restando el predictor del parámetro de cuantificación al parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado por entropía.
El predictor del parámetro de cuantificación se genera utilizando parámetros de cuantificación de unidades de codificación vecinas y un parámetro de cuantificación de la unidad de codificación anterior de la siguiente manera.
Un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior son recuperados secuencialmente en este orden. Un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden se establece como el predictor del parámetro de cuantificación cuando dos o más parámetros de cuantificación están disponibles, y cuando solo está disponible un parámetro de cuantificación, el parámetro de cuantificación disponible se establece como el predictor del parámetro de cuantificación. Es decir, si están disponibles los parámetros de cuantificación izquierdo y superior, se establece un promedio de los parámetros de cuantificación izquierdo y superior como el predictor del parámetro de cuantificación. Si solo está disponible uno de los parámetros de cuantificación izquierdo y superior, se establece un promedio del parámetro de cuantificación disponible y los parámetros de cuantificación anteriores como el predictor del parámetro de cuantificación. Si los dos parámetros de cuantificación izquierdo y superior no están disponibles, el parámetro de cuantificación anterior se establece como el predictor del parámetro de cuantificación. El promedio es redondeado. El parámetro de cuantificación diferencial se convierte en unos valores binarios (bins) para el valor absoluto del parámetro de cuantificación diferencial y un valor binario (bin) para indicar el signo del parámetro de cuantificación diferencial mediante un proceso de binarización, y los valores binarios son codificados aritméticamente. Si el valor absoluto del parámetro de cuantificación diferencial es 0, se puede omitir el valor binario para indicar el signo. Se usa un unario truncado para la binarización del valor absoluto.
La unidad de cuantificación 150 cuantifica el bloque transformado usando una matriz de cuantificación y el parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado se proporciona a la unidad de cuantificación/transformación inversa 180 y a la unidad de exploración 160.
La unidad de exploración 160 aplica un patrón de exploración al bloque cuantificado.
En la inter predicción, se usa una exploración en diagonal como patrón de exploración si se utiliza CABAC para la codificación de entropía. Los coeficientes cuantificados del bloque cuantificado se dividen en componentes de coeficiente. Los componentes de coeficiente son indicadores significativos, signos de coeficiente y niveles de coeficiente. La exploración en diagonal se aplica a cada uno de los componentes de coeficiente. El coeficiente significativo indica si el correspondiente coeficiente cuantificado es o no es igual a cero. El signo de coeficiente indica un signo de un coeficiente cuantificado diferente de cero, y el nivel de coeficiente indica un valor absoluto de un coeficiente cuantificado diferente de cero.
Cuando el tamaño de la unidad de transformación es más grande que un tamaño predeterminado, el bloque cuantificado se divide en múltiples subconjuntos y se aplica la exploración en diagonal a cada subconjunto. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente de cada subconjunto son explorados respectivamente según la exploración en diagonal. El tamaño predeterminado es 4x4. El subconjunto es un bloque 4x4 que contiene 16 coeficientes de transformación.
El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los componentes de coeficiente. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente de cada subconjunto son explorados en la dirección inversa. Los subconjuntos también son explorados en la dirección inversa.
Un parámetro que indica la última posición de coeficiente diferente de cero es codificado y transmitido a una parte de descodificación. El parámetro que indica la última posición de coeficiente diferente de cero especifica una posición del último coeficiente cuantificado diferente de cero dentro del bloque cuantificado. Se define un indicador de subconjunto diferente de cero para cada subconjunto distinto del primer subconjunto y del último subconjunto y es transmitido a la parte de descodificación. El primer subconjunto cubre un coeficiente DC. El último subconjunto cubre el último coeficiente diferente de cero. El indicador de subconjunto diferente de cero indica si el subconjunto contiene o no contiene coeficientes diferentes de cero.
La unidad de codificación de entropía 170 codifica por entropía el componente explorado por la unidad de exploración 160, la información de intra predicción recibida procedente de la unidad de intra predicción 120, la información de movimiento recibida procedente de la unidad de inter predicción 130, etcétera.
La unidad de cuantificación/transformación inversa 180 cuantifica inversamente los coeficientes cuantificados del bloque cuantificado, y transforma inversamente el bloque cuantificado inverso para generar señales residuales. La unidad de post procesamiento 190 realiza un proceso de filtrado de desbloqueo para eliminar un artefacto de bloqueo generado en una imagen reconstruida.
La unidad de almacenamiento de imágenes 195 recibe una imagen post procesada procedente de la unidad de post procesamiento 190 y almacena la imagen en unidades de imagen. Una imagen puede ser una trama (frame) o un campo.
La Figura 2 es un diagrama de flujo que ilustra un procedimiento de codificación de datos vídeo en un modo de inter predicción acuerdo con la presente invención.
Se determina información de movimiento de un bloque actual (S110). El bloque actual es una unidad de predicción. Se determina un tamaño del bloque actual a partir de un tamaño y un modo de división de la unidad de codificación. La información de movimiento varía según un tipo de predicción. Si el tipo de predicción es una predicción unidireccional, la información de movimiento incluye un índice de referencia que especifica una imagen de una lista 0 de referencia, y un vector de movimiento. Si el tipo de predicción es una predicción bidireccional, la información de movimiento incluye dos índices de referencia que especifican una imagen de una lista 0 de referencia y una imagen de una lista 1 de referencia, y un vector de movimiento de la lista 0 y un vector de movimiento de la lista 1.
Se genera un bloque de predicción del bloque actual usando la información de movimiento (S120). Si el vector de movimiento indica una posición de píxel, el bloque de predicción se genera copiando un bloque de la imagen de referencia especificado por el vector de movimiento. Si el vector de movimiento indica una posición de sub-píxel, el bloque de predicción se genera interpolando los píxeles de la imagen de referencia.
Se genera un bloque residual usando el bloque actual y el bloque de predicción (S130). El bloque residual tiene el mismo tamaño que la unidad de transformación. Si la unidad de predicción es más grande que la unidad de transformación, las señales residuales entre el bloque actual y el bloque de predicción son bloques residuales múltiples.
El bloque residual es codificado (S140). El bloque residual es codificado por la unidad de transformación 140, la unidad de cuantificación 150, la unidad de exploración 160 y la unidad de codificación de entropía 170 de la Figura 1.
La información de movimiento es codificada (S150). La información de movimiento se puede codificar de forma predictiva utilizando candidatos espaciales y un candidato temporal del bloque actual. La información de movimiento es codificada en un modo de salto, un modo de fusión o un modo AMVP. En el modo de salto, la unidad de predicción tiene el tamaño de la unidad de codificación y la información de movimiento se codifica utilizando el mismo procedimiento que el del modo de fusión. En el modo de fusión, la información de movimiento de la unidad de predicción actual es igual a la información de movimiento de un candidato. En el modo AMVP, el vector de movimiento de la información de movimiento se codifica de manera predictiva utilizando uno o más candidatos de vector de movimiento.
La Figura 3 es un diagrama de flujo que ilustra un procedimiento de codificación de información de movimiento en el modo de fusión según la presente invención.
Se derivan candidatos de fusión espaciales (S210). La Figura 4 es un diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales de acuerdo con la presente invención.
Según se muestra en la Figura 4, el bloque candidato de fusión es un bloque izquierdo (bloque A), un bloque superior (bloque B), un bloque superior derecho (bloque C), un bloque inferior izquierdo (bloque D) o un bloque superior izquierdo (bloque E) del bloque actual. Los bloques son bloques de predicción. El bloque superior izquierdo (bloque E) se establece como un bloque candidato de fusión cuando uno o más de los bloques A, B, C y D no están disponibles. La información de movimiento de un bloque candidato de fusión N disponible se establece como un candidato de fusión espacial N. N es A, B, C, D o E.
El candidato de fusión espacial se puede establecer como no disponible de acuerdo con la forma del bloque actual y la posición del bloque actual. Por ejemplo, si la unidad de codificación es dividida en dos unidades de predicción (bloque P0 y bloque P1) usando partición asimétrica, es probable que la información de movimiento del bloque P0 no sea igual a la información de movimiento del bloque P1. Por lo tanto, si el bloque actual es el bloque asimétrico P1, se establece el bloque P0 como bloque candidato no disponible según se muestra en las Figuras 5 a 8.
La Figura 5 es un diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en un modo de partición asimétrica de acuerdo con la presente invención.
Según se muestra en la Figura 5, una unidad de codificación es dividida en dos bloques de predicción asimétricos P0 y P1 y el modo de división es un modo nLx2N. El tamaño del bloque P0 es hNx2N y el tamaño del bloque P1 es (2
h)Nx2N. El valor de h es 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial A.
En la presente invención, el candidato de fusión espacial A se establece como no disponible para que no sea incluido en la lista de candidatos de fusión. Además, el bloque candidato de fusión espacial B, C, D o E que tiene la misma información de movimiento que el bloque candidato de fusión espacial A se establece como no disponible.
La Figura 6 es otro diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en otro modo de partición asimétrica de acuerdo con la presente invención.
Según se muestra en la Figura 6, una unidad de codificación es dividida en dos bloques de predicción asimétricos P0 y P1 y el modo de división es un modo nRx2N. El tamaño del bloque P0 es (2-h)Nx2N y el tamaño del bloque P1 es hNx2N. El valor de h es 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial A.
En la presente invención, el candidato de fusión espacial A se establece como no disponible para que no sea incluido en la lista de candidatos de fusión. Además, el bloque candidato de fusión espacial B, C, D o E que tiene la misma información de movimiento que el bloque candidato de fusión espacial A se establece como no disponible.
La Figura 7 es otro diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en otro modo de partición asimétrica de acuerdo con la presente invención.
Según se muestra en la Figura 7, una unidad de codificación es dividida en dos bloques de predicción asimétricos P0 y P1 y el modo de división es un modo 2NxnU. El tamaño del bloque P0 es 2NxhN y el tamaño del bloque P1 es 2Nx(2-h)N. El valor de h es 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial B.
En la presente invención, el candidato de fusión espacial B se establece como no disponible para que no sea incluido en la lista de candidatos de fusión. Además, el bloque candidato de fusión espacial C, D o E que tiene la misma información de movimiento que el bloque candidato de fusión espacial B se establece como no disponible.
La Figura 8 es otro diagrama conceptual que ilustra posiciones de bloques candidatos de fusión espaciales en otro modo de partición asimétrica de acuerdo con la presente invención.
Según se muestra en la Figura 8, una unidad de codificación es dividida en dos bloques de predicción asimétricos P0 y P1 y el modo de división es un modo 2NxnD. El tamaño del bloque P0 es 2Nx(2-h)N y el tamaño del bloque P1 es 2NxhN. El valor de h es 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial B.
En la presente invención, el candidato de fusión espacial B se establece como no disponible para que no sea incluido en la lista de candidatos de fusión. Además, el bloque candidato de fusión espacial C, D o E que tiene la misma información de movimiento que el bloque candidato de fusión espacial B se establece como no disponible.
El candidato de fusión espacial también se puede establecer como no disponible según el área de fusión. Si el bloque actual y el bloque candidato de fusión espacial pertenecen a la misma área de fusión, el bloque candidato de fusión espacial se establece como no disponible. El área de fusión es un área de unidad en la que se realiza la estimación de movimiento y se incluye información que especifica el área de fusión en un flujo de bits.
Se deriva un candidato de fusión temporal (S220). El candidato de fusión temporal incluye un índice de imagen de referencia y un vector de movimiento del candidato de fusión temporal.
El índice de imagen de referencia del candidato de fusión temporal se puede derivar usando uno o más índices de imagen de referencia de un bloque vecino. Por ejemplo, uno de los índices de imagen de referencia de un bloque vecino izquierdo, un bloque vecino superior y un bloque vecino de esquina se establece como el índice de imagen de referencia del candidato de fusión temporal. El bloque vecino de esquina es uno de entre un bloque vecino superior derecho, un bloque vecino inferior izquierdo y un bloque vecino superior izquierdo. Alternativamente, el índice de imagen de referencia del candidato de fusión temporal se puede establecer igual a cero para reducir la complejidad. El vector de movimiento del candidato de fusión temporal se puede derivar de la siguiente manera.
En primer lugar, se determina una imagen candidata de fusión temporal. La imagen candidata de fusión temporal incluye un bloque candidato de fusión temporal. Se usa una imagen candidata de fusión temporal dentro de un
segmento o corte (slice). Un índice de imagen de referencia de la imagen candidata de fusión temporal se puede establecer igual a cero.
Si el segmento o corte actual es un corte P, una de las imágenes de referencia de la lista 0 de imágenes de referencia se establece como la imagen candidata de fusión temporal. Si el segmento o corte actual es un corte B, una de las imágenes de referencia de las listas 0 y 1 de imágenes de referencia se establece como la imagen candidata de fusión temporal. Un indicador de lista que especifica si la imagen candidata de fusión temporal pertenece a las listas 0 o 1 de imágenes de referencia es incluido en una cabecera de segmento si el segmento actual es un segmento o corte B. El índice de imagen de referencia que especifica la imagen candidata de fusión temporal puede ser incluido en la cabecera de segmento.
A continuación, se determina el bloque candidato de fusión temporal. La Figura 9 es un diagrama conceptual que ilustra la posición del bloque candidato de fusión temporal de acuerdo con la presente invención. Según se muestra en la Figura 9, un primer bloque candidato puede ser un bloque de esquina inferior derecha (bloque H) del bloque C. El bloque C tiene el mismo tamaño y la misma ubicación que el bloque actual y está ubicado dentro de la imagen candidata de fusión temporal. Un segundo bloque candidato es un bloque que cubre un píxel superior izquierdo del centro del bloque C.
El bloque candidato de fusión temporal puede ser el primer bloque candidato o el segundo bloque candidato. Si el primer bloque candidato está disponible, el primer bloque candidato se establece como el bloque candidato de fusión temporal. Si el primer bloque candidato no está disponible, el segundo bloque candidato se establece como el bloque candidato de fusión temporal. Si el segundo bloque candidato no está disponible, el bloque candidato de fusión temporal se establece como no disponible.
El bloque candidato de fusión temporal se determina en función de la posición del bloque actual. Por ejemplo, si el bloque actual es adyacente a una unidad de codificación de mayor tamaño inferior (es decir, si el primer bloque candidato pertenece a una unidad de codificación de mayor tamaño inferior), el primer bloque candidato puede pasar a ser un bloque dentro de una unidad de codificación de mayor tamaño actual o se puede establecer como no disponible.
Además, los bloques candidatos primero y segundo pueden pasar a ser otro bloque en función de cada posición del bloque candidato dentro de una unidad de almacenamiento de vector de movimiento. La unidad de almacenamiento de vector de movimiento es una unidad básica que almacena información de movimiento de imágenes de referencia. La Figura 10 es un diagrama conceptual que ilustra un procedimiento de almacenar información de movimiento de acuerdo con la presente invención. Según se muestra en la Figura 10, la unidad de almacenamiento de movimiento puede ser un bloque de 16x16. La unidad de almacenamiento de vector de movimiento puede ser dividida en dieciséis bloques de 4x4. Si la unidad de almacenamiento de vector de movimiento es un bloque de 16x16, se almacena la información de movimiento por cada unidad de almacenamiento de vector de movimiento. Si la unidad de almacenamiento de vector de movimiento incluye múltiples unidades de predicción de imagen de referencia, se almacena en memoria información de movimiento de una unidad de predicción predeterminada de entre las múltiples unidades de predicción para reducir la cantidad de información de movimiento almacenada en memoria. La unidad de predicción predeterminada puede ser un bloque que cubre uno de los dieciséis bloques 4x4. La unidad de predicción predeterminada puede ser un bloque que cubre un bloque C3, un bloque BR. O la unidad de predicción predeterminada puede ser un bloque que cubre un bloque UL.
Por lo tanto, si el bloque candidato no incluye el bloque predeterminado, el bloque candidato pasa a ser un bloque que incluye el bloque predeterminado.
Si se determina el bloque candidato de fusión temporal, el vector de movimiento del bloque candidato de fusión temporal se establece como el vector de movimiento del candidato de fusión temporal.
Se construye una lista de candidatos de fusión (S230). Se incluyen los candidatos espaciales disponibles y el candidato temporal disponible en un orden predeterminado. Se incluyen un máximo de cuatro de los candidatos de fusión espaciales en el orden de A, B, C, D y E. El candidato de fusión temporal puede ser incluido entre B y C o después de los candidatos espaciales.
Se determina si se generan o no se generan uno o más candidatos de fusión (S240). La determinación se realiza comparando el número de candidatos de fusión incluidos en la lista de candidatos de fusión con un número predeterminado de candidatos de fusión. El número predeterminado se puede determinar por cada imagen o segmento.
Si el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que un número predeterminado de candidatos de fusión, se generan uno o más candidatos de fusión (S250). El candidato de fusión generado se incluye después del último candidato de fusión disponible.
Si el número de candidatos de fusión disponibles es igual o más grande que 2, uno de los dos candidatos de fusión disponibles tiene información de movimiento de lista 0 y el otro tiene información de movimiento de lista 1, el candidato de fusión se puede generar combinando la información de movimiento de la lista 0 y la información de movimiento de la lista 1. Se pueden generar múltiples candidatos de fusión si hay múltiples combinaciones.
Se pueden agregar a la lista uno o más candidatos de fusión cero. Si el tipo de segmento es P, el candidato de fusión cero solo tiene información de movimiento de la lista 0. Si el tipo de segmento es B, el candidato de fusión cero tiene información de movimiento de la lista 0 e información de movimiento de la lista 1.
Se selecciona un predictor de fusión de entre los candidatos de fusión de la lista de fusión, se codifica un índice de fusión que especifica el predictor de fusión (S260).
La Figura 11 es un diagrama de bloques de un aparato de decodificación de imágenes 200 de acuerdo con la presente invención.
El aparato de decodificación de imágenes 200 de acuerdo con la presente invención incluye una unidad de decodificación de entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformación inversa 240, una unidad de intra predicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280 y un agregador 290.
La unidad de decodificación de entropía 210 extrae la información de intra predicción, la información de inter predicción y los componentes de coeficiente cuantificado de un flujo de bits recibido usando un procedimiento de decodificación aritmética binaria adaptable al contexto.
La unidad de exploración inversa 220 aplica un patrón de exploración inversa a los componentes de coeficiente cuantificado para generar un bloque cuantificado. En la inter predicción, el patrón de exploración inverso es una exploración en diagonal. Los componentes de coeficiente cuantificado incluyen los indicadores significativos, los signos de coeficiente y los niveles de coeficiente.
Cuando el tamaño de la unidad de transformación es más grande que el tamaño predeterminado, los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos utilizando la exploración en diagonal para generar subconjuntos, y los subconjuntos son explorados inversamente utilizando la exploración en diagonal para generar el bloque cuantificado. El tamaño predeterminado es igual al tamaño del subconjunto. El subconjunto es un bloque 4x4 que incluye 16 coeficientes de transformación. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
Un parámetro que indica la última posición de coeficiente diferente de cero y los indicadores de subconjunto diferente de cero son extraídos del flujo de bits. El número de subconjuntos codificados se determina en base al parámetro que indica la última posición de coeficiente diferente de cero. El indicador de subconjunto diferente de cero se usa para determinar si el correspondiente subconjunto tiene al menos un coeficiente diferente de cero. Si el indicador de subconjunto diferente de cero es igual a 1, el subconjunto se genera utilizando la exploración en diagonal. El primer subconjunto y el último subconjunto se generan utilizando el patrón de exploración inversa.
La unidad de cuantificación inversa 230 recibe el parámetro de cuantificación diferencial procedente de la unidad de decodificación de entropía 210 y genera el predictor de parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación. La operación de generar el predictor del parámetro de cuantificación es la misma que la operación de la unidad de cuantificación 150 de la Figura 1. A continuación, se genera el parámetro de cuantificación de la unidad de codificación actual agregando el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación. Si el parámetro de cuantificación diferencial para la unidad de codificación actual no es transmitido desde una parte de codificación, el parámetro de cuantificación diferencial se establece igual a cero. La unidad de cuantificación inversa 230 cuantifica inversamente el bloque cuantificado.
La unidad de transformación inversa 240 transforma inversamente el bloque cuantificado inverso para generar un bloque residual. Se determina una matriz de transformación inversa de manera adaptativa de acuerdo con el modo de predicción y el tamaño de la unidad de transformación. La matriz de transformación inversa es una matriz de transformación entera basada en DCT o una matriz de transformación entera basada en DST. En la inter predicción, se usan las transformaciones enteras basadas en DCT.
La unidad de intra predicción 250 deriva un modo de intra predicción de una unidad de predicción actual utilizando la información de intra predicción recibida, y genera un bloque de predicción de acuerdo con el modo de intra predicción derivado.
La unidad de inter predicción 260 deriva la información de movimiento de la unidad de predicción actual usando la información de inter predicción recibida, y genera un bloque de predicción usando la información de movimiento. La unidad de post procesamiento 270 funciona igual que la unidad de post procesamiento 180 de la Figura 1.
La unidad de almacenamiento de imágenes 280 recibe una imagen post procesada procedente de la unidad de post procesamiento 270, y almacena la imagen en unidades de imagen. Una imagen puede ser una trama (frame) o un campo.
El agregador 290 agrega el bloque residual restaurado y un bloque de predicción para generar un bloque reconstruido. La Figura 12 es un diagrama de flujo que ilustra un procedimiento de decodificación de una imagen en modo de inter predicción de acuerdo con la presente invención.
Se deriva información de movimiento de un bloque actual (S310). El bloque actual es una unidad de predicción. Un tamaño del bloque actual es determinado por el tamaño de la unidad de codificación y el modo de división.
La información de movimiento varía de acuerdo con un tipo de predicción. Si el tipo de predicción es una predicción unidireccional, la información de movimiento incluye un índice de referencia que especifica una imagen de una lista 0 de referencia, y un vector de movimiento. Si el tipo de predicción es una predicción bidireccional, la información de movimiento incluye un índice de referencia que especifica una imagen de una lista 0 de referencia, un índice de referencia que especifica una imagen de una lista 1 de referencia, y un vector de movimiento de lista 0 y un vector de movimiento de lista 1.
La información de movimiento es decodificada de forma adaptativa según el modo de codificación de la información de movimiento. El modo de codificación de la información de movimiento es determinado por un indicador de salto y un indicador de fusión. Si el indicador de salto es igual a 1, el indicador de fusión no existe y el modo de codificación es un modo de salto. Si el indicador de salto es igual a 0 y el indicador de fusión es igual a 1, el modo de codificación es un modo de fusión. Si el indicador de salto y el indicador de fusión son iguales a 0, el modo de codificación es un modo AMVP.
Se genera un bloque de predicción del bloque actual usando la información de movimiento (S320).
Si el vector de movimiento indica una posición de píxel, el bloque de predicción se genera copiando un bloque de la imagen de referencia especificada por el vector de movimiento. Si el vector de movimiento indica una posición de subpíxel, el bloque de predicción se genera interpolando los píxeles de la imagen de referencia.
Se genera un bloque residual (S330). El bloque residual es generado por la unidad de decodificación de entropía 210, la unidad de exploración inversa 220, la unidad de cuantificación inversa 230 y la unidad de transformación inversa 240 de la Figura 11.
Se genera un bloque reconstruido usando el bloque de predicción y el bloque residual (S340).
El bloque de predicción tiene el mismo tamaño que la unidad de predicción, y el bloque residual tiene el mismo tamaño que la unidad de transformación. Por lo tanto, las señales residuales y las señales de predicción del mismo tamaño son agregadas para generar señales reconstruidas.
La Figura 13 es un diagrama de flujo que ilustra un procedimiento de derivar información de movimiento en modo de fusión.
Se extrae un índice de fusión de una secuencia de bits (S410). Si el índice de fusión no existe, el número de candidatos de fusión se establece en uno.
Se derivan candidatos de fusión espaciales (S420). Los candidatos de fusión espaciales disponibles son los mismos que se describen en S210 de la Figura 3.
Se deriva un candidato de fusión temporal (S430). El candidato de fusión temporal incluye un índice de imagen de referencia y un vector de movimiento del candidato de fusión temporal. El índice de referencia y el vector de movimiento del candidato de fusión temporal son los mismos que se describen en S220 de la Figura 3.
Se construye una lista de candidatos de fusión (S440). La lista de fusión es la misma que la descrita en S230 de la Figura 3.
Se determina si se generan o no se generan uno o más candidatos de fusión (S450). La determinación se realiza comparando el número de candidatos de fusión incluidos en la lista de candidatos de fusión con un número predeterminado de los candidatos de fusión. El número predeterminado es determinado por cada imagen o segmento. Si el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que un número predeterminado de candidatos de fusión, se generan uno o más candidatos de fusión (S460). El candidato de fusión generado se incluye después del último candidato de fusión disponible. El candidato de fusión se genera con el mismo procedimiento descrito en S250 de la Figura 3.
El candidato de fusión especificado por el índice de fusión se establece como la información de movimiento del bloque actual (S470).
La Figura 14 es un diagrama de flujo que ilustra un procedimiento de generar un bloque residual en el modo de inter predicción según la presente invención.
Se generan componentes de coeficiente cuantificado por parte de la unidad de decodificación de entropía (S510). Se genera un bloque cuantificado explorando inversamente los componentes de coeficiente cuantificado de acuerdo con la exploración en diagonal (S520). Los componentes de coeficiente cuantificado incluyen los indicadores significativos, los signos de coeficiente y los niveles de coeficiente.
Cuando el tamaño de la unidad de transformación es más grande que el tamaño predeterminado, los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos utilizando la exploración en diagonal para generar subconjuntos, y los subconjuntos son explorados inversamente utilizando la exploración en diagonal para generar el bloque cuantificado. El tamaño predeterminado es igual al tamaño del subconjunto. El subconjunto es un bloque 4x4 que incluye 16 coeficientes de transformación. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
El parámetro que indica la última posición de coeficiente diferente de cero y los indicadores de subconjunto diferente de cero son extraídos del flujo de bits. El número de subconjuntos codificados se determina en base al parámetro que indica la última posición de coeficiente diferente de cero. Los indicadores de subconjunto diferente de cero se utilizan para determinar si el subconjunto tiene al menos un coeficiente diferente de cero. Si el indicador de subconjunto diferente de cero es igual a 1, el subconjunto se genera utilizando la exploración en diagonal. El primer subconjunto y el último subconjunto se generan utilizando el patrón de exploración inversa.
El bloque cuantificado es cuantificado inversamente utilizando una matriz de cuantificación inversa y un parámetro de cuantificación (S530).
La Figura 15 es un diagrama de flujo que ilustra un procedimiento de derivar un parámetro de cuantificación según la presente invención.
Se determina un tamaño mínimo de unidad de cuantificación (S531). Se extrae de un flujo de bits un parámetro cu_qp_delta_enabled_info que especifica el tamaño mínimo, y el tamaño mínimo de la unidad de cuantificación es determinado por la siguiente ecuación.
Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
El MinQUSize indica el tamaño mínimo de la unidad de cuantificación, MaxCUSize indica el tamaño de la unidad de codificación de mayor tamaño. El parámetro cu_qp_delta_enabled_info se extrae de un conjunto de parámetros de imagen.
Se deriva un parámetro de cuantificación diferencial de la unidad de codificación actual (S532). El parámetro de cuantificación diferencial es incluido por cada unidad de cuantificación. Por lo tanto, si el tamaño de la unidad de codificación actual es igual o más grande que el tamaño mínimo de la unidad de cuantificación, se restaura el parámetro de cuantificación diferencial para la unidad de codificación actual. Si el parámetro de cuantificación
diferencial no existe, el parámetro de cuantificación diferencial se establece igual a cero. Si múltiples unidades de codificación pertenecen a una unidad de cuantificación, la primera unidad de codificación que contiene al menos un coeficiente diferente de cero en el orden de decodificación contiene la unidad de cuantificación diferencial.
Un parámetro de cuantificación diferencial codificado es decodificado aritméticamente para generar una cadena binaria (bin string) que indica el valor absoluto del parámetro de cuantificación diferencial y un valor binario (bin) que indica el signo del parámetro de cuantificación diferencial. La cadena binaria puede ser un código unario truncado. Si el valor absoluto del parámetro de cuantificación diferencial es igual a cero, el valor binario que indica el signo no existe. El parámetro de cuantificación diferencial se deriva utilizando la cadena binaria que indica el valor absoluto y el valor binario (bin) que indica el signo.
Se deriva un predictor del parámetro de cuantificación de la unidad de codificación actual (S533). El predictor del parámetro de cuantificación se genera utilizando parámetros de cuantificación de las unidades de codificación vecinas y el parámetro de cuantificación de la unidad de codificación anterior de la siguiente manera.
Se recuperan secuencialmente y en el siguiente orden, un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior. Un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden se establece como el predictor del parámetro de cuantificación cuando dos o más parámetros de cuantificación están disponibles, y cuando solo está disponible un parámetro de cuantificación, el parámetro de cuantificación disponible se establece como el predictor del parámetro de cuantificación. Es decir, si los parámetros de cuantificación izquierdo y superior están disponibles, se establece el promedio de los parámetros de cuantificación izquierdo y superior como el predictor del parámetro de cuantificación. Si solo está disponible uno de los parámetros de cuantificación izquierdo y superior, se establece el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior como el predictor del parámetro de cuantificación. Si tanto el parámetro de cuantificación izquierdo como el superior no están disponibles, se establece el parámetro de cuantificación anterior como el predictor del parámetro de cuantificación.
Si múltiples unidades de codificación pertenecen a una unidad de cuantificación de tamaño mínimo, se deriva el predictor del parámetro de cuantificación para la primera unidad de codificación en orden de decodificación y se utiliza para las otras unidades de codificación.
El parámetro de cuantificación de la unidad de codificación actual se genera utilizando el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación (S534).
Se genera un bloque residual mediante transformación inversa del bloque cuantificado inverso (S540). Se usan transformaciones basadas en DCT inversas horizontales y verticales unidimensionales.
Claims (6)
1. Un procedimiento de decodificar datos de video en un modo de fusión, en el que, en modo de fusión, información de movimiento de uno de entre unos bloques candidatos de fusión se establece como información de movimiento de una unidad de predicción actual, que comprende:
construir una lista de fusión usando bloques candidatos de fusión espacial y temporal disponibles;
establecer información de movimiento de un bloque candidato de fusión en la lista de fusión correspondiente a un índice de fusión como información de movimiento de la unidad de predicción actual;
generar un bloque de predicción de la unidad de predicción actual usando la información de movimiento; y generar un bloque cuantificado explorando inversamente componentes de coeficiente cuantificado, generar un bloque transformado cuantificando inversamente el bloque cuantificado usando un parámetro de cuantificación y generar un bloque residual transformando inversamente el bloque transformado;
en el que cuando la unidad de predicción actual es una segunda unidad de predicción de entre dos unidades de predicción divididas a partir de una unidad de codificación actual mediante partición asimétrica, una primera unidad de predicción dividida por medio de la partición asimétrica no se considera que sea un bloque candidato de fusión, y en el que un bloque candidato de fusión espacial es un bloque izquierdo, un bloque superior, un bloque superior derecho, un bloque inferior izquierdo o un bloque superior izquierdo de la unidad de predicción actual, y el bloque superior izquierdo se establece como un bloque candidato de fusión cuando están disponibles uno o más de entre el bloque izquierdo, el bloque superior, el bloque superior derecho, el bloque inferior izquierdo.
2. El procedimiento de la reivindicación 1, en el que un índice de imagen de referencia y un vector de movimiento de una unidad de predicción actual son un índice de imagen de referencia y un vector de movimiento de un candidato de fusión especificado por un índice de fusión.
3. El procedimiento de la reivindicación 1, en el que un índice de imagen de referencia del candidato de fusión temporal se establece como cero.
4. El procedimiento de la reivindicación 1, en el que un vector de movimiento del candidato de fusión temporal es un vector de movimiento de un bloque candidato de fusión temporal dentro de una imagen candidata de fusión temporal, y se determina una posición del bloque candidato de fusión temporal en base a una posición del bloque actual dentro de una unidad de codificación de mayor tamaño, LCU.
5. El procedimiento de la reivindicación 4, en el que el vector de movimiento del candidato de fusión temporal es un vector de movimiento de una unidad de almacenamiento de vector de movimiento correspondiente a la posición del bloque candidato de fusión temporal.
6. El procedimiento de la reivindicación 5, en el que un tamaño de la unidad de almacenamiento de vector de movimiento es 16x16.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110115220A KR20130050407A (ko) | 2011-11-07 | 2011-11-07 | 인터 모드에서의 움직임 정보 생성 방법 |
PCT/CN2012/084242 WO2013067939A1 (en) | 2011-11-07 | 2012-11-07 | Method of deriving motion information |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2705998T3 true ES2705998T3 (es) | 2019-03-27 |
Family
ID=48208139
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18193706T Active ES2947709T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de derivación de información de movimiento |
ES12847552T Active ES2705998T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de derivación de información de movimiento |
ES18193701T Active ES2807778T3 (es) | 2011-11-07 | 2012-11-07 | Aparato de derivación de información de movimiento |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18193706T Active ES2947709T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de derivación de información de movimiento |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18193701T Active ES2807778T3 (es) | 2011-11-07 | 2012-11-07 | Aparato de derivación de información de movimiento |
Country Status (18)
Country | Link |
---|---|
US (8) | US9288493B2 (es) |
EP (5) | EP3432580A1 (es) |
JP (5) | JP5837992B2 (es) |
KR (4) | KR20130050407A (es) |
CN (6) | CN103096071B (es) |
CY (1) | CY1121058T1 (es) |
DK (2) | DK2752005T3 (es) |
ES (3) | ES2947709T3 (es) |
HR (1) | HRP20182189T1 (es) |
HU (3) | HUE062569T2 (es) |
IN (1) | IN2014CN03910A (es) |
LT (1) | LT2752005T (es) |
PL (3) | PL3448034T3 (es) |
PT (2) | PT3448034T (es) |
RS (1) | RS58195B1 (es) |
SI (1) | SI2752005T1 (es) |
TW (6) | TWI542197B (es) |
WO (1) | WO2013067939A1 (es) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130049523A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
KR20130049524A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
MX355319B (es) * | 2011-11-08 | 2018-04-16 | Kt Corp | Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción. |
EP4009640A1 (en) | 2011-11-08 | 2022-06-08 | Electronics and Telecommunications Research Institute | Method and device for sharing a candidate list |
JP5900308B2 (ja) * | 2011-12-16 | 2016-04-06 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
EP3703371B1 (en) | 2011-12-16 | 2021-08-04 | JVCKENWOOD Corporation | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
JP5561348B2 (ja) * | 2011-12-16 | 2014-07-30 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム |
KR20150109282A (ko) | 2014-03-19 | 2015-10-01 | 주식회사 케이티 | 다시점 비디오 신호 처리 방법 및 장치 |
WO2016008157A1 (en) | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
US10469864B2 (en) * | 2014-11-27 | 2019-11-05 | Kt Corporation | Method and apparatus for video signal coding using current picture reference flag |
US9306597B1 (en) | 2015-03-30 | 2016-04-05 | Microsoft Technology Licensing, Llc | Data compression |
WO2017220163A1 (en) * | 2016-06-24 | 2017-12-28 | Huawei Technologies Co., Ltd. | Devices and methods for video coding using segmentation based partitioning of video coding blocks |
US11509930B2 (en) | 2016-07-12 | 2022-11-22 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and recording medium therefor |
US11343530B2 (en) * | 2016-11-28 | 2022-05-24 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium having bitstream stored thereon |
US10484703B2 (en) | 2017-02-07 | 2019-11-19 | Mediatek Inc. | Adapting merge candidate positions and numbers according to size and/or shape of prediction block |
US11172203B2 (en) * | 2017-08-08 | 2021-11-09 | Mediatek Inc. | Intra merge prediction |
WO2019050115A1 (ko) * | 2017-09-05 | 2019-03-14 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN111279695B (zh) * | 2017-10-26 | 2024-03-29 | 韩国电子通信研究院 | 用于基于非对称子块的图像编码/解码的方法及装置 |
US10469869B1 (en) * | 2018-06-01 | 2019-11-05 | Tencent America LLC | Method and apparatus for video coding |
WO2019234578A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Asymmetric weighted bi-predictive merges |
CN110662056B (zh) | 2018-06-29 | 2022-06-07 | 北京字节跳动网络技术有限公司 | 哪个查找表需要更新或不更新 |
KR20240005239A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut와 amvp 사이의 상호작용 |
TWI744661B (zh) | 2018-06-29 | 2021-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 要根據模式檢查的查找表中的運動候選的數量 |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
CN114885173A (zh) | 2018-06-29 | 2022-08-09 | 抖音视界(北京)有限公司 | Lut中的运动候选的检查顺序 |
CN114845108A (zh) | 2018-06-29 | 2022-08-02 | 抖音视界(北京)有限公司 | 查找表的更新:fifo、约束的fifo |
BR112020024142A2 (pt) | 2018-06-29 | 2021-03-02 | Beijing Bytedance Network Technology Co., Ltd. | método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório |
TWI731358B (zh) | 2018-06-29 | 2021-06-21 | 大陸商北京字節跳動網絡技術有限公司 | 改進的時域運動向量預測推導 |
KR20210025537A (ko) | 2018-06-29 | 2021-03-09 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념 |
CN113163211B (zh) * | 2018-06-30 | 2023-01-03 | Oppo广东移动通信有限公司 | 基于合并模式的帧间预测方法及装置 |
TWI731364B (zh) | 2018-07-02 | 2021-06-21 | 大陸商北京字節跳動網絡技術有限公司 | Hmvp+非相鄰運動 |
US20200014931A1 (en) * | 2018-07-06 | 2020-01-09 | Mediatek Inc. | Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems |
KR20210115053A (ko) * | 2018-07-27 | 2021-09-24 | 삼성전자주식회사 | 서브 블록 기반으로 영상을 복호화하는 방법 및 장치, 부호화 방법 및 장치 |
GB2590310B (en) | 2018-09-12 | 2023-03-22 | Beijing Bytedance Network Tech Co Ltd | Conditions for starting checking HMVP candidates depend on total number minus K |
TWI729497B (zh) * | 2018-09-17 | 2021-06-01 | 聯發科技股份有限公司 | 在視頻編解碼系統中組合多個預測子進行塊預測的方法和裝置 |
WO2020067679A1 (ko) * | 2018-09-29 | 2020-04-02 | 엘지전자 주식회사 | 머지 후보 리스트를 구성하는 방법 및 장치 |
CN117156129A (zh) * | 2018-10-23 | 2023-12-01 | 韦勒斯标准与技术协会公司 | 通过使用基于子块的运动补偿处理视频信号的方法和设备 |
CN111107356B (zh) | 2018-10-27 | 2023-11-10 | 华为技术有限公司 | 图像预测方法及装置 |
KR20240010576A (ko) | 2019-01-10 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
CN111698506B (zh) * | 2019-03-11 | 2022-04-26 | 杭州海康威视数字技术股份有限公司 | 运动信息候选者列表构建方法、三角预测解码方法及装置 |
EP4246977A3 (en) * | 2019-03-12 | 2023-12-27 | Beijing Dajia Internet Information Technology Co., Ltd. | Video coding for geometric inter partition prediction |
CN113615193A (zh) | 2019-03-22 | 2021-11-05 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
US20220385940A1 (en) * | 2019-10-06 | 2022-12-01 | Hyundai Motor Company | Method and apparatus for encoding and decoding video using inter-prediction |
JP7276099B2 (ja) | 2019-11-26 | 2023-05-18 | 株式会社鶴見製作所 | 無閉塞ポンプ |
CN113840148A (zh) * | 2020-06-24 | 2021-12-24 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69709835T2 (de) * | 1996-05-28 | 2002-08-22 | Matsushita Electric Ind Co Ltd | Vorrichtung zur bildvorhersage und decodierung |
SG89282A1 (en) * | 1999-05-28 | 2002-06-18 | Kent Ridge Digital Labs | Motion information extraction system |
JP3662171B2 (ja) * | 2000-06-05 | 2005-06-22 | 三菱電機株式会社 | 符号化装置及び符号化方法 |
JP4810052B2 (ja) * | 2000-06-15 | 2011-11-09 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 乗員センサ |
DE60206738D1 (de) * | 2002-06-11 | 2005-11-24 | St Microelectronics Srl | Videokodierungsverfahren und -Vorrichtung mit variabler Bitrate |
JP4216796B2 (ja) | 2004-12-15 | 2009-01-28 | 日本電信電話株式会社 | 動きベクトル探索方法,動きベクトル探索装置,動きベクトル探索プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20070025441A1 (en) * | 2005-07-28 | 2007-02-01 | Nokia Corporation | Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding |
JP5017825B2 (ja) * | 2005-09-15 | 2012-09-05 | ソニー株式会社 | 復号装置および復号方法 |
JP2009510558A (ja) * | 2005-09-26 | 2009-03-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 物体又は人物の動きを追跡する方法及び装置 |
US7843995B2 (en) * | 2005-12-19 | 2010-11-30 | Seiko Epson Corporation | Temporal and spatial analysis of a video macroblock |
JPWO2007136088A1 (ja) * | 2006-05-24 | 2009-10-01 | パナソニック株式会社 | 画像符号化装置、画像符号化方法、及び画像符号化用集積回路 |
US20070274385A1 (en) * | 2006-05-26 | 2007-11-29 | Zhongli He | Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame |
TWI330341B (en) * | 2007-03-05 | 2010-09-11 | Univ Nat Chiao Tung | Video surveillance system hiding and video encoding method based on data |
CN100493198C (zh) * | 2007-05-31 | 2009-05-27 | 北京中星微电子有限公司 | 算术编码中的概率模型存储方法 |
US8331438B2 (en) * | 2007-06-05 | 2012-12-11 | Microsoft Corporation | Adaptive selection of picture-level quantization parameters for predicted video pictures |
US20090016631A1 (en) * | 2007-07-10 | 2009-01-15 | Texas Instruments Incorporated | Video Coding Rate Control |
TWI392372B (zh) * | 2007-09-12 | 2013-04-01 | Sony Corp | Image processing apparatus and image processing method |
CN101389031A (zh) * | 2007-09-14 | 2009-03-18 | 浙江大学 | 一种对变换系数的处理方法及装置 |
US8542730B2 (en) * | 2008-02-22 | 2013-09-24 | Qualcomm, Incorporated | Fast macroblock delta QP decision |
US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
CN101779467B (zh) * | 2008-06-27 | 2012-06-27 | 索尼公司 | 图像处理装置和图像处理方法 |
KR20110008653A (ko) * | 2009-07-20 | 2011-01-27 | 삼성전자주식회사 | 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법 |
US8588297B2 (en) * | 2009-12-23 | 2013-11-19 | Oracle America, Inc. | Quantization parameter prediction |
KR101768207B1 (ko) * | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
WO2011096770A2 (ko) * | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
JP2011160359A (ja) * | 2010-02-03 | 2011-08-18 | Sharp Corp | ブロックノイズ量予測装置、ブロックノイズ量予測方法、画像処理装置、プログラム、及び、記録媒体 |
US8929440B2 (en) * | 2010-04-09 | 2015-01-06 | Sony Corporation | QP adaptive coefficients scanning and application |
WO2011127963A1 (en) * | 2010-04-13 | 2011-10-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Sample region merging |
HUE034476T2 (en) * | 2010-04-23 | 2018-02-28 | M&K Holdings Inc | Equipment for image coding |
CN101917615A (zh) * | 2010-06-03 | 2010-12-15 | 北京邮电大学 | 一种混合视频编码框架中的增强型双向运动矢量预测方法 |
CN101888550A (zh) * | 2010-06-28 | 2010-11-17 | 中兴通讯股份有限公司 | 一种slice头信息中量化参数编码方法和装置 |
US9137544B2 (en) * | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
CN102137258B (zh) * | 2011-03-22 | 2013-04-24 | 宁波大学 | 一种立体视频码率控制方法 |
US9247266B2 (en) * | 2011-04-18 | 2016-01-26 | Texas Instruments Incorporated | Temporal motion data candidate derivation in video coding |
CN102186079A (zh) | 2011-05-11 | 2011-09-14 | 北京航空航天大学 | 一种基于运动向量的h.264基本档次帧内模式选择方法 |
US9313494B2 (en) * | 2011-06-20 | 2016-04-12 | Qualcomm Incorporated | Parallelization friendly merge candidates for video coding |
KR20130049525A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 잔차 블록 복원을 위한 역변환 방법 |
KR20130049523A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
KR20130049524A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049526A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 복원 블록 생성 방법 |
KR20130050404A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 복원 블록 생성 방법 |
US8964845B2 (en) * | 2011-12-28 | 2015-02-24 | Microsoft Corporation | Merge mode for motion information prediction |
-
2011
- 2011-11-07 KR KR1020110115220A patent/KR20130050407A/ko not_active Application Discontinuation
-
2012
- 2012-11-07 PT PT181937061T patent/PT3448034T/pt unknown
- 2012-11-07 JP JP2014539243A patent/JP5837992B2/ja active Active
- 2012-11-07 PL PL18193706.1T patent/PL3448034T3/pl unknown
- 2012-11-07 TW TW101141400A patent/TWI542197B/zh active
- 2012-11-07 TW TW105116716A patent/TWI587688B/zh active
- 2012-11-07 US US14/350,015 patent/US9288493B2/en active Active
- 2012-11-07 KR KR1020147010016A patent/KR20140076584A/ko not_active Application Discontinuation
- 2012-11-07 ES ES18193706T patent/ES2947709T3/es active Active
- 2012-11-07 EP EP18193714.5A patent/EP3432580A1/en active Pending
- 2012-11-07 IN IN3910CHN2014 patent/IN2014CN03910A/en unknown
- 2012-11-07 ES ES12847552T patent/ES2705998T3/es active Active
- 2012-11-07 DK DK12847552.2T patent/DK2752005T3/en active
- 2012-11-07 CN CN201210441592.1A patent/CN103096071B/zh active Active
- 2012-11-07 CN CN201810166637.6A patent/CN108235009B/zh active Active
- 2012-11-07 TW TW105116715A patent/TWI581612B/zh active
- 2012-11-07 KR KR1020147010003A patent/KR101472973B1/ko active IP Right Review Request
- 2012-11-07 WO PCT/CN2012/084242 patent/WO2013067939A1/en active Application Filing
- 2012-11-07 SI SI201231472T patent/SI2752005T1/sl unknown
- 2012-11-07 CN CN201810168179.XA patent/CN108777789B/zh active Active
- 2012-11-07 EP EP12847552.2A patent/EP2752005B1/en active Active
- 2012-11-07 RS RS20181502A patent/RS58195B1/sr unknown
- 2012-11-07 ES ES18193701T patent/ES2807778T3/es active Active
- 2012-11-07 HU HUE18193706A patent/HUE062569T2/hu unknown
- 2012-11-07 CN CN201810166397.XA patent/CN108282652B/zh active Active
- 2012-11-07 PL PL12847552T patent/PL2752005T3/pl unknown
- 2012-11-07 TW TW105116740A patent/TWI568244B/zh active
- 2012-11-07 PT PT12847552T patent/PT2752005T/pt unknown
- 2012-11-07 LT LTEP12847552.2T patent/LT2752005T/lt unknown
- 2012-11-07 HU HUE12847552A patent/HUE042219T2/hu unknown
- 2012-11-07 EP EP18193640.2A patent/EP3432579A1/en active Pending
- 2012-11-07 TW TW106113996A patent/TWI625053B/zh active
- 2012-11-07 EP EP18193701.2A patent/EP3448033B1/en active Active
- 2012-11-07 CN CN201810168133.8A patent/CN108282658B/zh active Active
- 2012-11-07 EP EP18193706.1A patent/EP3448034B1/en active Active
- 2012-11-07 KR KR1020147010015A patent/KR20140057667A/ko not_active Application Discontinuation
- 2012-11-07 PL PL18193701T patent/PL3448033T3/pl unknown
- 2012-11-07 CN CN201810168204.4A patent/CN108282660B/zh active Active
- 2012-11-07 DK DK18193706.1T patent/DK3448034T3/da active
- 2012-11-07 HU HUE18193701A patent/HUE049603T2/hu unknown
- 2012-11-07 TW TW105116718A patent/TWI571110B/zh active
-
2015
- 2015-11-06 JP JP2015218216A patent/JP6114362B2/ja active Active
-
2016
- 2016-02-22 US US15/050,266 patent/US9912949B2/en active Active
- 2016-02-22 US US15/050,259 patent/US9615097B2/en not_active Expired - Fee Related
- 2016-02-22 US US15/049,965 patent/US9521414B2/en active Active
- 2016-02-22 US US15/050,257 patent/US9516319B2/en active Active
-
2017
- 2017-03-16 JP JP2017051736A patent/JP6505763B2/ja active Active
-
2018
- 2018-03-05 US US15/912,050 patent/US10116939B2/en active Active
- 2018-10-15 US US16/160,672 patent/US10356409B2/en active Active
- 2018-12-11 CY CY181101325T patent/CY1121058T1/el unknown
- 2018-12-28 HR HRP20182189TT patent/HRP20182189T1/hr unknown
-
2019
- 2019-03-27 JP JP2019060553A patent/JP6680925B2/ja active Active
- 2019-07-10 US US16/507,996 patent/US10931949B2/en active Active
-
2020
- 2020-03-19 JP JP2020048612A patent/JP6995910B2/ja active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2705998T3 (es) | Procedimiento de derivación de información de movimiento | |
ES2951910T3 (es) | Procedimiento de construcción de una lista de fusión | |
KR101472975B1 (ko) | Amvp 모드에서의 영상 복호화 방법 | |
KR101484058B1 (ko) | 영상 복호화 방법 | |
KR20140061535A (ko) | 머지 모드에서의 영상 복호화 방법 |