ES2695556T3 - Procedimiento de decodificación de información de movimiento - Google Patents

Procedimiento de decodificación de información de movimiento Download PDF

Info

Publication number
ES2695556T3
ES2695556T3 ES17189965T ES17189965T ES2695556T3 ES 2695556 T3 ES2695556 T3 ES 2695556T3 ES 17189965 T ES17189965 T ES 17189965T ES 17189965 T ES17189965 T ES 17189965T ES 2695556 T3 ES2695556 T3 ES 2695556T3
Authority
ES
Spain
Prior art keywords
unit
motion vector
prediction
coding
movement information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17189965T
Other languages
English (en)
Inventor
Tammy Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2695556T3 publication Critical patent/ES2695556T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

Un procedimiento de decodificación de un vector de movimiento, comprendiendo el procedimiento: determinar si están disponibles (2510) vectores de movimiento de unidades de predicción espacial que están espacialmente co-localizadas a una unidad de predicción actual y vectores de movimiento de unidades de predicción temporal que están temporalmente co-localizadas a la unidad de predicción actual; determinar los vectores de movimiento disponibles como candidatos de predictor de vector de movimiento; caracterizado por: cuando el número de los candidatos de predictor de vector de movimiento es menor que un número predeterminado `n', donde n es un número entero, generar al menos un vector de movimiento bidireccional combinado combinando un vector de movimiento disponible, de entre los vectores de movimiento disponibles, que indica un bloque de instantánea en la lista de instantáneas de referencia 0 y un vector de movimiento disponible, de entre los vectores de movimiento disponibles, que indica un bloque de instantánea en la lista de instantáneas de referencia 1; añadir el al menos un vector de movimiento bidireccional combinado a los candidatos de predictor de vector de movimiento; cuando el número de los candidatos de predictor de vector de movimiento es menor que el número predeterminado `n', añadir un vector de movimiento que tiene un valor de componente predeterminado a los candidatos de predictor de vector de movimiento de modo que un número total de candidatos de predictor de vector de movimiento es el número predeterminado n (2520), en el que el valor de componente predeterminado es (0, 0); obtener información que indica un predictor de vector de movimiento entre los candidatos de predictor de vector de movimiento a partir de una secuencia de bits (2530); y obtener el predictor de vector de movimiento de la unidad de predicción actual basándose en la información (2540).

Description

DESCRIPCION
Procedimiento de decodificacion de informacion de movimiento
Descripcion detallada de la invencion
Campo tecnico
La presente invencion se refiere a un procedimiento y aparato para codificar y decodificar informacion de movimiento, y mas particularmente, a un procedimiento y aparato para codificar y decodificar de manera eficaz informacion de movimiento de una unidad de prediccion actual.
Antecedentes de la tecnica
En la actualidad, a medida que los contenidos de video de alta definicion se estan usando ampliamente, ha aumentado una necesidad de un codec de video que tenga una eficacia de codificacion superior que un codec de video convencional, tal como la codificacion de video avanzada (AVC) MPEG-4 H.264/MPEG-4.
De acuerdo con la compensacion de movimiento que es una tecnologfa para eliminar redundancia temporal en una senal de video, se aumenta la eficacia de compresion transmitiendo una senal residual que es un valor de diferencia entre una senal de video original y una senal de referencia indicada por un vector de movimiento. En general, un vector de movimiento y un valor residual de cada bloque, como un resultado de codificacion obtenido codificando cada bloque usando compensacion de movimiento, se transmiten a un decodificador. Puesto que los vectores de movimiento de cada bloque ocupan una cantidad considerable de una secuencia de bits codificada, la informacion acerca de un vector de movimiento asignado a cada bloque necesita reducirse para aumentar la eficacia de compresion.
Para reducir la tara de transmision durante la codificacion de un vector de movimiento, se usa un vector de movimiento de un bloque anterior como un vector de movimiento de prediccion de un bloque actual en un codec de MPEG-2 convencional, y se usa una mediana de vectores de movimiento de bloques previamente codificados que son adyacentes a un lado izquierdo, un lado superior y un lado superior derecho de un bloque actual como un vector de movimiento de prediccion del bloque actual en un codec tal como MPEG-4 H.264/MPEG-4 AVC.
Se hace referencia a las siguientes divulgaciones:
LAROCHE G Y COL: “RD Optimized Coding for Motion Vector Predictor Selection”, IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, Estados Unidos, Vol. 18, n.° 9, 1 de septiembre de 2008 (01-09-2008), paginas 1247-1257.
JOEL JUNG Y COL: “Competition-Based Scheme for Motion Vector Selection and Coding” 29. VCEG MEETING; 77. MPEG MEETING; 17-07-2006 - 17-07-2006;KLAGENFURT, AT; (VIDEO CODING EXPERTS GROUP OF ITU-T SG.16), n.° VCEG-AC06rl, 2 de agosto de 2006 (02-08-2006).
Divulgacion de la invencion
Objetivo tecnico de la invencion
La presente invencion proporciona un procedimiento y aparato para codificar y decodificar de manera eficaz informacion de movimiento de una unidad de prediccion actual.
Medios para conseguir el objetivo tecnico
De acuerdo con las realizaciones de la presente invencion, se genera diversa informacion de movimiento de candidato usando informacion de movimiento de unidades de prediccion que estan espacialmente co-localizadas a una unidad de prediccion actual e informacion de movimiento de unidades de prediccion que estan temporalmente co-localizadas a la unidad de prediccion actual.
Efecto de la invencion
De acuerdo con las realizaciones de la presente invencion, puede aumentarse la eficacia de compresion de una imagen usando diversos candidatos de movimiento obtenidos basandose en informacion de movimiento de una unidad de prediccion adyacente.
Breve descripcion de los dibujos
La Figura 1 es un diagrama de bloques de un aparato para codificar un video, de acuerdo con una realizacion de la presente invencion;
La Figura 2 es un diagrama de bloques de un aparato para decodificar un video, de acuerdo con una realizacion de la presente invencion;
La Figura 3 es un diagrama para describir un concepto de unidades de codificacion de acuerdo con una realizacion de la presente invencion;
La Figura 4 es un diagrama de bloques de un codificador de imagen basado en unidades de codificacion de acuerdo con una realizacion de la presente invencion;
La Figura 5 es un diagrama de bloques de un decodificador de imagen basado en unidades de codificacion de acuerdo con una realizacion de la presente invencion;
La Figura 6 es un diagrama que ilustra unidades de codificacion mas profundas de acuerdo con las profundidades, y particiones de acuerdo con una realizacion de la presente invencion;
La Figura 7 es un diagrama para describir una relacion entre una unidad de codificacion y unidades de transformacion, de acuerdo con una realizacion de la presente invencion;
La Figura 8 es un diagrama para describir informacion de codificacion de unidades de codificacion que corresponden a una profundidad codificada, de acuerdo con una realizacion de la presente invencion;
La Figura 9 es un diagrama de unidades de codificacion mas profundas de acuerdo con las profundidades, de acuerdo con una realizacion de la presente invencion;
Las Figuras 10 a 12 son diagramas para describir una relacion entre unidades de codificacion, unidades de prediccion, y unidades de transformacion, de acuerdo con una realizacion de la presente invencion;
La Figura 13 es un diagrama para describir una relacion entre una unidad de codificacion, una unidad de prediccion o una particion, y una unidad de transformacion, de acuerdo con informacion de modo de codificacion de la Tabla 1; La Figura 14 es un diagrama de bloques de un aparato de codificacion de informacion de movimiento de acuerdo con una realizacion de la presente invencion;
La Figura 15 es un diagrama de bloques de una unidad de generacion de informacion de movimiento de candidato de la Figura 14, de acuerdo con una realizacion de la presente invencion;
La Figura 16 ilustra unidades de prediccion adyacentes que estan espacialmente co-localizadas a una unidad de prediccion actual, de acuerdo con una realizacion de la presente invencion
La Figura 17A es un diagrama de referencia para explicar un procedimiento para determinar un candidato de vector de movimiento de prediccion espacial escalado, de acuerdo con una realizacion de la presente invencion;
La Figura 17B es un diagrama de referencia para explicar un procedimiento para generar informacion de movimiento de candidato adicional usando una unidad de prediccion que esta espacialmente co-localizada a una unidad de prediccion actual, de acuerdo con una realizacion de la presente invencion;
La Figura 18 es un diagrama de referencia para explicar un procedimiento de generacion de un candidato de vector de movimiento de prediccion de una unidad de prediccion actual escalando un vector de movimiento de una unidad de prediccion adyacente, de acuerdo con una realizacion de la presente invencion;
La Figura 19 es un diagrama de referencia para explicar un procedimiento de generacion de informacion de movimiento de candidato temporal, de acuerdo con una realizacion de la presente invencion;
Las Figuras 20A y 20B son diagramas para explicar un procedimiento de generacion de informacion de movimiento de candidato adicional usando informacion de movimiento de unidades de prediccion disponibles, de acuerdo con otra realizacion de la presente invencion;
Las Figuras 21A y 21B son diagramas para describir una relacion posicional entre una instantanea actual y una instantanea de referencia cuando se genera informacion de movimiento de candidato adicional de las Figuras 20A y 20B, de acuerdo con una realizacion de la presente invencion;
La Figura 22 es un diagrama de flujo de un procedimiento de codificacion de un vector de movimiento, de acuerdo con una realizacion de la presente invencion;
La Figura 23 es un diagrama de bloques de un aparato de decodificacion de vector de movimiento de acuerdo con una realizacion de la presente invencion; y
La Figura 24 es un diagrama de flujo de un procedimiento de decodificacion de informacion de movimiento, de acuerdo con una realizacion de la presente invencion.
Mejor modo para llevar a cabo la invencion
De acuerdo con un aspecto de la presente invencion, se proporciona un procedimiento de decodificacion de un vector de movimiento, comprendiendo el procedimiento: determinar si estan disponibles vectores de movimiento de unidades de prediccion espacial que estan espacialmente co-localizadas a una unidad de prediccion actual y vectores de movimiento de unidades de prediccion temporales que estan temporalmente co-localizadas a la unidad de prediccion actual; determinar los vectores de movimiento disponibles como candidatos de predictor de vector de movimiento; caracterizado por: cuando el numero de los candidatos de predictor de vector de movimiento es menor que un numero predeterminado 'n', donde n es un numero entero, generar al menos un vector de movimiento bidireccional combinado combinando un vector de movimiento disponible, de entre los vectores de movimiento disponibles, que indica un bloque de instantanea en lista de instantaneas de referencia 0 y un vector de movimiento disponible, de entre los vectores de movimiento disponibles, que indica un bloque de instantanea en la lista de instantaneas de referencia 1; anadir el al menos un vector de movimiento bidireccional combinado a los candidatos de predictor de vector de movimiento; cuando el numero de los candidatos de predictor de vector de movimiento es menor que el numero predeterminado 'n', anadir un vector de movimiento que tiene un valor de componente predeterminado a los candidatos de predictor de vector de movimiento de modo que un numero total de candidatos de predictor de vector de movimiento es el numero predeterminado n, en el que el valor de componente predeterminado es (0, 0); obtener informacion que indica un predictor de vector de movimiento entre los candidatos de predictor de vector de movimiento de una secuencia de bits; y obtener el predictor de vector de movimiento de la unidad de prediccion actual basandose en la informacion.
Se exponen caractensticas adicionales de la presente invencion en las reivindicaciones modificadas.
Modo de la invencion
En lo sucesivo, la presente invencion se describira mas completamente con referencia a los dibujos adjuntos, en los que se muestran realizaciones ejemplares de la invencion.
La Figura 1 es un diagrama de bloques de un aparato 100 de codificacion de video, de acuerdo con una realizacion de la presente invencion.
El aparato 100 de codificacion de video incluye un divisor 110 de unidad de codificacion maxima, un determinador 120 de unidad de codificacion, y una unidad 130 de salida.
El divisor 110 de unidad de codificacion maxima puede dividir una instantanea actual basandose en una unidad de codificacion maxima para la instantanea actual de una imagen. Si la instantanea actual es mayor que la unidad de codificacion maxima, los datos de imagen de la instantanea actual pueden dividirse en la al menos una unidad de codificacion maxima. La unidad de codificacion maxima de acuerdo con una realizacion de la presente invencion puede ser una unidad de datos que tiene un tamano de 32x32, 64x64, 128x128, 256x256, etc., en la que una forma de la unidad de datos es un cuadrado que tiene una anchura y longitud en potencias de 2. Los datos de imagen pueden emitirse al determinador 120 de unidad de codificacion de acuerdo con la al menos una unidad de codificacion maxima.
Una unidad de codificacion de acuerdo con una realizacion de la presente invencion puede estar caracterizada por un tamano maximo y una profundidad. La profundidad indica un numero de veces que la unidad de codificacion se divide espacialmente a partir de la unidad de codificacion maxima, y a medida que la profundidad se hace mas profunda, pueden dividirse unidades de codificacion mas profundas de acuerdo con las profundidades a partir de la unidad de codificacion maxima a una unidad de codificacion minima. Una profundidad de la unidad de codificacion maxima es una profundidad mas superior y una profundidad de la unidad de codificacion minima es una profundidad mas inferior. Puesto que un tamano de una unidad de codificacion que corresponde a cada profundidad se reduce a medida que la profundidad de la unidad de codificacion maxima se hace profunda, una unidad de codificacion que corresponde a una profundidad superior puede incluir una pluralidad de unidades de codificacion que corresponden a profundidades inferiores.
Como se ha descrito anteriormente, los datos de imagen de la instantanea actual se dividen en las unidades de codificacion maxima de acuerdo con un tamano maximo de la unidad de codificacion, y cada una de las unidades de codificacion maxima puede incluir unidades de codificacion mas profundas que se dividen de acuerdo con las profundidades. Puesto que la unidad de codificacion maxima de acuerdo con una realizacion de la presente invencion se divide de acuerdo con las profundidades, los datos de imagen de un dominio espacial incluidos en la unidad de codificacion maxima pueden clasificarse jerarquicamente de acuerdo con las profundidades.
Puede predeterminarse una profundidad maxima y un tamano maximo de una unidad de codificacion, que limita el numero total de veces que se divide jerarquicamente una altura y una anchura de la unidad de codificacion maxima. El determinador 120 de unidad de codificacion codifica al menos una region de division obtenida dividiendo una region de la unidad de codificacion maxima de acuerdo con las profundidades, y determina una profundidad para emitir datos de imagen finalmente codificados de acuerdo con la al menos una region de division. En otras palabras, el determinador 120 de unidad de codificacion determina una profundidad codificada codificando los datos de imagen en las unidades de codificacion mas profundas de acuerdo con las profundidades, de acuerdo con la unidad de codificacion maxima de la instantanea actual, y seleccionando una profundidad que tiene el error de codificacion mmimo. Por lo tanto, los datos de imagen codificados de la unidad de codificacion que corresponde a la profundidad codificada determinada se emiten finalmente. Tambien, las unidades de codificacion que corresponden a la profundidad codificada pueden considerarse como unidades de codificacion codificadas. La profundidad codificada determinada y los datos de imagen codificados de acuerdo con la profundidad codificada determinada se emiten a la unidad 130 de salida.
Los datos de imagen en la unidad de codificacion maxima se codifican basandose en las unidades de codificacion mas profundas que corresponden a al menos una profundidad igual o menor que la profundidad maxima, y los resultados de codificacion de los datos de imagen se comparan basandose en cada una de las unidades de codificacion mas profundas. Una profundidad que tiene el error de codificacion mmimo puede seleccionarse despues de comparar errores de codificacion de las unidades de codificacion mas profundas. Al menos una profundidad codificada puede seleccionarse para cada unidad de codificacion maxima.
El tamano de la unidad de codificacion maxima se divide a medida que una unidad de codificacion se divide jerarquicamente de acuerdo con las profundidades, y a medida que el numero de unidades de codificacion aumenta. Tambien, incluso si las unidades de codificacion corresponden a una misma profundidad en una unidad de codificacion maxima, se determina si dividir cada una de las unidades de codificacion que corresponden a la misma profundidad a una profundidad inferior midiendo un error de codificacion de los datos de imagen de cada unidad de codificacion, de manera separada. Por consiguiente, incluso cuando los datos de imagen estan incluidos en una unidad de codificacion maxima, los datos de imagen se dividen en regiones de acuerdo con las profundidades y los errores de codificacion pueden diferenciarse de acuerdo con las regiones en la unidad de codificacion maxima, y por lo tanto las profundidades codificadas pueden diferenciarse de acuerdo con regiones en los datos de imagen. Por lo tanto, pueden determinarse una o mas profundidades codificadas en una unidad de codificacion maxima, y los datos de imagen de la unidad de codificacion maxima pueden dividirse de acuerdo con unidades de codificacion de al menos una profundidad codificada.
Por consiguiente, el determinador 120 de unidad de codificacion puede determinar unidades de codificacion que tienen una estructura de arbol incluida en la unidad de codificacion maxima. Las 'unidades de codificacion que tienen una estructura de arbol' de acuerdo con una realizacion de la presente invencion incluyen unidades de codificacion que corresponden a una profundidad determinada para que sea la profundidad codificada, de entre todas las unidades de codificacion mas profundas incluidas en la unidad de codificacion maxima. Una unidad de codificacion de una profundidad codificada puede determinarse jerarquicamente de acuerdo con las profundidades en la misma region de la unidad de codificacion maxima, y puede determinarse de manera independiente en regiones diferentes. De manera similar, una profundidad codificada en una region actual puede determinarse de manera independiente de una profundidad codificada en otra region.
Una profundidad maxima de acuerdo con una realizacion de la presente invencion es un mdice relacionado con el numero de veces que se realiza division de una unidad de codificacion maxima a una unidad de codificacion minima. Una primera profundidad maxima de acuerdo con una realizacion de la presente invencion puede indicar el numero total de veces que se realiza division de la unidad de codificacion maxima a la unidad de codificacion minima. Una segunda profundidad maxima de acuerdo con una realizacion de la presente invencion puede indicar el numero total de niveles de profundidad de la unidad de codificacion maxima a la unidad de codificacion minima. Por ejemplo, cuando una profundidad de la unidad de codificacion maxima es 0, una profundidad de una unidad de codificacion, en la que la unidad de codificacion maxima se divide una vez, puede establecerse a 1, y una profundidad de una unidad de codificacion, en la que la unidad de codificacion maxima se divide dos veces, puede establecerse a 2. En este punto, si la unidad de codificacion minima es una unidad de codificacion en la que la unidad de codificacion maxima se divide cuatro veces, existen 5 niveles de profundidad de profundidades 0, 1, 2, 3 y 4, y por lo tanto la primera profundidad maxima puede establecerse a 4, y la segunda profundidad maxima puede establecerse a 5. Puede realizarse codificacion y transformacion de prediccion de acuerdo con la unidad de codificacion maxima. La codificacion por prediccion y la transformacion tambien se realizan basandose en las unidades de codificacion mas profundas de acuerdo con una profundidad igual a o profundidades menores que la profundidad maxima, de acuerdo con la unidad de codificacion maxima. La transformacion puede realizarse de acuerdo con un procedimiento de transformacion ortogonal o transformacion de numeros enteros.
Puesto que el numero de unidades de codificacion mas profundas aumenta cada vez que la unidad de codificacion maxima se divide de acuerdo con las profundidades, se realiza codificacion que incluye la codificacion por prediccion y la transformacion en todas las unidades de codificacion mas profundas generadas a medida que la profundidad se hace mas profunda. Por conveniencia de descripcion, se describira ahora la codificacion por prediccion y la transformacion basandose en una unidad de codificacion de una profundidad actual, en una unidad de codificacion maxima.
El aparato 100 de codificacion de video puede seleccionar de manera diversa un tamano o forma de una unidad de datos para codificar los datos de imagen. Para codificar los datos de imagen, se realizan operaciones, tales como codificacion de prediccion y codificacion por entropfa, y en ese momento, puede usarse la misma unidad de datos para todas las operaciones o pueden usarse diferentes unidades de datos para cada operacion.
Por ejemplo, el aparato 100 de codificacion de video puede seleccionar no unicamente una unidad de codificacion para codificar los datos de imagen, sino tambien una unidad de datos diferente de la unidad de codificacion para realizar la codificacion por prediccion en los datos de imagen en la unidad de codificacion.
Para realizar codificacion de prediccion en la unidad de codificacion maxima, la codificacion por prediccion puede realizarse basandose en una unidad de codificacion que corresponde a una profundidad codificada, es decir, basandose en una unidad de codificacion que ya no se divide mas en unidades de codificacion que corresponden a una profundidad inferior. En lo sucesivo, la unidad de codificacion que ya no se divide mas y se vuelve una unidad de base para codificacion de prediccion se denominara ahora como una 'unidad de prediccion'. Una particion obtenida dividiendo la unidad de prediccion puede incluir una unidad de prediccion o una unidad de datos obtenida dividiendo al menos una de una altura y una anchura de la unidad de prediccion.
Por ejemplo, cuando una unidad de codificacion de 2Nx2N (donde N es un entero positivo) ya no se divide mas y se vuelve una unidad de prediccion de 2Nx2N, y un tamano de una particion puede ser 2Nx2N, 2NxN, Nx2N o NxN. Ejemplos de un tipo de particion incluyen particiones simetricas que se obtienen dividiendo simetricamente una altura o anchura de la unidad de prediccion, particiones obtenidas dividiendo asimetricamente la altura o anchura de la unidad de prediccion, tal como 1:no n: 1, particiones que se obtienen dividiendo geometricamente la unidad de prediccion, y particiones que tienen formas arbitrarias.
Un modo de prediccion de la unidad de prediccion puede ser al menos uno de un intra modo, un inter modo y un modo de salto. Por ejemplo, puede realizarse el intra modo o el inter modo en la particion de 2Nx2N, 2NxN, Nx2N, o NxN. Tambien, puede realizarse el modo de salto unicamente en la particion de 2Nx2N. La codificacion se realiza de manera independiente en una unidad de prediccion en una unidad de codificacion, seleccionando de esta manera un modo de prediccion que tiene un error de codificacion mmimo.
El aparato 100 de codificacion de video puede realizar tambien la transformacion en los datos de imagen en una unidad de codificacion basandose no unicamente en la unidad de codificacion para codificar los datos de imagen, sino tambien basandose en una unidad de datos que es diferente de la unidad de codificacion.
Para realizar la transformacion en la unidad de codificacion, la transformacion puede realizarse basandose en una unidad de datos que tiene un tamano menor o igual que la unidad de codificacion. Por ejemplo, la unidad de datos para la transformacion puede incluir una unidad de datos para un intra modo y una unidad de datos para un inter modo.
Una unidad de datos usada como una base de la transformacion se denominara ahora como una 'unidad de transformacion'. De manera similar a la unidad de codificacion, la unidad de transformacion en la unidad de codificacion puede dividirse de manera recursiva en regiones con tamano mas pequeno, de modo que la unidad de transformacion puede determinarse de manera independiente en unidades de regiones. Por lo tanto, los datos residuales en la unidad de codificacion pueden dividirse de acuerdo con la unidad de transformacion que tiene la estructura de arbol de acuerdo con profundidades de transformacion.
Una profundidad de transformacion que indica el numero de veces que se realiza division para alcanzar la unidad de transformacion dividiendo la altura y anchura de la unidad de codificacion puede establecerse tambien en la unidad de transformacion. Por ejemplo, en una unidad de codificacion actual de 2Nx2N, una profundidad de transformacion puede ser 0 cuando el tamano de una unidad de transformacion es 2Nx2N, puede ser 1 cuando el tamano de una unidad de transformacion es NXN, y puede ser 2 cuando el tamano de una unidad de transformacion es N/2XN/2. Es decir, la unidad de transformacion que tiene la estructura de arbol puede establecerse tambien de acuerdo con profundidades de transformacion.
La informacion de codificacion de acuerdo con unidades de codificacion que corresponden a una profundidad codificada no requiere unicamente informacion acerca de la profundidad codificada, sino tambien acerca de informacion relacionada con codificacion de prediccion y transformacion. Por consiguiente, el determinador 120 de unidad de codificacion no determina unicamente una profundidad codificada que tiene un error de codificacion mmimo, sino tambien determina un tipo de particion en una unidad de prediccion, un modo de prediccion de acuerdo con unidades de prediccion, y un tamano de una unidad de transformacion para transformacion.
Las unidades de codificacion de acuerdo con una estructura de arbol en una unidad de codificacion maxima y un procedimiento de determinacion de una particion, de acuerdo con las realizaciones de la presente invencion, se describiran en detalle mas adelante con referencia a las Figuras 3 a 12.
El determinador 120 de unidad de codificacion puede medir un error de codificacion de unidades de codificacion mas profundas de acuerdo con las profundidades usando Optimizacion de Tasa-Distorsion basandose en multiplicadores de Lagrange.
La unidad 130 de salida emite los datos de imagen de la unidad de codificacion maxima, que se codifican basandose en la al menos una profundidad codificada determinada por el determinador 120 de unidad de codificacion, e informacion acerca del modo de codificacion de acuerdo con la profundidad codificada, en secuencias de bits.
Los datos de imagen codificados pueden obtenerse codificando datos residuales de una imagen.
La informacion acerca del modo de codificacion de acuerdo con profundidad codificada puede incluir informacion acerca de la profundidad codificada, acerca del tipo de particion en la unidad de prediccion, el modo de prediccion y el tamano de la unidad de transformacion.
La informacion acerca de la profundidad codificada puede definirse usando informacion de division de acuerdo con las profundidades, que indica si se realiza codificacion en unidades de codificacion de una profundidad inferior en lugar de una profundidad actual. Si la profundidad actual de la unidad de codificacion actual es la profundidad codificada, se codifican datos de imagen en la unidad de codificacion actual y se emiten, y por lo tanto la informacion de division puede definirse para no dividir la unidad de codificacion actual a una profundidad inferior. Como alternativa, si la profundidad actual de la unidad de codificacion actual no es la profundidad codificada, la codificacion se realiza en la unidad de codificacion de la profundidad inferior, y por lo tanto la informacion de division puede definirse para dividir la unidad de codificacion actual para obtener las unidades de codificacion de la profundidad inferior.
Si la profundidad actual no es la profundidad codificada, se realiza codificacion en la unidad de codificacion que se divide en la unidad de codificacion de la profundidad inferior. Puesto que existe al menos una unidad de codificacion de la profundidad inferior en una unidad de codificacion de la profundidad actual, la codificacion se realiza de manera repetitiva en cada unidad de codificacion de la profundidad inferior, y por lo tanto la codificacion puede realizarse de manera recursiva para las unidades de codificacion que tienen la misma profundidad.
Puesto que se determinan las unidades de codificacion que tienen una estructura de arbol para una unidad de codificacion maxima, y se determina la informacion acerca de al menos un modo de codificacion para una unidad de codificacion de una profundidad codificada, puede determinarse informacion acerca de al menos un modo de codificacion para una unidad de codificacion maxima. Tambien, una profundidad codificada de los datos de imagen de la unidad de codificacion maxima puede ser diferente de acuerdo con las localizaciones puesto que los datos de imagen se dividen jerarquicamente de acuerdo con las profundidades, y por lo tanto la informacion acerca de la profundidad codificada y el modo de codificacion puede establecerse para los datos de imagen.
Por consiguiente, la unidad 130 de salida puede asignar informacion de codificacion acerca de una correspondiente profundidad codificada y un modo de codificacion a al menos una de la unidad de codificacion, la unidad de prediccion y una unidad minima incluidas en la unidad de codificacion maxima.
La unidad minima de acuerdo con una realizacion de la presente invencion es una unidad de datos rectangular obtenida dividiendo por 4 la unidad de codificacion minima que constituye la profundidad mas inferior. Como alternativa, la unidad minima puede ser una unidad de datos rectangular maxima que puede estar incluida en todas las unidades de codificacion, unidades de prediccion, unidades de particion y unidades de transformacion incluidas en la unidad de codificacion maxima.
Por ejemplo, la informacion de codificacion emitida a traves de la unidad 130 de salida puede clasificarse en informacion de codificacion de acuerdo con unidades de codificacion, e informacion de codificacion de acuerdo con unidades de prediccion. La informacion de codificacion de acuerdo con las unidades de codificacion puede incluir la informacion acerca del modo de prediccion y acerca del tamano de las particiones. La informacion de codificacion de acuerdo con las unidades de prediccion puede incluir informacion acerca de una direccion estimada de un inter modo, acerca de un mdice de imagen de referencia del inter modo, acerca de un vector de movimiento, acerca de un componente de crominancia de un intra modo, y acerca de un procedimiento de interpolacion del intra modo. Tambien, informacion acerca de un tamano maximo de la unidad de codificacion definida de acuerdo con instantaneas, cortes, o GOP, y la informacion acerca de una profundidad maxima pueden insertarse en un encabezamiento de una secuencia de bits.
En el aparato 100 de codificacion de video, la unidad de codificacion mas profunda puede ser una unidad de codificacion obtenida dividiendo por dos una altura o anchura de una unidad de codificacion de una profundidad superior, que esta una capa por encima. En otras palabras, cuando el tamano de la unidad de codificacion de la profundidad actual es 2Nx2N, el tamano de la unidad de codificacion de la profundidad inferior es NxN. Tambien, la unidad de codificacion de la profundidad actual que tiene el tamano de 2Nx2N puede incluir un numero maximo de 4 unidades de codificacion de la profundidad inferior.
Por consiguiente, el aparato 100 de codificacion de video puede formar las unidades de codificacion que tienen la estructura de arbol determinando unidades de codificacion que tienen una forma optima y un tamano optimo para cada unidad de codificacion maxima, basandose en el tamano de la unidad de codificacion maxima y la profundidad maxima determinadas considerando caractensticas de la instantanea actual. Tambien, puesto que puede realizarse codificacion en cada unidad de codificacion maxima usando uno cualquiera de diversos modos de prediccion y transformaciones, puede determinarse un modo de codificacion optimo considerando caractensticas de la unidad de codificacion de diversos tamanos de imagen.
Por lo tanto, si se codifica una imagen que tiene alta resolucion o una gran cantidad de datos en un macrobloque convencional, un numero de macrobloques por instantanea aumenta excesivamente. Por consiguiente, un numero de piezas de informacion comprimida generadas para cada macrobloque aumenta, y por lo tanto es diffcil transmitir la informacion comprimida y la eficacia de compresion de datos se reduce. Sin embargo, usando el aparato 100 de codificacion de video, puede aumentarse la eficacia de compresion de imagen puesto que se ajusta una unidad de codificacion mientras se consideran caractensticas de una imagen mientras aumenta un tamano maximo de una unidad de codificacion mientras se considera un tamano de la imagen.
La Figura 2 es un diagrama de bloques de un aparato 200 de decodificacion de video, de acuerdo con una realizacion de la presente invencion.
El aparato 200 de decodificacion de video incluye un receptor 210, un extractor 220 de datos de imagen e informacion de codificacion, y un decodificador 230 de datos de imagen. Las definiciones de diversos terminos, tales como una unidad de codificacion, una profundidad, una unidad de prediccion, una unidad de transformacion, e informacion acerca de diversos modos de codificacion, para diversas operaciones del aparato 200 de decodificacion de video son identicas a aquellos descritos con referencia a la Figura 1 y al aparato 100 de codificacion de video. El receptor 210 recibe y analiza una secuencia de bits de un video codificado. El extractor 220 de datos de imagen e informacion de codificacion extrae datos de imagen codificados para cada unidad de codificacion de la secuencia de bits analizada, en el que las unidades de codificacion tienen una estructura de arbol de acuerdo con cada unidad de codificacion maxima, y emite los datos de imagen extrafdos al decodificador 230 de datos de imagen. El extractor 220 de datos de imagen e informacion de codificacion puede extraer informacion acerca de un tamano maximo de una unidad de codificacion de una instantanea actual, desde un encabezamiento acerca de la instantanea actual. Tambien, el extractor 220 de datos de imagen e informacion de codificacion extrae informacion acerca de una profundidad codificada y un modo de codificacion para las unidades de codificacion que tienen una estructura de arbol de acuerdo con cada unidad de codificacion maxima, desde la secuencia de bits analizada. La informacion extrafda acerca de la profundidad codificada y el modo de codificacion se emite al decodificador 230 de datos de imagen. En otras palabras, los datos de imagen en una secuencia de bits se dividen en la unidad de codificacion maxima de modo que el decodificador 230 de datos de imagen decodifica los datos de imagen para cada unidad de codificacion maxima.
La informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con la unidad de codificacion maxima puede establecerse para informacion acerca de al menos una unidad de codificacion que corresponde a la profundidad codificada, y la informacion acerca de un modo de codificacion puede incluir informacion acerca de un tipo de particion de una unidad de codificacion correspondiente que corresponde a la profundidad codificada, acerca de un modo de prediccion, y un tamano de una unidad de transformacion. Tambien, la informacion de division de acuerdo con las profundidades puede extraerse como la informacion acerca de la profundidad codificada.
La informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con cada unidad de codificacion maxima extrafda por el extractor 220 de datos de imagen e informacion de codificacion es informacion acerca de una profundidad codificada y un modo de codificacion determinado para generar un error de codificacion mmimo cuando un codificador, tal como el aparato 100 de codificacion de video, realiza codificacion de manera repetitiva para cada unidad de codificacion mas profunda de acuerdo con las profundidades de acuerdo con cada unidad de codificacion maxima. Por consiguiente, el aparato 200 de decodificacion de video puede restaurar una imagen decodificando los datos de imagen de acuerdo con una profundidad codificada y un modo de codificacion que genera el error de codificacion mmimo.
Puesto que la informacion de codificacion acerca de la profundidad codificada y el modo de codificacion puede asignarse a una unidad de datos predeterminada de entre una unidad de codificacion correspondiente, una unidad de prediccion y una unidad minima, el extractor 220 de datos de imagen e informacion de codificacion puede extraer la informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con las unidades de datos predeterminadas. Las unidades de datos predeterminadas a las que se asigna la misma informacion acerca de la profundidad codificada y el modo de codificacion pueden inferirse para que sean las unidades de datos incluidas en la misma unidad de codificacion maxima.
El decodificador 230 de datos de imagen restaura la instantanea actual decodificando los datos de imagen en cada unidad de codificacion maxima basandose en la informacion acerca de la profundidad codificada y el modo de codificacion de acuerdo con las unidades de codificacion maxima. En otras palabras, el decodificador 230 de datos de imagen puede decodificar los datos de imagen codificados basandose en la informacion extrafda acerca del tipo de particion, el modo de prediccion, y la unidad de transformacion para cada unidad de codificacion de entre las unidades de codificacion que tienen la estructura de arbol incluidas en cada unidad de codificacion maxima. Un procedimiento de decodificacion puede incluir prediccion que incluye intra prediccion y compensacion de movimiento y transformacion inversa. La transformacion inversa puede realizarse de acuerdo con un procedimiento de transformacion ortogonal inversa o transformacion de numeros enteros inversa.
El decodificador 230 de datos de imagen puede realizar intra prediccion o compensacion de movimiento de acuerdo con una particion y un modo de prediccion de cada unidad de codificacion, basandose en la informacion acerca del tipo de particion y el modo de prediccion de la unidad de prediccion de la unidad de codificacion de acuerdo con profundidades codificadas.
Tambien, el decodificador 230 de datos de imagen puede realizar transformacion inversa de acuerdo con cada unidad de transformacion en la unidad de codificacion, basandose en la informacion acerca del tamano de la unidad de transformacion de la unidad de codificacion de acuerdo con profundidades codificadas, para realizar la transformacion inversa de acuerdo con unidades de codificacion maxima.
El decodificador 230 de datos de imagen puede determinar al menos una profundidad codificada de una unidad de codificacion maxima actual usando informacion de division de acuerdo con las profundidades. Si la informacion de division indica que los datos de imagen ya no se dividen mas en la profundidad actual, la profundidad actual es una profundidad codificada. Por consiguiente, el decodificador 230 de datos de imagen puede decodificar datos codificados de al menos una unidad de codificacion que corresponde a cada profundidad codificada en la unidad de codificacion maxima actual usando la informacion acerca del tipo de particion de la unidad de prediccion, el modo de prediccion y el tamano de la unidad de transformacion para cada unidad de codificacion que corresponde a la profundidad codificada, y emitir los datos de imagen de la unidad de codificacion maxima actual.
En otras palabras, pueden reunirse las unidades de datos que contienen la informacion de codificacion que incluye la misma informacion de division observando la informacion de codificacion establecida asignada para la unidad de datos predeterminada de entre la unidad de codificacion, la unidad de prediccion y la unidad minima, y las unidades de datos recopiladas pueden considerarse que son una unidad de datos a decodificarse por el decodificador 230 de datos de imagen en el mismo modo de codificacion.
El aparato 200 de decodificacion de video puede obtener informacion acerca de al menos una unidad de codificacion que genera el error de codificacion mmimo cuando se realiza de manera recursiva codificacion para cada unidad de codificacion maxima, y puede usar la informacion para decodificar la instantanea actual. En otras palabras, pueden decodificarse las unidades de codificacion que tienen la estructura de arbol determinadas para que sean las unidades de codificacion optima en cada unidad de codificacion maxima. Tambien, se determina el tamano maximo de unidad de codificacion considerando la resolucion y una cantidad de datos de imagen.
Por consiguiente, incluso si los datos de imagen tienen alta resolucion y una gran cantidad de datos, los datos de imagen pueden decodificarse de manera eficaz y restaurarse usando un tamano de una unidad de codificacion y un modo de codificacion, que se determinan de manera adaptativa de acuerdo con caractensticas de los datos de imagen, usando informacion acerca de un modo de codificacion optimo recibido de un codificador.
Un procedimiento de determinacion de unidades de codificacion que tienen una estructura de arbol, una unidad de prediccion, y una unidad de transformacion, de acuerdo con una realizacion de la presente invencion, se describira ahora con referencia a las Figuras 3 a 13.
La Figura 3 es un diagrama para describir un concepto de unidades de codificacion de acuerdo con una realizacion de la presente invencion.
Un tamano de una unidad de codificacion puede expresarse en anchura x altura, y puede ser 64x64, 32x32, 16x16 y 8x8. Una unidad de codificacion de 64x64 puede dividirse en particiones de 64x64, 64x32, 32x64 o 32x32, y una unidad de codificacion de 32x32 puede dividirse en particiones de 32x32, 32x16, 16x32 o 16x16, una unidad de codificacion de 16x16 puede dividirse en particiones de 16x16, 16x8, 8x16 u 8x8, y una unidad de codificacion de 8x8 puede dividirse en particiones de 8x8, 8x4, 4x8 o 4x4.
En los datos 310 de video, una resolucion es 1920x1080, un tamano maximo de una unidad de codificacion es 64, y una profundidad maxima es 2. En los datos 320 de video, una resolucion es 1920x1080, un tamano maximo de una unidad de codificacion es 64, y una profundidad maxima es 3. En los datos 330 de video, una resolucion es 352x288, un tamano maximo de una unidad de codificacion es 16, y una profundidad maxima es 1. La profundidad maxima mostrada en la Figura 3 indica un numero total de divisiones de una unidad de codificacion maxima a una unidad de decodificacion minima.
Si una resolucion es alta o una cantidad de datos es grande, un tamano maximo de una unidad de codificacion puede ser grande para no unicamente aumentar la eficacia de codificacion sino tambien para reflejar de manera precisa caractensticas de una imagen. Por consiguiente, el tamano maximo de la unidad de codificacion de los datos 310 y 320 de video que tienen la resolucion mas alta que los datos 330 de video puede ser 64.
Puesto que la profundidad maxima de los datos 310 de video es 2, las unidades 315 de codificacion de los datos 310 de video pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 64, y unidades de codificacion que tienen tamanos de eje largo de 32 y 16 puesto que las profundidades se hacen profundas a dos capas dividiendo la unidad de codificacion maxima dos veces. Mientras tanto, puesto que la profundidad maxima de los datos 330 de video es 1, las unidades 335 de codificacion de los datos 330 de video pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 16, y unidades de codificacion que tienen un tamano de eje largo de 8 puesto que las profundidades se hacen profundas a una capa dividiendo la unidad de codificacion maxima una vez.
Puesto que la profundidad maxima de los datos 320 de video es 3, las unidades 325 de codificacion de los datos 320 de v^deo pueden incluir una unidad de codificacion maxima que tiene un tamano de eje largo de 64, y unidades de codificacion que tienen tamanos de eje largo de 32, 16 y 8 puesto que las profundidades se hacen profundas a 3 capas dividiendo la unidad de codificacion maxima tres veces. A medida que una profundidad se hace profunda, puede expresarse de manera precisa informacion detallada.
La Figura 4 es un diagrama de bloques de un codificador 400 de imagen basado en unidades de codificacion, de acuerdo con una realizacion de la presente invencion.
El codificador 400 de imagen realiza operaciones del determinador 120 de unidad de codificacion del aparato 100 de codificacion de video para codificar datos de imagen. En otras palabras, un intra predictor 410 realiza intra prediccion en unidades de codificacion en un intra modo, de entre un fotograma 405 actual, y un estimador 420 de movimiento y un compensador 425 de movimiento realizan inter estimacion y compensacion de movimiento en unidades de codificacion en un inter modo de entre el fotograma 405 actual usando el fotograma 405 actual y un fotograma 495 de referencia.
Los datos emitidos desde el intra predictor 410, el estimador 420 de movimiento, y el compensador 425 de movimiento se emiten como un coeficiente de transformacion cuantificado a traves de un transformador 430 y un cuantificador 440. El coeficiente de transformacion cuantificado se restaura como datos en un dominio espacial a traves de un cuantificador 460 inverso y un transformador 470 inverso, y los datos restaurados en el dominio espacial se emiten como el fotograma 495 de referencia despues de post-procesarse a traves de una unidad 480 de desbloqueo y una unidad 490 de filtracion de bucle. El coeficiente de transformacion cuantificado puede emitirse como una secuencia de bits 455 a traves de un codificador 450 por entropfa.
Para que se aplique el codificador 400 de imagen en el aparato 100 de codificacion de video, todos los elementos del codificador 400 de imagen, es decir, el intra predictor 410, el estimador 420 de movimiento, el compensador 425 de movimiento, el transformador 430, el cuantificador 440, el codificador 450 por entropfa, el cuantificador 460 inverso, el transformador 470 inverso, la unidad 480 de desbloqueo, y la unidad de filtracion en bucle 490 realizan operaciones basandose en cada unidad de codificacion de entre unidades de codificacion que tienen una estructura de arbol mientras se considera la profundidad maxima de cada unidad de codificacion maxima.
Espedficamente, el intra predictor 410, el estimador 420 de movimiento, y el compensador 425 de movimiento determinan particiones y un modo de prediccion de cada unidad de codificacion de entre las unidades de codificacion que tienen una estructura de arbol mientras se considera el tamano maximo y la profundidad maxima de una unidad de codificacion maxima actual, y el transformador 430 determina el tamano de la unidad de transformacion en cada unidad de codificacion de entre las unidades de codificacion que tienen una estructura de arbol.
La Figura 5 es un diagrama de bloques de un decodificador 500 de imagen basado en unidades de codificacion, de acuerdo con una realizacion de la presente invencion.
Un analizador 510 analiza datos de imagen codificados a decodificarse e informacion acerca de codificacion requerida para decodificacion de una secuencia de bits 505. Los datos de imagen codificados se emiten como datos cuantificados inversos a traves de un decodificador 520 por entropfa y un cuantificador 530 inverso, y los datos cuantificados inversos se restauran a datos de imagen en un dominio espacial a traves de un transformador 540 inverso.
Un intra predictor 550 realiza intra prediccion en unidades de codificacion en un intra modo con respecto a los datos de imagen en el dominio espacial, y un compensador 560 de movimiento realiza compensacion de movimiento en unidades de codificacion en un inter modo usando un fotograma 585 de referencia.
Los datos de imagen en el dominio espacial, que se pasan a traves del intra predictor 550 y el compensador 560 de movimiento, puede emitirse como un fotograma 595 restaurado despues de post-procesarse a traves de una unidad 570 de desbloqueo y una unidad 580 de filtracion de bucle. Tambien, los datos de imagen, que se post-procesan a traves de la unidad 570 de desbloqueo y la unidad 580 de filtracion en bucle, pueden emitirse como el fotograma 585 de referencia.
Para decodificar los datos de imagen en el decodificador 230 de datos de imagen del aparato 200 de decodificacion de video, el decodificador 500 de imagen puede realizar operaciones que se realizan despues de que se realizan las operaciones del analizador 510.
Para que el decodificador 500 de imagen se aplique en el aparato 200 de decodificacion de video, todos los elementos del decodificador 500 de imagen, es decir, el analizador 510, el decodificador 520 por entropfa, el cuantificador 530 inverso, el transformador 540 inverso, el intra predictor 550, el compensador 560 de movimiento, la unidad 570 de desbloqueo, y la unidad 580 de filtracion en bucle realizan operaciones basandose en unidades de codificacion que tienen una estructura de arbol para cada unidad de codificacion maxima.
Espedficamente, la intra prediccion 550 y el compensador 560 de movimiento realizan operaciones basandose en particiones y un modo de prediccion para cada una de las unidades de codificacion que tienen una estructura de arbol, y el transformador 540 inverso realiza operaciones basandose en un tamano de una unidad de transformacion para cada unidad de codificacion.
La Figura 6 es un diagrama que ilustra unidades de codificacion mas profundas de acuerdo con las profundidades, y particiones, de acuerdo con una realizacion de la presente invencion.
El aparato 100 de codificacion de video y el aparato 200 de decodificacion de video usan unidades de codificacion jerarquica para considerar caractensticas de una imagen. Puede determinarse de manera adaptativa una altura maxima, una anchura maxima, y una profundidad maxima de unidades de codificacion de acuerdo con las caractensticas de la imagen, o puede establecerse de manera diferente por un usuario. Pueden determinarse tamanos de unidades de codificacion mas profundas de acuerdo con las profundidades de acuerdo con el tamano maximo predeterminado de la unidad de codificacion.
En una estructura 600 jerarquica de unidades de codificacion, de acuerdo con una realizacion de la presente invencion, la altura maxima y la anchura maxima de las unidades de codificacion son cada una 64, y la profundidad maxima es 4. Puesto que una profundidad se hace profunda a lo largo de un eje vertical de la estructura 600 jerarquica, se divide cada una de una altura y una anchura de la unidad de codificacion mas profunda. Tambien, una unidad de prediccion y particiones, que son las bases para codificacion de prediccion de cada unidad de codificacion mas profunda, se muestran a lo largo de un eje horizontal de la estructura 600 jerarquica.
En otras palabras, una unidad 610 de codificacion es una unidad de codificacion maxima en la estructura 600 jerarquica, en el que una profundidad es 0 y un tamano, es decir, una altura por anchura, es 64x64. La profundidad se hace profunda a lo largo del eje vertical, y existe una unidad 620 de codificacion que tiene un tamano de 32x32 y una profundidad de 1, una unidad 630 de codificacion que tiene un tamano de 16x16 y una profundidad de 2, una unidad 640 de codificacion que tiene un tamano de 8x8 y una profundidad de 3, y una unidad 650 de codificacion que tiene un tamano de 4x4 y una profundidad de 4. La unidad 650 de codificacion que tiene el tamano de 4x4 y la profundidad de 4 es una unidad de codificacion minima.
La unidad de prediccion y las particiones de una unidad de codificacion estan dispuestas a lo largo del eje horizontal de acuerdo con cada profundidad. En otras palabras, si la unidad 610 de codificacion que tiene el tamano de 64x64 y la profundidad de 0 es una unidad de prediccion, la unidad de prediccion puede dividirse en particiones incluidas en la unidad 610 de codificacion, es decir una particion 610 que tiene un tamano de 64x64, particiones 612 que tienen el tamano de 64x32, particiones 614 que tienen el tamano de 32x64, o particiones 616 que tienen el tamano de 32x32.
De manera similar, una unidad de prediccion de la unidad 620 de codificacion que tiene el tamano de 32x32 y la profundidad de 1 puede dividirse en particiones incluidas en la unidad 620 de codificacion, es decir una particion 620 que tiene un tamano de 32x32, particiones 622 que tienen un tamano de 32x16, particiones 624 que tienen un tamano de 16x32, y particiones 626 que tienen un tamano de 16x16.
De manera similar, una unidad de prediccion de la unidad 630 de codificacion que tiene el tamano de 16x16 y la profundidad de 2 puede dividirse en particiones incluidas en la unidad 630 de codificacion, es decir una particion que tiene un tamano de 16x16 incluida en la unidad 630 de codificacion, particiones 632 que tienen un tamano de 16x8, particiones 634 que tienen un tamano de 8x16, y particiones 636 que tienen un tamano de 8x8.
De manera similar, una unidad de prediccion de la unidad 640 de codificacion que tiene el tamano de 8x8 y la profundidad de 3 puede dividirse en particiones incluidas en la unidad 640 de codificacion, es decir una particion que tiene un tamano de 8x8 incluido en la unidad 640 de codificacion, particiones 642 que tienen un tamano de 8x4, particiones 644 que tienen un tamano de 4x8, y particiones 646 que tienen un tamano de 4x4.
La unidad 650 de codificacion que tiene el tamano de 4x4 y la profundidad de 4 es la unidad de codificacion minima y una unidad de codificacion de la profundidad mas inferior. Una unidad de prediccion de la unidad 650 de codificacion se asigna unicamente a una particion que tiene un tamano de 4x4.
Para determinar la al menos una profundidad codificada de las unidades de codificacion que constituyen la unidad 610 de codificacion maxima, el determinador 120 de unidad de codificacion del aparato 100 de codificacion de video realiza codificacion para unidades de codificacion que corresponden a cada profundidad incluida en la unidad 610 de codificacion maxima.
Un numero de unidades de codificacion mas profundas de acuerdo con las profundidades que incluyen datos en el mismo intervalo y el mismo tamano aumenta a medida que la profundidad se hace mas profunda. Por ejemplo, se requieren cuatro unidades de codificacion que corresponden a una profundidad de 2 para cubrir datos que estan incluidos en una unidad de codificacion que corresponde a una profundidad de 1. Por consiguiente, para comparar resultados de codificacion de los mismos datos de acuerdo con las profundidades, se codifica cada una de la unidad de codificacion que corresponde a la profundidad de 1 y cuatro unidades de codificacion que corresponden a la profundidad de 2.
Para realizar la codificacion para una profundidad actual de entre las profundidades, puede seleccionarse un error de codificacion mmimo para la profundidad actual realizado codificacion para cada unidad de prediccion en las unidades de codificacion que corresponden a la profundidad actual, a lo largo del eje horizontal de la estructura 600 jerarquica. Como alternativa, puede buscarse el error de codificacion mmimo comparando los errores mmimos de codificacion de acuerdo con las profundidades y realizando codificacion para cada profundidad a medida que la profundidad se hace mas profunda a lo largo del eje vertical de la estructura 600 jerarquica. Una profundidad y una particion que tienen el error de codificacion mmimo en la unidad 610 de codificacion pueden seleccionarse como la profundidad codificada y un tipo de particion de la unidad 610 de codificacion.
La Figura 7 es un diagrama para describir una relacion entre una unidad 710 de codificacion y unidades 720 de transformacion, de acuerdo con una realizacion de la presente invencion.
El aparato 100 o 200 de codificacion de video codifica o decodifica una imagen de acuerdo con unidades de codificacion que tienen tamanos menores o iguales que una unidad de codificacion maxima para cada unidad de codificacion maxima. Pueden seleccionarse tamanos de unidades de transformacion para transformacion durante la codificacion basandose en unidades de datos que ya no son mayores que una unidad de codificacion correspondiente.
Por ejemplo, en el aparato 100 o 200 de codificacion de video, si un tamano de la unidad 710 de codificacion es 64x64, la transformacion puede realizarse usando las unidades 720 de transformacion que tienen un tamano de 32x32.
Tambien, los datos de la unidad 710 de codificacion que tiene el tamano de 64x64 pueden codificarse realizando la transformacion en cada una de las unidades de transformacion que tienen el tamano de 32x32, 16x16, 8x8 y 4x4, que son menores que 64x64, y a continuacion puede seleccionarse una unidad de transformacion que tiene el error de codificacion mmimo.
La Figura 8 es un diagrama para describir informacion de codificacion de unidades de codificacion que corresponden a una profundidad codificada, de acuerdo con una realizacion de la presente invencion.
La unidad 130 de salida del aparato 100 de codificacion de video puede codificar y transmitir informacion 800 acerca de un tipo de particion, informacion 810 acerca de un modo de prediccion, e informacion 820 acerca de un tamano de una unidad de transformacion para cada unidad de codificacion que corresponde a una profundidad codificada, como informacion acerca de un modo de codificacion.
La informacion 800 indica informacion acerca de una forma de una particion obtenida dividiendo una unidad de prediccion de una unidad de codificacion actual, en la que la particion es una unidad de datos para codificacion de prediccion la unidad de codificacion actual. Por ejemplo, una unidad de codificacion actual CU_0 que tiene un tamano de 2Nx2N puede dividirse en una cualquiera de una particion 802 que tiene un tamano de 2Nx2N, una particion 804 que tiene un tamano de 2NxN, una particion 806 que tiene un tamano de Nx2N, y una particion 808 que tiene un tamano de NxN. En este punto, la informacion 800 acerca de un tipo de particion se establece para indicar una de la particion 804 que tiene un tamano de 2NxN, la particion 806 que tiene un tamano de Nx2N, y la particion 808 que tiene un tamano de NxN.
La informacion 810 indica un modo de prediccion de cada particion. Por ejemplo, la informacion 810 puede indicar un modo de codificacion de prediccion realizado en una particion indicado por la informacion 800, es decir, un intra modo 812, un inter modo 814, o un modo de salto 816.
La informacion 820 indica una unidad de transformacion para que este basada cuando se realiza transformacion en una unidad de codificacion actual. Por ejemplo, la unidad de transformacion puede ser una primera unidad 822 de intra transformacion, una segunda unidad 824 de intra transformacion, una primera unidad 826 de inter transformacion, o una segunda unidad 828 de intra transformacion.
El extractor 220 de datos de imagen e informacion de codificacion del aparato 200 de decodificacion de video puede extraer y usar la informacion 800, 810 y 820 para decodificacion, de acuerdo con cada unidad de codificacion mas profunda
La Figura 9 es un diagrama de unidades de codificacion mas profundas de acuerdo con las profundidades, de acuerdo con una realizacion de la presente invencion.
La informacion de division puede usarse para indicar un cambio de una profundidad. La informacion de division indica si una unidad de codificacion de una profundidad actual se divide en unidades de codificacion de una profundidad inferior.
Una unidad 910 de prediccion para codificar por prediccion una unidad 900 de codificacion que tiene una profundidad de 0 y un tamano de 2N_0x2N_0 puede incluir particiones de un tipo 912 de particion que tiene un tamano de 2N_0x2N_0, un tipo 914 de particion que tiene un tamano de 2N_0xN_0, un tipo 916 de particion que tiene un tamano de N_0x2N_0, y un tipo 918 de particion que tiene un tamano de N_0xN_0. La Figura 9 unicamente ilustra los tipos 912 a 918 de particion que se obtienen dividiendo simetricamente la unidad 910 de prediccion, pero un tipo de particion no esta limitado a lo mismo, y las particiones de la unidad 910 de prediccion pueden incluir particiones asimetricas, particiones que tienen una forma predeterminada, y particiones que tienen una forma geometrica.
La codificacion de prediccion se realiza de manera repetitiva en una particion que tiene un tamano de 2N_0x2N_0, dos particiones que tienen un tamano de 2N_0xN_0, dos particiones que tienen un tamano de N_0x2N_0, y cuatro particiones que tienen un tamano de N_0xN_0, de acuerdo con cada tipo de particion. La codificacion por prediccion en un intra modo y un inter modo puede realizarse en las particiones que tienen los tamanos de 2N_0x2N_0, N_0x2N_0, 2N_0xN_0 y N_0xN_0. La codificacion por prediccion en un modo de salto se realiza unicamente en la particion que tiene el tamano de 2N_0x2N_0.
Si un error de codificacion es el mas pequeno en uno de los tipos 912 a 916 de particion que tienen los tamanos de 2N_0x2N_0, 2N_0xN_0, y N_0x2N_0, la unidad 910 de prediccion no puede dividirse en una profundidad inferior. Si el error de codificacion es el mas pequeno en el tipo 918 de particion que tiene el tamano de N_0xN_0, una profundidad se cambia de 0 a 1 para dividir el tipo 918 de particion en la operacion 920, y se realiza de manera repetitiva codificacion en unidades 930 de codificacion que tienen una profundidad de 2 y un tamano de N_0xN_0 para buscar un error de codificacion mmimo.
Una unidad 940 de prediccion para codificar por prediccion la unidad 930 de codificacion que tiene una profundidad de 1 y un tamano de 2N_1x2N_1 (=N_0xN_0) puede incluir particiones de un tipo 942 de particion que tiene un tamano de 2N_1x2N_1, un tipo 944 de particion que tiene un tamano de 2N_1xN_1, un tipo 946 de particion que tiene un tamano de N_1x2N_1, y un tipo 948 de particion que tiene un tamano de N_1xN_1.
Si un error de codificacion es el mas pequeno en el tipo 948 de particion que tiene el tamano de N_1XN_1, una profundidad se cambia de 1 a 2 para dividir el tipo 948 de particion en la operacion 950, y se realiza codificacion de manera repetitiva en las unidades 960 de codificacion, que tienen una profundidad de 2 y un tamano de N_2xN_2 para buscar un error de codificacion mmimo.
Cuando una profundidad maxima es d, puede realizarse operacion de division de acuerdo con cada profundidad hasta cuando una profundidad se vuelve d-1, y la informacion de division puede codificarse hasta cuando una profundidad es una de 0 a d-2. En otras palabras, cuando se realiza codificacion hasta cuando la profundidad es d-1 despues de que una unidad de codificacion que corresponde a una profundidad de d-2 se divide en la operacion 970, una unidad 990 de prediccion para codificacion de prediccion de una unidad 980 de codificacion que tiene una profundidad de d-1 y un tamano de 2N_(d-1)x2N_(d-1) puede incluir particiones de un tipo 992 de particion que tiene un tamano de 2N_(d-1)x2N_(d-1), un tipo 994 de particion que tiene un tamano de 2N_(d-1)xN_(d-1), un tipo 996 de particion que tiene un tamano de N_(d-1)x2N_(d-1), y un tipo 998 de particion que tiene un tamano de N_(d-1)xN_(d-1).
Puede realizarse de manera repetitiva codificacion de prediccion en la particion que tiene un tamano de 2N_(d-1)x2N_(d-1), dos particiones que tienen un tamano de 2N_(d-1)xN_(d-1), dos particiones que tienen un tamano de N_(d-1)x2N_(d-1), cuatro particiones que tienen un tamano de N_(d-1)xN_(d-1) de entre los tipos 992 a 998 de particion para buscar un tipo de particion que tiene un error de codificacion mmimo.
Incluso cuando el tipo 998 de particion que tiene el tamano de N_(d-1)xN_(d-1) tiene el error de codificacion mmimo, puesto que una profundidad maxima es d, una unidad de codificacion CU_(d-1) que tiene una profundidad de d-1 ya no se divide mas a una profundidad inferior, y una profundidad codificada para las unidades de codificacion que constituyen una unidad 900 de codificacion maxima actual se determina para que sea d-1 y un tipo de particion de la unidad 900 de codificacion maxima actual puede determinarse que es N_(d-1)xN_(d-1). Tambien, puesto que la profundidad maxima es d y una unidad 980 de codificacion minima que tiene una profundidad mas inferior de d-1 ya no se divide mas a una profundidad inferior, no se establece informacion de division para la unidad 980 de codificacion minima.
Una unidad 999 de datos puede ser una 'unidad minima’ para la unidad de codificacion maxima actual. Una unidad minima de acuerdo con una realizacion de la presente invencion puede ser una unidad de datos rectangular obtenida dividiendo por 4 una unidad 980 de codificacion minima. Realizando la codificacion de manera repetitiva, el aparato 100 de codificacion de video puede seleccionar una profundidad que tiene el error de codificacion mmimo comparando errores de codificacion de acuerdo con las profundidades de la unidad 900 de codificacion para determinar una profundidad codificada, y establecer un tipo de particion y un modo de prediccion correspondientes como un modo de codificacion de la profundidad codificada.
Como tal, los errores de codificacion mmimos de acuerdo con las profundidades se comparan en todas las profundidades de 1a d, y puede determinarse una profundidad que tiene el error de codificacion mmimo como una profundidad codificada. La profundidad codificada, el tipo de particion de la unidad de prediccion, y el modo de prediccion pueden codificase y transmitirse como informacion acerca de un modo de codificacion. Tambien, puesto que una unidad de codificacion se divide de una profundidad de 0 a una profundidad codificada, unicamente se establece informacion de division de la profundidad codificada a 0, y la informacion de division de las profundidades excluyendo la profundidad codificada se establece a 1.
El extractor 220 de datos de imagen e informacion de codificacion del aparato 200 de decodificacion de v^deo puede extraer y usar la informacion acerca de la profundidad codificada y la unidad de prediccion de la unidad 900 de codificacion para decodificar la particion 912. El aparato 200 de decodificacion de video puede determinar una profundidad, en el que la informacion de division es 0, como una profundidad codificada usando informacion de division de acuerdo con las profundidades, y usar informacion acerca de un modo de codificacion de la correspondiente profundidad para decodificacion.
Las Figuras 10 a 12 son diagramas para describir una relacion entre unidades 1010 de codificacion, unidades 1060 de prediccion, y unidades 1070 de transformacion, de acuerdo con una realizacion de la presente invencion.
Las unidades 1010 de codificacion son unidades de codificacion que tienen una estructura de arbol, que corresponden a profundidades codificadas determinadas por el aparato 100 de codificacion de video, en una unidad de codificacion maxima. Las unidades 1060 de prediccion son particiones de unidades de prediccion de cada una de las unidades 1010 de codificacion, y las unidades 1070 de transformacion son unidades de transformacion de cada una de las unidades 1010 de codificacion.
Cuando una profundidad de una unidad de codificacion maxima es 0 en las unidades 1010 de codificacion, las profundidades de las unidades 1012 y 1054 de codificacion son 1, las profundidades de las unidades 1014, 1016, 1018, 1028, 1050 y 1052 de codificacion son 2, las profundidades de las unidades 1020, 1022, 1024, 1026, 1030, 1032 y 1048 de codificacion son 3, y las profundidades de las unidades 1040, 1042, 1044 y 1046 de codificacion son 4.
En las unidades 1060 de prediccion, algunas unidades 1014, 1016, 1022, 1032, 1048, 1050, 1052 y 1054 de codificacion se obtienen dividiendo las unidades de codificacion. En otras palabras, tipos de particion en las unidades 1014, 1022, 1050 y 1054 de codificacion tienen un tamano de 2NxN, los tipos de particion en las unidades 1016, 1048 y 1052 de codificacion tienen un tamano de Nx2N, y un tipo de particion de la unidad 1032 de codificacion tiene un tamano de NxN. Las unidades de prediccion y particiones de las unidades 1010 de codificacion son menores o iguales que cada unidad de codificacion.
Se realiza la transformacion o transformacion inversa en datos de imagen de la unidad 1052 de codificacion en las unidades 1070 de transformacion en una unidad de datos que es menor que la unidad 1052 de codificacion. Tambien, las unidades 1014, 1016, 1022, 1032, 1048, 1050 y 1052 de codificacion en las unidades 1070 de transformacion son diferentes de aquellas en las unidades 1060 de prediccion en terminos de tamanos y formas. En otras palabras, la codificacion y decodificacion de los aparatos 100 y 200 de video puede realizar intra prediccion, estimacion de movimiento, compensacion de movimiento, transformacion y transformacion inversa de manera individual en una unidad de datos en la misma unidad de codificacion.
Por consiguiente, se realiza de manera recursiva decodificacion en cada una de las unidades de codificacion que tienen una estructura jerarquica en cada region de una unidad de codificacion maxima para determinar una unidad de codificacion optima, y por lo tanto pueden obtenerse unidades de codificacion que tienen una estructura de arbol recursiva. La informacion de codificacion puede incluir informacion de division acerca de una unidad de codificacion, informacion acerca de un tipo de particion, informacion acerca de un modo de prediccion, e informacion acerca de un tamano de una unidad de transformacion. La Tabla 1 muestra la informacion de codificacion que puede establecerse por los aparatos 100 y 200 de codificacion y decodificacion de video.
Tabla 1
Figure imgf000014_0001
La unidad 130 de salida del aparato 100 de codificacion de video puede emitir la informacion de codificacion acerca de las unidades de codificacion que tienen una estructura de arbol, y el extractor 220 de datos de imagen e informacion de codificacion del aparato 200 de decodificacion de v^deo puede extraer la informacion de codificacion acerca de las unidades de codificacion que tienen una estructura de arbol de una secuencia de bits recibida.
La informacion de division indica si una unidad de codificacion actual se divide en unidades de codificacion de una profundidad inferior. Si la informacion de division de una profundidad actual d es 0, una profundidad, en la que una unidad de codificacion actual ya no se divide mas en una profundidad inferior, es una profundidad codificada, y por lo tanto puede definirse la informacion acerca de un tipo de particion, modo de prediccion, y un tamano de una unidad de transformacion para la profundidad codificada. Si la unidad de codificacion actual se divide adicionalmente de acuerdo con la informacion de division, se realiza de manera independiente codificacion en cuatro unidades de codificacion de division de una profundidad inferior.
Un modo de prediccion puede ser uno de un intra modo, un inter modo y un modo de salto. El intra modo y el inter modo pueden definirse en todos los tipos de particion, y el modo de salto se define unicamente en un tipo de particion que tiene un tamano de 2Nx2N.
La informacion acerca del tipo de particion puede indicar tipos de particion simetricas que tienen tamanos de 2Nx2N, 2NxN, Nx2N y NxN, que se obtienen dividiendo simetricamente una altura o una anchura de una unidad de prediccion, y tipos de particion asimetricas que tienen tamanos de 2NxnU, 2NxnD, nLx2N y nRx2N, que se obtienen dividiendo asimetricamente la altura o anchura de la unidad de prediccion. Los tipos de particion asimetricas que tienen los tamanos de 2NxnU y 2NxnD pueden obtenerse respectivamente dividiendo la altura de la unidad de prediccion en 1:3 y 3:1, y los tipos de particion asimetricas que tienen los tamanos de nLx2N y nRx2N pueden obtenerse respectivamente dividiendo la anchura de la unidad de prediccion en 1:3 y 3:1
El tamano de la unidad de transformacion puede establecerse para que sea dos tipos en el intra modo y dos tipos en el inter modo. En otras palabras, si la informacion de division de la unidad de transformacion es 0, el tamano de la unidad de transformacion puede ser 2Nx2N, que es el tamano de la unidad de codificacion actual. Si la informacion de division de la unidad de transformacion es 1, las unidades de transformacion pueden obtenerse dividiendo la unidad de codificacion actual. Tambien, si un tipo de particion de la unidad de codificacion actual que tiene el tamano de 2Nx2N es un tipo de particion simetrica, un tamano de una unidad de transformacion puede ser NxN, y si el tipo de particion de la unidad de codificacion actual es un tipo de particion asimetrica, el tamano de la unidad de transformacion puede ser N/2xN/2.
La informacion de codificacion acerca de unidades de codificacion que tienen una estructura de arbol puede incluir al menos una de una unidad de codificacion que corresponde a una profundidad codificada, una unidad de prediccion y una unidad minima. La unidad de codificacion que corresponde a la profundidad codificada puede incluir al menos una de una unidad de prediccion y una unidad minima que contiene la misma informacion de codificacion.
Por consiguiente, se determina si unidades de datos adyacentes estan incluidas en la misma unidad de codificacion que corresponde a la profundidad codificada comparando informacion de codificacion de las unidades de datos adyacentes. Tambien, se determina una unidad de codificacion correspondiente que corresponde a una profundidad codificada usando informacion de codificacion de una unidad de datos, y por lo tanto puede determinarse una distribucion de profundidades codificadas en una unidad de codificacion maxima.
Por consiguiente, si se predice una unidad de codificacion actual basandose en informacion de codificacion de unidades de datos adyacentes, pueden hacerse referencia directamente y usarse la informacion de codificacion de unidades de datos en unidades de codificacion mas profundas adyacentes a la unidad de codificacion actual.
Como alternativa, si una unidad de codificacion actual se predice basandose en informacion de codificacion de unidades de datos adyacentes, se buscan unidades de datos adyacentes a la unidad de codificacion actual usando informacion codificada de las unidades de datos, y las unidades de codificacion adyacentes buscadas pueden hacerse referencia para predecir la unidad de codificacion actual.
La Figura 13 es un diagrama para describir una relacion entre una unidad de codificacion, una unidad de prediccion o una particion, y una unidad de transformacion, de acuerdo con la informacion de modo de codificacion de la Tabla 1.
Una unidad 1300 de codificacion maxima incluye las unidades 1302, 1304, 1306, 1312, 1314, 1316 y 1318 de codificacion de profundidades codificadas. En este punto, puesto que la unidad 1318 de codificacion es una unidad de codificacion de una profundidad codificada, la informacion de division puede establecerse a 0. La informacion acerca de un tipo de particion de la unidad 1318 de codificacion que tiene un tamano de 2Nx2N puede establecerse para que sea uno de un tipo 1322 de particion que tiene un tamano de 2Nx2N, un tipo 1324 de particion que tiene un tamano de 2NxN, un tipo 1326 de particion que tiene un tamano de Nx2N, un tipo 1328 de particion que tiene un tamano de NxN, un tipo 1332 de particion que tiene un tamano de 2NxnU, un tipo 1334 de particion que tiene un tamano de 2NxnD, un tipo 1336 de particion que tiene un tamano de nLx2N, y un tipo 1338 de particion que tiene un tamano de nRx2N.
Cuando el tipo de particion se establece para que sea simetrica, es decir el tipo 1322, 1324, 1326 o 1328 de particion, se establece una unidad 1342 de transformacion que tiene un tamano de 2Nx2N si la informacion de division (bandera de tamano de TU) de una unidad de transformacion es 0, y se establece una unidad 1344 de transformacion que tiene un tamano de NxN si una bandera de tamano de TU es 1.
Cuando el tipo de particion se establece para que sea asimetrica, es decir, el tipo 1332, 1334, 1336, o 1338 de particion, se establece una unidad 1352 de transformacion que tiene un tamano de 2Nx2N si una bandera de tamano de TU es 0, y se establece una unidad 1354 de transformacion que tiene un tamano de N/2xN/2 si una bandera de tamano de TU es 1.
En lo sucesivo, se describira prediccion de movimiento y compensacion de movimiento, que se realizan por el estimador 420 de movimiento y el compensador 425 de movimiento del aparato 100 de codificacion de video de la Figura 4 y el compensador 550 de movimiento del aparato 200 de decodificacion de video de la Figura 5, y procedimientos de codificacion y decodificacion de informacion de movimiento, que se realizan por el codificador 450 por entropfa de la Figura 4 y el decodificador 520 por entropfa de la Figura 5. Como se describe con referencia a las Figuras 1 a 13, una unidad de prediccion es una unidad de datos para codificacion de prediccion de una unidad de codificacion. En lo sucesivo, la unidad de prediccion hace referencia a la misma unidad de prediccion o a una particion obtenida dividiendo la unidad de prediccion.
Como se ha descrito anteriormente, las unidades de prediccion se codifican usando diversos modos de prediccion tal como un modo de intra prediccion, un inter modo y un modo de salto.
En el modo de inter prediccion, se predice una unidad de prediccion actual mediante prediccion de uni-direccion o prediccion bidireccional. En detalle, una unidad de prediccion incluida en un corte P se predice mediante prediccion de uni-direccion usando unicamente una de una instantanea de referencia 'instantanea L0' incluida en una lista de instantaneas de referencia 'Lista 0' y una instantanea de referencia 'instantanea L1' incluida en una lista de instantaneas de referencia 'Lista 1'. Un procedimiento de prediccion que usa la instantanea de referencia 'instantanea L0' incluida en la lista de instantaneas de referencia 'Lista 0' se denomina como “prediccion L0”. Un procedimiento de prediccion que usa la instantanea de referencia 'instantanea L1' incluida en la lista de instantaneas de referencia 'Lista 1' se denomina como “prediccion L1”. En la lista de instantaneas de referencia 'Lista 0', un mdice de instantanea de referencia se asigna en orden desde una instantanea pasada ultima a una instantanea anterior a la misma y a continuacion se asigna en orden desde una instantanea futura mas cercana a una siguiente instantanea posterior. Por otra parte, en la lista de instantaneas de referencia 'lista 1', un mdice de instantanea de referencia se asigna en orden desde una instantanea futura mas cercana a una siguiente instantanea posterior y a continuacion se asigna en orden desde una instantanea pasada mas anterior a una instantanea anterior a la misma. Una unidad de prediccion incluida en un corte B se predice mediante prediccion de uni-direccion o prediccion bidireccional usando un promedio de la instantanea de referencia 'instantanea L0' incluida en la lista de instantaneas de referencia 'Lista 0' y la instantanea de referencia 'instantanea L1' incluida en la lista de instantaneas de referencia 'lista 1'. Un modo predictivo de bi-direccion realizado por el estimador 420 de movimiento puede usar dos instantaneas de referencia en lugar de estar limitado a una instantanea de referencia anterior o siguiente de una instantanea actual y puede denominarse como un modo bi-predictivo.
Los costes obtenidos codificando valores de prediccion obtenidos de acuerdo con los modos de prediccion se comparan entre sf y se determina un modo de prediccion que tiene un coste mas pequeno como un modo de prediccion final de una unidad de prediccion actual. Cuando los costes se comparan entre sf, puede determinarse el modo de prediccion final a aplicarse a la unidad de prediccion actual basandose en tasa-distorsion.
Para que un lado de decodificacion genere un valor de prediccion de una unidad de prediccion en la que se realiza inter prediccion, puede transmitirse la informacion de instantanea de referencia acerca de una instantanea a la que se ha hecho referencia por cada unidad de prediccion en la que se realiza inter prediccion, informacion de vector de movimiento, e informacion de movimiento tal como una direccion de prediccion al lado de decodificacion. De acuerdo con las realizaciones de la presente invencion, para reducir la tara de transmision, la informacion de movimiento se codifica basandose en informacion de movimiento que se predice usando informacion de movimiento de una unidad de prediccion adyacente que se codifico previamente o usando una unidad de prediccion co-localizada a una unidad de prediccion actual en la instantanea anterior, en lugar de codificarse sin cambios.
De acuerdo con las realizaciones de la presente invencion, se proporcionan diversos procedimientos de generacion de manera adicional de informacion de movimiento de candidato de manera que el numero total de piezas de informacion de movimiento es igual a un numero predeterminado cuando el numero de piezas de informacion de movimiento por defecto obtenidas de una unidad de prediccion que esta co-localizada espacial y temporalmente a una unidad de prediccion actual que se determina previamente por un lado de codificacion y un lado de decodificacion es menor que el numero predeterminado. De acuerdo con las realizaciones de la presente invencion, puede determinarse previamente el mismo procedimiento de entre los diversos procedimientos de generacion de manera adicional de informacion de movimiento de candidato por el lado de codificacion y el lado de decodificacion. En este caso, pueden establecerse respectivos indices predeterminados que indican los diversos procedimientos de generacion de manera adicional de informacion de movimiento de candidato. Ademas, puede transmitirse un mdice que indica un procedimiento de generacion de manera adicional de informacion de movimiento de candidato, que se usa para codificar, puede anadirse a un conjunto de parametros de secuencia (SPS), a un conjunto de parametros de instantanea (PPS), o a un encabezamiento de corte.
A traves de toda esta memoria descriptiva, la presente invencion se describira en terminos de un caso donde se codifica informacion de vector de movimiento como informacion de movimiento. Sin embargo, la presente invencion no esta limitada a lo mismo. Como alternativa, la presente invencion puede aplicarse a un caso donde se codifica informacion de movimiento distinta de informacion de vector de movimiento, tal como informacion de instantanea de referencia e informacion de direccion de prediccion.
En lo sucesivo, se describira un procedimiento y aparato para codificar informacion de movimiento de una unidad de prediccion, y un procedimiento y aparato para decodificar informacion de movimiento de una unidad de prediccion en detalle con respecto a realizaciones ejemplares de la invencion.
La Figura 14 es un diagrama de bloques de un aparato 1400 de codificacion de informacion de movimiento de acuerdo con una realizacion de la presente invencion. Haciendo referencia a la Figura 14, el aparato 1400 de codificacion de informacion de movimiento incluye una unidad 1410 de generacion de informacion de movimiento de candidato y un codificador 1420 de informacion de movimiento. El aparato 1400 de codificacion de informacion de movimiento de la Figura 14 puede incluirse en el codificador 400 de imagen de la Figura 4. Por ejemplo, el estimador 420 de movimiento de la Figura 4 puede realizar una funcion de la unidad 1410 de generacion de informacion de movimiento de candidato de la Figura 14 y el codificador 450 por entropfa de la Figura 4 puede realizar una funcion del codificador 1420 de informacion de movimiento de la Figura 14. La presente invencion no esta limitada a lo mismo. Otros componentes o un controlador (no mostrado) del codificador 400 de imagen de la Figura 4 pueden realizar una funcion del aparato 1400 de codificacion de informacion de movimiento de la Figura 14. La unidad 1410 de generacion de informacion de movimiento de candidato obtiene informacion de movimiento de candidato usando informacion de movimiento de unidades de prediccion adyacentes que se recopilan temporal y espacialmente a una unidad de prediccion actual. En particular, la unidad 1410 de generacion de informacion de movimiento de candidato obtiene informacion de movimiento de candidato por defecto de unidades de prediccion adyacentes que estan espacialmente co-localizadas a la unidad de prediccion actual que se ha establecido previamente y unidades de prediccion que estan temporalmente co-localizadas a la unidad de prediccion actual que se ha establecido previamente. Si el numero de piezas de informacion de movimiento de candidato por defecto es menor que un numero predeterminado n (donde n es un numero entero), la unidad 1410 de generacion de informacion de movimiento de candidato genera 'n' piezas de informacion de movimiento de candidato modificando o codificando informacion de movimiento de unidades de prediccion que estan espacialmente co-localizadas a la prediccion actual e informacion de movimiento de unidades de prediccion que estan temporalmente co-localizadas a la prediccion actual o anadiendo informacion de movimiento que tiene un valor predeterminado de manera que el numero total de piezas de informacion de movimiento de candidato puede ser 'n'. Se describira mas adelante un procedimiento de generacion de informacion de movimiento de candidato.
El codificador 1420 de informacion de movimiento determina informacion de movimiento acerca de la unidad de prediccion actual de entre las 'n' piezas de informacion de movimiento de candidato y codifica informacion de mdice que indica la informacion de movimiento determinada como informacion de movimiento de la unidad de prediccion actual. En detalle, el codificador 1420 de informacion de movimiento asigna 0 a (n-1) indices de informacion de movimiento a las 'n' piezas de informacion de movimiento de candidato, respectivamente, y codifica un mdice que corresponde a informacion de movimiento de la unidad de prediccion actual como informacion de movimiento de la unidad de prediccion actual. Por ejemplo, cuando la informacion de movimiento corresponde a un vector de movimiento de prediccion y n=2, es decir, cuando el numero de candidatos de vector de movimiento de prediccion de la unidad de prediccion actual esta fijado a 2, si dos candidatos de vector de movimiento de prediccion que se generan respectivamente con respecto a una direccion L0 y una direccion L1 por la unidad 1410 de generacion de informacion de movimiento de candidato son MVLX_Cand0 y MVLX_Cand1 (X es 0 o 1), respectivamente, el codificador 1420 de informacion de movimiento establece un mdice de vector de movimiento de prediccion que indica MVLX_Cand0 a 0 y establece un mdice de vector de movimiento de prediccion que indica MVLX_Cand1 a 1 y codifica un mdice que corresponde a un vector de movimiento de prediccion que tiene un coste mmimo como informacion de vector de movimiento de la unidad de prediccion actual de acuerdo con el resultado de codificacion de la unidad de prediccion actual.
El codificador 1420 de informacion de movimiento puede codificar informacion de instantanea de referencia, informacion de direccion de prediccion, y un valor de diferencia entre el vector de movimiento de prediccion y un vector de movimiento original de la unidad de prediccion actual, ademas del mdice de vector de movimiento de prediccion, y puede anadir la informacion codificada a una secuencia de bits.
Cuando el lado de codificacion obtiene un numero fijo de piezas de informacion de movimiento de candidato bajo una regla predeterminada y transmite la informacion de mdice que indica una unica pieza de informacion de movimiento de entre las piezas de informacion de movimiento de candidato, el lado de decodificacion puede generar un numero fijo de piezas de informacion de movimiento de candidato bajo la misma regla que la del lado de codificacion y puede determinar informacion de movimiento de la unidad de prediccion actual usando la informacion de mdice transmitida. Como en el ejemplo anteriormente descrito, cuando la informacion de movimiento corresponde a un vector de movimiento de prediccion, el lado de decodificacion puede obtener un mdice que indica el vector de movimiento de prediccion y un valor de diferencia entre un vector de movimiento y el vector de movimiento de prediccion de una secuencia de bits y puede restaurar el vector de movimiento de la unidad de prediccion actual anadiendo el valor de diferencia con el vector de movimiento de prediccion indicado por el mdice de vector de movimiento de prediccion. Ademas, el lado de decodificacion puede generar un valor de prediccion de la unidad de prediccion actual usando el vector de movimiento restaurado, y la informacion de instantanea de referencia y la informacion de direccion de prediccion (direcciones L0 y L1) que se obtienen desde una secuencia de bits.
La Figura 15 es un diagrama de bloques de la unidad 1410 de generacion de informacion de movimiento de candidato de la Figura 14, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a la Figura 15, la unidad 1410 de generacion de informacion de movimiento de candidato incluye una unidad 1510 de generacion de informacion de movimiento de candidato espacial, una unidad 1520 de generacion de informacion de movimiento de candidato temporal, una unidad 1530 de eliminacion de redundancia, y una unidad 1540 de generacion de informacion de movimiento de candidato adicional.
La unidad 1510 de generacion de informacion de movimiento de candidato espacial genera informacion de movimiento de candidato usando informacion de movimiento de unidades de prediccion que estan espacialmente colocalizadas a la unidad de prediccion actual. En detalle, la unidad 1510 de generacion de informacion de movimiento de candidato espacial incluye una unidad 1511 de generacion de informacion de movimiento de candidato superior que busca de manera secuencial unidades de prediccion adyacentes situadas por encima de la unidad de prediccion actual en un orden predeterminado para obtener informacion de movimiento, y una unidad 1512 de generacion de informacion de movimiento de candidato izquierdo que busca de manera secuencial unidades de prediccion adyacentes situadas a la izquierda de la unidad de prediccion actual en un orden predeterminado para obtener informacion de movimiento.
La Figura 16 ilustra unidades de prediccion adyacentes que estan espacialmente co-localizadas a una unidad de prediccion actual, de acuerdo con una realizacion de la presente invencion. La presente invencion no esta limitada al caso mostrado en la Figura 16. Por ejemplo, pueden usarse unidades de prediccion adyacentes de diferentes localizaciones espaciales como unidades de prediccion adyacentes que estan espacialmente co-localizadas a una unidad de prediccion actual usada para predecir informacion de movimiento de una unidad de prediccion actual. Haciendo referencia a la Figura 16, la unidad 1510 de generacion de informacion de movimiento de candidato espacial busca una unidad 1621 de prediccion adyacente izquierda-inferior A0 situada en la parte inferior izquierda de la unidad 1610 de prediccion actual y una unidad 1622 de prediccion adyacente abajo-izquierda A1 situada por encima de la unidad 1621 de prediccion adyacente izquierda-inferior A0 de entre unidades de prediccion adyacentes situadas a la izquierda de una unidad 1610 de prediccion actual en un orden de exploracion predeterminado, y determina informacion de movimiento de una primera unidad de prediccion que tiene informacion de movimiento disponible, que se busca en primer lugar, como informacion de movimiento de candidato izquierdo, de entre la unidad 1621 de prediccion adyacente izquierda-inferior A0 y la unidad 1622 de prediccion adyacente abajo-izquierda A1. Ademas, la unidad 1510 de generacion de informacion de movimiento de candidato espacial busca una unidad 1631 de prediccion adyacente B0 situada en la parte superior derecha de la unidad 1610 de prediccion actual, una unidad 1632 de prediccion adyacente B1 situada en la parte izquierda de la unidad 1631 de prediccion adyacente B0, y una unidad 1633 de prediccion adyacente B2 situada en la parte inferior izquierda de la unidad 1610 de prediccion actual de entre unidades de prediccion adyacentes situadas por encima de la unidad 1610 de prediccion actual, y determina informacion de movimiento de una unidad de prediccion que tiene informacion de movimiento disponible, que se busca en primer lugar, como informacion de movimiento de candidato superior. Analogamente, la unidad 1510 de generacion de informacion de movimiento de candidato espacial no busca todas las unidades de prediccion situadas alrededor de la unidad 1610 de prediccion actual y busca unidades de prediccion adyacentes por defecto, es decir, las unidades de prediccion adyacentes A0, A1, B0, B1 y B2 para obtener informacion de movimiento, reduciendo de esta manera la complejidad de calculo. Como se ha descrito anteriormente, el numero y localizaciones de unidades de prediccion adyacentes que se buscan para obtener informacion de movimiento de candidato espacial puede cambiarse. Sin embargo, para que un lado de decodificacion restaure informacion de movimiento de la unidad de prediccion actual, el numero y localizaciones de unidades de prediccion adyacentes que se buscan para obtener informacion de movimiento de candidato espacial en un lado de codificacion y el lado de decodificacion puede haberse establecido previamente.
Como un ejemplo de un procedimiento para determinar informacion de movimiento, se describira un procedimiento para determinar un vector de movimiento de prediccion de un vector de movimiento de una unidad de prediccion actual de unidades de prediccion adyacentes que estan espacialmente co-localizadas a la unidad de prediccion actual.
Haciendo referencia a las Figuras 15 y 16, la unidad 1512 de generacion de informacion de movimiento de candidato izquierdo comprueba secuencialmente si los vectores de movimiento de la unidad 1621 de prediccion adyacente izquierda-inferior A0 y la unidad 1622 de prediccion adyacente abajo-izquierda A1 estan disponibles y determina un vector de movimiento de una unidad de prediccion adyacente que tiene un vector de movimiento disponible como un vector de movimiento de candidato izquierdo. En este punto, la disponibilidad de un vector de movimiento hace referencia a si una unidad de prediccion adyacente tiene un vector de movimiento que indica la misma instantanea de referencia en la misma lista de instantaneas de referencia como una unidad de prediccion actual. Por ejemplo, cuando un vector de movimiento de la unidad 1610 de prediccion actual es un vector de movimiento que indica una instantanea de referencia (instantanea L0R0) que tiene un mdice de referencia R0 en una lista L0, si la unidad 1621 de prediccion adyacente izquierda-inferior A0 es una unidad de prediccion en la que se realiza intra prediccion, o tiene un vector de movimiento que indica una instantanea de referencia incluida en una lista de instantaneas de referencia diferente de la unidad 1610 de prediccion actual, o tiene un vector de movimiento que indica una instantanea de referencia diferente incluida en la misma instantanea de referencia que la unidad 1610 de prediccion actual, se determina que la unidad 1621 de prediccion adyacente izquierda-inferior A0 no tiene un vector de movimiento disponible. Si la unidad 1622 de prediccion adyacente abajo-izquierda A1 tiene un vector de movimiento que indica la misma instantanea en la misma lista de instantaneas de referencia que la unidad 1610 de prediccion actual, el vector de movimiento de la unidad 1622 de prediccion adyacente abajo-izquierda A1 se determina como un vector de movimiento de candidato izquierdo.
De manera similar, la unidad 1511 de generacion de informacion de movimiento de candidato superior comprueba secuencialmente si los vectores de movimiento de la unidad 1631 de prediccion adyacente B0, la unidad 1632 de prediccion adyacente B1, y la unidad 1633 de prediccion adyacente B2 estan disponibles y determina un vector de movimiento de una unidad de prediccion adyacente que indica la misma instantanea de referencia en la misma lista de instantaneas de referencia que la unidad 1610 de prediccion actual como un vector de movimiento de candidato superior.
Cuando no existen unidades de prediccion adyacentes que tienen un vector de movimiento disponible de entre unidades de prediccion adyacentes, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede escalar un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia diferente de la misma lista de instantaneas de referencia como la unidad 1610 de prediccion actual o un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia incluida en una lista de instantaneas de referencia diferente de la unidad 1610 de prediccion actual y puede usar el vector de movimiento escalado como un candidato de vector de movimiento de prediccion de la unidad 1610 de prediccion actual.
La Figura 17A es un diagrama de referencia para explicar un procedimiento para determinar un candidato de vector de movimiento de prediccion espacial escalado, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a la Figura 17A, un vector de movimiento MVL0_Cur de una unidad 1731 de prediccion actual indica una instantanea L0R01720 que es una instantanea de referencia que tiene un mdice de referencia R0 en una lista L0, la unidad 1621 de prediccion adyacente izquierda-inferior A0 tiene un movimiento de prediccion en el que se realiza intra prediccion, la unidad 1622 de prediccion adyacente abajo-izquierda A1 tiene un vector de movimiento mvL1_A1 que indica una instantanea L1R0 1740 que es una instantanea de referencia que tiene un mdice de referencia R0 en una lista L1, la unidad 1631 de prediccion adyacente B0 tiene una unidad de prediccion en la que se realiza intra prediccion, la unidad 1632 de prediccion adyacente B1 tiene un vector de movimiento mvL1_B1 que indica una instantanea L1R1 1750 que es una instantanea de referencia que tiene un mdice de referencia R1 en una lista L1, y la unidad 1633 de prediccion adyacente B2 tiene un vector de movimiento mvL0_B2 que indica una instantanea L0R1 1710 que es una instantanea de referencia que tiene un mdice de referencia R1 en una lista L0. En la Figura 17A, cualquier unidad de prediccion de entre unidades de prediccion adyacentes de la unidad 1731 de prediccion actual no tiene el mismo vector de movimiento que indica la instantanea L0R0 1720 como el vector de movimiento MVL0_Cur de la unidad 1731 de prediccion actual. Cuando no existe una unidad de prediccion adyacente que tiene un vector de movimiento que indica la misma instantanea de referencia como una instantanea de referencia indicada por un vector de movimiento de la unidad 1731 de prediccion actual de entre unidades de prediccion adyacentes, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede escalar un vector de movimiento de una unidad de prediccion en la que se realiza inter prediccion, de entre unidades de prediccion adyacentes, basandose en una distancia temporal entre una instantanea de referencia indicada por un vector de movimiento de una unidad de prediccion en la que se realiza inter prediccion y una instantanea de referencia indicada por un vector de movimiento de una unidad de prediccion actual y puede anadir el vector de movimiento escalado a un vector de movimiento de candidato. Es decir, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede anadir un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia que tiene un mdice de referencia diferente en la misma lista de instantaneas de referencia que la unidad 1731 de prediccion actual de entre vectores de movimiento de una unidad de prediccion adyacente a un vector de movimiento de candidato. Ademas, cuando no existe un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia que tiene un mdice de referencia diferente en la misma lista de instantaneas de referencia como la unidad 1731 de prediccion actual de entre vectores de movimiento de una unidad de prediccion adyacente, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede anadir un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia en una lista de instantaneas de referencia diferente de la unidad 1731 de prediccion actual al vector de movimiento de candidato.
Por ejemplo, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede escalar el vector de movimiento mvL1_A1 de la unidad 1622 de prediccion adyacente abajo-izquierda A1, excepto para la unidad 1621 de prediccion adyacente izquierda-inferior A0 en la que se realiza intra prediccion, teniendo en cuenta una distancia temporal entre una instantanea 1730 actual y la instantanea L0R0 1720 indicado por el vector de movimiento MVL0_Cur de la unidad 1731 de prediccion actual y una distancia temporal entre la instantanea 1730 actual y la instantanea L1R0 1740 indicado por el vector de movimiento mvL1_A1 de la unidad 1622 de prediccion adyacente abajo-izquierda A1 y puede determinar el vector de movimiento escalado mvL1_A1' como un candidato de vector de movimiento izquierdo.
Ademas, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede escalar el vector de movimiento mvL0_B2 de la unidad 1633 de prediccion adyacente B2 que indica la instantanea L0R1 1710 que es una instantanea de referencia que tiene un mdice de referencia diferente en la misma instantanea de referencia como el vector de movimiento MVL0_Cur de la unidad 1731 de prediccion actual, en lugar del vector de movimiento mvL1_B1 de la unidad 1632 de prediccion adyacente B1 que indica la instantanea L1R1 1750 que es una instantanea de referencia en una lista de instantaneas de referencia diferente de la unidad 1731 de prediccion actual y determina el vector de movimiento escalado mvL0_B2' como un candidato de vector de movimiento superior. Es decir, cuando la unidad 1510 de generacion de informacion de movimiento de candidato espacial determina un vector de movimiento de una unidad de prediccion adyacente, que es el objeto de escalamiento, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede determinar un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia incluida en la misma lista de instantaneas de referencia como un vector de movimiento de una unidad de prediccion actual. A continuacion, cuando no existe un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia incluido en la misma lista de instantaneas de referencia como la unidad de prediccion actual, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede determinar un vector de movimiento de una unidad de prediccion adyacente que indica una instantanea de referencia incluida en una lista de instantaneas de referencia diferente de la unidad de prediccion actual como un vector de movimiento que se somete a escalamiento. La unidad 1510 de generacion de informacion de movimiento de candidato espacial puede escalar el vector de movimiento mvL0_B2 de la unidad de prediccion adyacente B2 teniendo en cuenta una distancia temporal entre la instantanea 1730 actual y la instantanea L0R0 1720 indicada por el vector de movimiento MVL0_Cur de la unidad 1731 de prediccion actual y una distancia temporal entre la instantanea 1730 actual y la instantanea L0R1 1710 indicada por el vector de movimiento mvL0_B2 de la unidad 1633 de prediccion adyacente B2 y puede determinar el vector de movimiento escalado mvL0_B2' como un candidato de vector de movimiento superior.
La Figura 18 es un diagrama de referencia para explicar un procedimiento de generacion de un candidato de vector de movimiento de prediccion de una unidad de prediccion actual escalando un vector de movimiento de una unidad de prediccion adyacente, de acuerdo con una realizacion de la presente invencion.
Como se ha descrito anteriormente, cuando no existe el mismo vector de movimiento que una unidad de prediccion actual, es decir, no existe un vector de movimiento que indica una instantanea de referencia que tiene el mismo mdice de referencia incluido en la misma lista de instantaneas de referencia que la unidad de prediccion actual de entre unidades de prediccion adyacentes de la unidad de prediccion actual, un vector de movimiento MV(Bn) de una unidad de prediccion adyacente (una unidad de prediccion Bn de la Figura 18) que hace referencia a una instantanea de referencia diferente en la misma lista de instantaneas de referencia que la unidad de prediccion actual o un vector de movimiento MV(An) de una unidad de prediccion adyacente (una unidad de prediccion An de la Figura 18) que hace referencia a una instantanea de referencia incluida en una lista de instantaneas de referencia diferente de la unidad de prediccion actual puede escalarse, y el vector de movimiento escalado puede anadirse a un candidato de vector de movimiento de prediccion de la unidad de prediccion actual. En detalle, cuando una distancia temporal d(cur) entre una instantanea actual y una instantanea de referencia (una instantanea L0R0) indicada por el vector de movimiento MVL0_Cur de una unidad de prediccion actual es d(cur) y una distancia temporal entre la instantanea actual y una instantanea de referencia (una instantanea L0R1) indicada por el vector de movimiento MV(Bn) de una unidad de prediccion Bn es d(Bn), el vector de movimiento MV(Bn) de la unidad de prediccion Bn puede escalarse de acuerdo con la ecuacion, MV(Bn)'=MV(Bn)*{d(cur)/d(Bn)}, y el vector de movimiento escalado MV(Bn)' puede anadirse a un candidato de vector de movimiento de prediccion de la unidad de prediccion actual. De manera similar, cuando una distancia temporal entre una instantanea actual y una instantanea de referencia (una instantanea L1R1) indicada por un vector de movimiento MV(An) de una unidad de prediccion An es d(An), el vector de movimiento MV(An) de la unidad de prediccion An puede escalarse de acuerdo con la ecuacion, MV(An)'=MV(An)*{d(cur)/d(An)}, y el vector de movimiento escalado MV(An)' puede anadirse a un candidato de vector de movimiento de prediccion de la unidad de prediccion actual.
Si el vector de movimiento escalado esta incluido en un candidato de vector de movimiento espacial puede determinarse teniendo en cuenta una condicion predeterminada. Por ejemplo, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede escalar un vector de movimiento de una unidad de prediccion en la que se realiza inter prediccion, de entre las unidades de prediccion adyacentes B0, B1 y B2 y puede anadir el vector de movimiento escalado a un candidato de vector de movimiento superior unicamente cuando se realiza intra prediccion en una de las unidades de prediccion adyacentes A0 y A1 adyacentes a la izquierda de la unidad de prediccion actual. En otras palabras, si se anade el vector de movimiento escalado a un candidato de vector de movimiento de prediccion espacial puede realizarse de manera selectiva de acuerdo con si se satisface una condicion predeterminada. La condicion predeterminada puede designarse en diversas maneras y no esta limitada al ejemplo anteriormente descrito.
En el ejemplo anteriormente descrito, cuando la unidad 1510 de generacion de informacion de movimiento de candidato espacial busca unidades de prediccion superiores y unidades de prediccion izquierdas que estan espacialmente co-localizadas a una unidad de prediccion actual, la unidad 1510 de generacion de informacion de movimiento de candidato espacial busca unidades de prediccion adyacentes izquierdas en orden de A0->A1 o busca unidades de prediccion adyacentes superiores en orden de B0->B1->B2. Sin embargo, la presente invencion no esta limitada al orden de exploracion. Como alternativa, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede determinar unidades de prediccion adyacentes en orden de, por ejemplo, A1-> B1-> B0->A0->B2 sin una base tal como un lado superior o izquierdo y puede determinar si se usa informacion de movimiento de cada unidad de prediccion adyacente como informacion de movimiento de la unidad de prediccion actual.
Ademas, cuando la unidad 1510 de generacion de informacion de movimiento de candidato espacial genera informacion de movimiento de candidato espacial, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede comprobar si la informacion de movimiento de todas las unidades de prediccion situadas por encima de la unidad de prediccion actual y a la izquierda de la unidad de prediccion actual, por ejemplo, de todas las unidades de prediccion adyacentes A0, A1, B0, B1 y B2 estan disponibles sin ningun orden de exploracion en lugar de buscar unidades de prediccion adyacentes en un orden de exploracion predeterminado y a continuacion puede anadir todas las piezas de informacion de movimiento disponibles de entre la informacion de movimiento de las unidades de prediccion adyacentes A0, A1, B0, B1 y B2 al candidato de informacion de movimiento espacial.
Haciendo referencia de vuelta a la Figura 15, la unidad 1520 de generacion de informacion de movimiento de candidato temporal genera informacion de movimiento de candidato temporal usando informacion de movimiento de una unidad de movimiento que esta temporalmente co-localizada a una unidad de prediccion actual, es decir, informacion de movimiento de una unidad de movimiento que esta co-localizada basandose en una localizacion de la unidad de prediccion actual de entre unidades de prediccion de una instantanea anterior que se codificaron previamente.
La Figura 19 es un diagrama de referencia para explicar un procedimiento de generacion de informacion de movimiento de candidato temporal, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a las Figuras 15 y 19, la unidad 1520 de generacion de informacion de movimiento de candidato temporal puede generar informacion de movimiento de candidato temporal usando informacion de movimiento de una unidad 1924 de prediccion situada en la parte inferior derecha de una unidad 1921 de prediccion de la instantanea 1920 de referencia que tiene la misma localizacion que una unidad 1911 de prediccion actual de entre unidades de prediccion de una instantanea 1920 de referencia que se codifico previamente a una instantanea 1910 actual. Por ejemplo, cuando la informacion de movimiento es un vector de movimiento de prediccion, la unidad 1520 de generacion de informacion de movimiento de candidato temporal puede generar un candidato de vector de movimiento temporal escalando un vector de movimiento de la unidad 1924 de prediccion. El escalamiento del vector de movimiento de prediccion temporal puede realizarse basandose en una distancia temporal entre una instantanea L0R0 1920 y una instantanea de referencia L1R0 1930 y una distancia temporal entre la instantanea 1910 actual y la instantanea de referencia L1R01930, como se describe con referencia a la Figura 18.
Si la unidad 1924 de prediccion situada en el lado inferior derecho de la unidad 1921 de prediccion se intra-predice de manera que un vector de movimiento de la unidad 1924 de prediccion no esta disponible, la unidad 1520 de generacion de informacion de movimiento de candidato temporal puede escalar un vector de movimiento de la unidad 1921 de prediccion, que contiene un punto C' 1922 de la instantanea 1920 de referencia como la misma localizacion que un punto C 1912 de un punto central de la unidad 1911 de prediccion actual y puede generar el vector de movimiento de prediccion temporal. Es decir, la unidad 1520 de generacion de informacion de movimiento de candidato temporal puede comprobar en primer lugar si esta disponible la informacion de movimiento de una unidad de prediccion situada en la parte inferior derecha de una unidad de prediccion que tiene la misma localizacion que una unidad de prediccion actual de entre unidades de prediccion de una instantanea anterior, puede determinar de manera secuencial si la informacion de movimiento de una unidad de prediccion que contiene un punto que tiene la misma localizacion que un punto central de la unidad de prediccion actual esta disponible, y a continuacion puede anadir informacion de movimiento disponible de una unidad de prediccion a la informacion de movimiento de candidato temporal. El numero y localizaciones de unidades de prediccion de una instantanea anterior que se busca para generar la informacion de movimiento de candidato temporal pueden no estar limitados al caso mostrado en la Figura 19 y puede cambiarse de diversas maneras. Ademas, cuando la unidad 1520 de generacion de informacion de movimiento de candidato temporal genera informacion de movimiento de candidato temporal, la unidad 1520 de generacion de informacion de movimiento de candidato temporal puede no comprobar si esta disponible informacion de movimiento de unidades de prediccion de una instantanea anterior en un orden predeterminado, puede comprobar si esta disponible tanto la informacion de movimiento de una unidad de prediccion situada en la parte inferior derecha de una unidad de prediccion que tiene la misma localizacion que una unidad de prediccion actual como la informacion de movimiento de una unidad de prediccion que contiene un punto que tiene la misma localizacion que un punto central de la unidad de prediccion actual, y a continuacion puede anadir todas las piezas de la informacion de movimiento disponibles de la unidad de prediccion de la instantanea anterior a la informacion de movimiento de candidato temporal.
Haciendo referencia de vuelta a la Figura 15, la unidad 1530 de eliminacion de redundancia puede determinar si la informacion de movimiento de candidato espacial y la informacion de movimiento de candidato temporal son identicas entre s^ y puede eliminar informacion de movimiento redundante de la informacion de movimiento de candidato. La unidad 1530 de eliminacion de redundancia puede omitirse para reducir complejidad de calculo. Es decir, puede omitirse un procedimiento de comprobacion de redundancia.
El numero de piezas de la informacion de movimiento de candidato generado por la unidad 1510 de generacion de informacion de movimiento de candidato espacial y la unidad 1520 de generacion de informacion de movimiento de candidato temporal puede ser menor que un numero predeterminado 'n'. En el ejemplo anteriormente descrito, cuando se realiza intra prediccion en todas las unidades de prediccion adyacentes situadas por encima de la unidad de prediccion actual o a la izquierda de la unidad de prediccion actual o cuando se realiza intra prediccion en unidades de prediccion situadas en una localizacion predeterminada de instantaneas anteriores buscadas por la unidad 1520 de generacion de informacion de movimiento de candidato temporal, el numero de piezas de la informacion de movimiento de candidato generada puede ser menor que 'n'.
Cuando el numero de piezas de la informacion de movimiento de candidato generado por la unidad 1510 de generacion de informacion de movimiento de candidato espacial y la unidad 1520 de generacion de informacion de movimiento de candidato temporal es menor que un numero predeterminado 'n', la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar informacion de movimiento de candidato adicional usando informacion de movimiento de unidades de prediccion espacial e informacion de movimiento disponible de unidades de prediccion temporales de manera que el numero total de piezas de informacion de movimiento de candidato puede ser 'n'.
En lo sucesivo se describiran diversos procedimientos de generacion de informacion de movimiento de candidato adicional mediante la unidad 1540 de generacion de informacion de movimiento de candidato adicional.
Cuando la unidad 1510 de generacion de informacion de movimiento de candidato espacial comprueba secuencialmente si estan disponibles unidades de prediccion adyacentes de una unidad de prediccion actual, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar informacion de movimiento de candidato adicional usando informacion de movimiento de una unidad de prediccion que se comprueba despues de que se comprueba en primer lugar una unidad de prediccion adyacente disponible.
La Figura 17B es un diagrama de referencia para explicar un procedimiento para generar informacion de movimiento de candidato adicional usando una unidad de prediccion que esta espacialmente co-localizada a una unidad de prediccion actual, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a la Figura 17B, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar informacion de movimiento de una unidad de prediccion de las unidades de prediccion adyacentes A0, A1, B0, B1 y B2, que tienen informacion de movimiento disponible pero no estan incluidas en la informacion de movimiento de candidato debido a que se estan comprobando despues de que se explorara anteriormente otra unidad de prediccion en un orden de exploracion, como informacion de movimiento de candidato adicional.
Por ejemplo, se supone que la informacion de movimiento de candidato izquierdo generado por la unidad 1510 de generacion de informacion de movimiento de candidato espacial es 'izquierda', la informacion de movimiento de candidato generado superior por la unidad 1510 de generacion de informacion de movimiento de candidato espacial es 'superior', y la informacion de movimiento de candidato temporal generada por la unidad 1520 de generacion de informacion de movimiento de candidato temporal es 'Temporal'. La unidad 1540 de generacion de informacion de movimiento de candidato adicional determina si la informacion de movimiento de candidato (es decir, izquierda, superior y temporal) esta disponible, es decir, si existe la informacion de movimiento de candidato y determina que el numero de piezas de la informacion de movimiento de candidato es un numero predeterminado 3 (que corresponde a n=3). Ademas, cuando el numero de piezas de informacion de movimiento de candidato es menor que un numero predeterminado, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar informacion de movimiento de candidato adicional usando informacion de movimiento de una unidad de prediccion que se comprueba despues de que se comprobo previamente una unidad de prediccion adyacente disponible. Como se ha descrito anteriormente, cuando la unidad 1510 de generacion de informacion de movimiento de candidato espacial genera informacion de movimiento de candidato espacial, la unidad 1510 de generacion de informacion de movimiento de candidato espacial puede comprobar si la informacion de movimiento de todas las unidades de prediccion situadas por encima de la unidad de prediccion actual y a la izquierda de la unidad de prediccion actual, por ejemplo, de todas las unidades de prediccion adyacentes A0, A1, B0, B1 y B2 estan disponibles sin ningun orden de exploracion y a continuacion puede anadir todas las piezas de informacion de movimiento disponible de entre la informacion de movimiento de las unidades de prediccion adyacentes A0, A1, B0, B1 y B2 al candidato de informacion de movimiento espacial. En este caso, cuando el numero de piezas de informacion de movimiento de candidato es menor que un numero predeterminado, por ejemplo, 5, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar informacion de movimiento de candidato adicional usando informacion de movimiento de la unidad de prediccion disponible.
Se supone que no existe informacion de movimiento de candidato izquierdo y esta disponible informacion de movimiento de las unidades de prediccion adyacentes B0, B1 y B2. Como se muestra en la Figura 17B, se selecciona la informacion de movimiento de la unidad de prediccion adyacente B0 que se ha comprobado previamente en un orden de exploracion como informacion de movimiento de candidato superior e informacion de movimiento de las unidades de prediccion adyacentes B1 y B2 que no estan incluidas en informacion de movimiento por defecto. Cuando el numero total de piezas de informacion de movimiento de candidato es menor que un numero predeterminado puesto que las unidades de prediccion adyacentes A0 y A1 no tienen informacion de movimiento disponible, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir informacion de movimiento de la unidad de prediccion adyacente B1 o B2 a informacion de movimiento de candidato adicional.
De manera similar, cuando no existe informacion de movimiento de candidato superior y esta disponible informacion de movimiento de las unidades de prediccion adyacentes izquierdas A0 y A1, la informacion de movimiento de la unidad de prediccion adyacente A0 que se comprobo previamente se selecciona como informacion de movimiento izquierda y la informacion de movimiento de la unidad de prediccion adyacente A1 que se comprueba despues de que la unidad de prediccion adyacente A1 no esta incluida en la informacion de movimiento por defecto. Sin embargo, cuando el numero de piezas de informacion de movimiento de candidato es menor que un numero predeterminado puesto que las unidades de prediccion adyacentes B0, B1 y B2 no tienen informacion de movimiento disponible, puede incluirse la informacion de movimiento de la unidad de prediccion adyacente A1 en informacion de movimiento de candidato adicional.
De acuerdo con otra realizacion de la presente invencion, cuando la unidad 1520 de generacion de informacion de movimiento de candidato temporal comprueba secuencialmente si estan disponibles unidades de prediccion de una instantanea anterior que estan temporalmente co-localizadas a una unidad de prediccion actual, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede escalar informacion de movimiento de una unidad de prediccion de una instantanea anterior que tiene informacion de movimiento de entre unidades de prediccion de la instantanea anterior restantes excepto para una primera instantanea anterior que tiene informacion de movimiento disponible y puede anadir la informacion de movimiento escalada a informacion de movimiento de candidato adicional.
Haciendo referencia de vuelta a la Figura 19, la unidad 1520 de generacion de informacion de movimiento de candidato temporal comprueba si la informacion de movimiento de la unidad 1924 de prediccion situada en la parte inferior derecha de la unidad 1921 de prediccion de la instantanea 1920 de referencia que tiene una localizacion correspondiente a la unidad 1911 de prediccion actual esta disponible de entre unidades de prediccion de la instantanea 1920 de referencia que se han codificado previamente a la instantanea 1910 actual y a continuacion determina si esta disponible la informacion de movimiento de la unidad 1921 de prediccion, que contiene un punto C' 1922 de la instantanea 1920 de referencia como la misma localizacion que un punto C 1912 de un punto central de la unidad 1911 de prediccion actual. Si la unidad 1924 de prediccion situada en la parte inferior derecha de la unidad 1921 de prediccion tiene informacion de movimiento disponible, la informacion de movimiento de la unidad 1924 de prediccion situada en la parte inferior derecha de la unidad 1921 de prediccion se incluye en la informacion de movimiento de candidato y en la informacion de movimiento por defecto de la unidad 1921 de prediccion, que contiene el punto C' 1922 de la instantanea 1920 de referencia que la misma localizacion que el punto C 1912 no esta incluida en la informacion de movimiento de candidato por defecto. Cuando el numero total de piezas de informacion de movimiento de candidato es menor que un numero predeterminado, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir informacion de movimiento de la unidad 1921 de prediccion, que contiene el punto C' 1922 de la instantanea 1920 de referencia como la misma localizacion que el punto C 1912 a informacion de movimiento de candidato adicional. Es decir, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir informacion de movimiento de una unidad de prediccion que no esta incluida en informacion de movimiento de candidato por defecto de entre unidades de prediccion de una instantanea anterior a informacion de movimiento de candidato adicional.
De acuerdo con otra realizacion de la presente invencion, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir informacion de movimiento que tiene un valor predeterminado a informacion de movimiento de candidato adicional. Por ejemplo, cuando la informacion de movimiento es un vector de movimiento de prediccion, si el numero de piezas de informacion de movimiento de candidato es menor que un numero predeterminado, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir un vector de movimiento que tienen un valor de componente predeterminado tal como (0,0), (0,1), o (1,0) a un vector de movimiento de candidato.
De acuerdo con otra realizacion de la presente invencion, cuando la informacion de movimiento disponible de unidades de prediccion espacial y unidades de prediccion temporales contiene informacion de vector de movimiento bidireccional de prediccion de las direcciones L0 y L1, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir o restar un desplazamiento predeterminado a y desde un vector de movimiento de la prediccion de la direccion L0 y un vector de movimiento de la prediccion de la direccion L1 para generar informacion de movimiento de candidato adicional.
Las Figuras 20A y 20B son diagramas para explicar un procedimiento de generacion de informacion de movimiento de candidate adicional usando informacion de movimiento de unidades de prediccion disponibles, de acuerdo con otra realizacion de la presente invencion. Las Figuras 21A y 21B son diagramas para describir una relacion posicional entre una instantanea actual y una instantanea de referencia cuando se genera informacion de movimiento de candidato adicional de las Figuras 20A y 20B, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a las Figuras 20A y 21A, cuando la unidad de prediccion adyacente B1 de entre unidades de prediccion situadas por encima de una unidad de prediccion actual tiene un vector de movimiento mvL0_B1 que indica una instantanea L0R0 2110 que es una instantanea de referencia de la prediccion de la direccion L0 y un vector de movimiento mvL1_B1 que indica una instantanea L1R02120 que es una instantanea de referencia de la prediccion de la direccion L1, y una instantanea 2100 actual esta situada entre la instantanea L0R0 2110 y la instantanea L1R02120, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir desplazamientos predeterminados que tienen el mismo valor absoluto y diferentes signos al vector de movimiento mvL0_B1 de la prediccion de la direccion L0 y al vector de movimiento mvL1_B1 de la prediccion de la direccion L1 para generar un nuevo vector de movimiento y puede anadir el nuevo vector de movimiento a informacion de movimiento de candidato adicional. Es decir, como se muestra en la Figura 20A, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir un desplazamiento predeterminado mv_offset al vector de movimiento mvL0_B1 de la prediccion de la direccion L0 de manera que puede incluirse un vector de movimiento generado mvL0' en un vector de movimiento de candidato adicional de la prediccion de la direccion L0 y puede restar el desplazamiento mv_offset del vector de movimiento mvL1_B1 de la prediccion de la direccion L1 de manera que el vector de movimiento generado mvL1' puede incluirse en el vector de movimiento de candidato adicional de la prediccion de la direccion L1.
Cuando un vector de movimiento List0MV de la direccion L0, que esta incluido en informacion de movimiento bidireccional obtenida de una unidad de prediccion adyacente disponible, tiene un valor (mx0,my0) y un vector de movimiento ListlMV de la direccion L1 tiene un valor (mx1, my1), si una instantanea actual se situa entre una instantanea de referencia de la prediccion de la direccion L1 y una instantanea de referencia de la prediccion de la direccion L0, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir y restar un desplazamiento predeterminado a y desde un vector de movimiento de la prediccion de la direccion L0 y un vector de movimiento de la prediccion de la direccion L1 para generar informacion de movimiento de candidato adicional como sigue.
List0MV=(mx0+offset, my0), List1MV=(mx0-offset, my0);
List0MV=(mx0-offset, my0), List1MV=(mx0+offset, my0);
List0MV=(mx0, my0+offset), List1MV=(mx0, my0-offset);
List0MV=(mx0, my0-offset), List1MV=(mx0, my0+offset);
List0MV=(mx0+offset, my0+offset), List1MV=(mx0-offset, my0-offset);
List0MV=(mx0+offset, my0-offset), List1MV=(mx0-offset, my0+offset);
List0MV=(mx0-offset, my0+offset), List1MV=(mx0+offset, my0-offset); y
List0MV=(mx0-offset, my0-offset), List1MV=(mx0+offset, my0+offset)
Haciendo referencia a las Figuras 20B y 21B, cuando la unidad de prediccion adyacente B1 de entre unidades de prediccion situadas por encima de una unidad de prediccion actual tiene un vector de movimiento mvL1R0_B1 que indica una instantanea L1R0 2140 que es una instantanea de referencia de la direccion L0 y un vector de movimiento mvL1R1_B1 que indica una instantanea L1R12150 que es una instantanea de referencia de la direccion L1, si la instantanea L1R02140 y la instantanea L1R1 2150 estan situadas en mismas localizaciones con respecto a una instantanea 2130 actual, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir o restar un desplazamiento predeterminado a y desde un vector de movimiento mvL1R0_B1 de la prediccion de la direccion L0 y un vector de movimiento mvL1R1_B1 de la prediccion de la direccion L1 para generar un nuevo vector de movimiento y puede anadir el nuevo vector de movimiento generado a informacion de movimiento de candidato adicional. Es decir, como se muestra en la Figura 20B, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir un vector de movimiento mvL0' generado anadiendo un desplazamiento mv_offset al vector de movimiento mvL1R0_B1 de la prediccion de la direccion L0 a un vector de movimiento de candidato adicional de la prediccion de la direccion L0 y puede anadir el vector de movimiento mvL1' generado anadiendo el desplazamiento mv_offset al vector de movimiento mvL1R1_B1 de la prediccion de la direccion L1 a un vector de movimiento de candidato adicional de la direccion L1.
Cuando un vector de movimiento List0MV de la direccion L0, que se obtiene desde una unidad de prediccion adyacente disponible, tiene un valor (mx0, my0), un vector de movimiento List1MV de la direccion L1 tiene un valor (mx1, my1), y una instantanea de referencia de la direccion L1 y una instantanea de referencia de la direccion L0 estan situadas en localizaciones correspondientes con respecto a una instantanea actual, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir y restar un desplazamiento predeterminado a y desde un vector de movimiento de la prediccion de la direccion L0 y un vector de movimiento de la prediccion de la direccion L1 para generar informacion de movimiento de candidato adicional como sigue.
List0MV=(mx0+offset, my0), List1MV=(mx0+offset, my0);
List0MV=(mx0-offset, my0), List1MV=(mx0-offset, my0);
List0MV=(mx0, myO+offset), List1MV=(mx0, myO+offset);
List0MV=(mx0, myO-offset), List1MV=(mx0, myO-offset);
List0MV=(mx0+offset, myO+offset), List1MV=(mx0+offset, myO+offset);
List0MV=(mx0+offset, myO-offset), List1MV=(mxO+offset, myO-offset);
ListOMV=(mxO-offset, myO+offset), List1MV=(mxO-offset, myO+offset); y
ListOMV=(mxO-offset, myO-offset), List1MV=(mxO-offset, myO-offset)
De acuerdo con otra realizacion de la presente invencion, la unidad 154O de generacion de informacion de movimiento de candidato adicional puede cambiar informacion de movimiento disponible de unidades de prediccion espacial y unidades de prediccion temporales para generar informacion de movimiento de candidato adicional. Cuando la informacion de movimiento disponible de unidades de prediccion espacial y unidades de prediccion temporales incluye informacion de vector de movimiento bidireccional de las direcciones LO y L1, la unidad 154O de generacion de informacion de movimiento de candidato adicional puede anadir informacion uni-direccional, que se genera dividiendo la prediccion de las direcciones LO y L1, a informacion de movimiento de candidato adicional. Por ejemplo, se supone que la informacion de movimiento bidireccional obtenida de unidades de prediccion espacial y unidades de prediccion temporales disponibles incluye informacion de movimiento de la direccion LO, que incluye un vector de movimiento ListOMv de la direccion LO y un mdice de instantanea de referencia ListOREF que indica una instantanea de referencia de la direccion LO, e informacion de movimiento de la direccion L1, que incluye un vector de movimiento ListIMV de la direccion L1 y un mdice de instantanea de referencia Listl REF que indica una instantanea de referencia de la direccion L1. La unidad 154O de generacion de informacion de movimiento de candidato adicional puede dividir la informacion de movimiento bidireccional para generar dos piezas de informacion de movimiento unidireccional y anadir las dos piezas de informacion de movimiento unidireccional a informacion de movimiento de candidato adicional. Es decir, la unidad 154O de generacion de informacion de movimiento de candidato adicional puede dividir la informacion de movimiento bidireccional en informacion de movimiento unidireccional de la direccion LO que incluye {un vector de movimiento ListOMV de la direccion LO y un mdice de instantanea de referencia ListOREF que indica una instantanea de referencia de la direccion LO} e informacion de movimiento unidireccional de la direccion L1 que incluye {un vector de movimiento ListIMV de la direccion L1 y un mdice de instantanea de referencia ListIREF que indica una instantanea de referencia de la direccion L1} y puede anadir la informacion de movimiento unidireccional a informacion de movimiento de candidato adicional.
Ademas, cuando la informacion de movimiento disponible de unidades de prediccion espacial y unidades de prediccion temporales incluye informacion de movimiento unidireccional de informacion de movimiento de la direccion LO e informacion de movimiento de la direccion LO, la unidad 154O de generacion de informacion de movimiento de candidato adicional puede anadir informacion de movimiento bidireccional generada combinando la informacion de movimiento unidireccional de las direcciones LO y L1 a informacion de movimiento de candidato adicional. Por ejemplo, cuando existe la informacion de movimiento unidireccional de la direccion LO, que incluye {un vector de movimiento ListOMV de la direccion LO y un mdice de instantanea de referencia ListOREF que indica una instantanea de referencia de la direccion LO}, y la informacion de movimiento unidireccional de la direccion L1, que incluye {un vector de movimiento ListIMV de la direccion L1 y un mdice de instantanea de referencia ListIREF que indica una instantanea de referencia de la direccion L1} como informacion de movimiento obtenida de unidades de prediccion que se dividen espacial y temporalmente co-localizadas a una unidad de prediccion actual, la informacion de movimiento unidireccional de la direccion LO y la informacion de movimiento unidireccional de la direccion L1 se combinan para generar informacion de movimiento bidireccional y la informacion de movimiento bidireccional generada puede anadirse a informacion de movimiento de candidato adicional.
Ademas, la unidad 154O de generacion de informacion de movimiento de candidato adicional puede anadir un vector de movimiento que tiene un valor predeterminado y un mdice de referencia a una cualquiera de la informacion de movimiento unidireccional de la direccion LO y la informacion de movimiento unidireccional de la direccion L1 para generar informacion de movimiento unidireccional de diferentes direcciones de manera que la informacion de movimiento bidireccional obtenida para la informacion de movimiento de candidato adicional. Por ejemplo, cuando unicamente existe informacion de movimiento unidireccional de la direccion LO, que incluye {un vector de movimiento ListOMV de la direccion LO y un mdice de instantanea de referencia ListOREF que indica una instantanea de referencia de la direccion LO}, como informacion de movimiento obtenida de unidades de prediccion que estan colocalizadas espacial y temporalmente a una unidad de prediccion actual, la unidad 154O de generacion de informacion de movimiento de candidato adicional puede establecer un vector de movimiento que tiene un valor predeterminado tal como (0,0) como un vector de movimiento ListIMV de la direccion L1 y puede establecer un mdice de instantanea de referencia ListIREF que indica una instantanea de referencia de la direccion L1 como un valor predeterminado 0 para generar informacion de movimiento de la direccion L1, y puede combinar la informacion de movimiento generada de la direccion L1 y la informacion de movimiento existente de la direccion L0 de manera que la informacion de movimiento bidireccional generada esta incluida en la informacion de movimiento de candidato adicional.
La unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar unicamente informacion de vector de movimiento de entre informacion de movimiento de una unidad de prediccion disponible usando una unidad de prediccion disponible y puede establecer de manera separada la informacion de direccion de referencia restante (direccion de prediccion) o un mdice de instantanea de referencia. En este caso, cuando la unidad 1540 de generacion de informacion de movimiento de candidato adicional genera informacion de movimiento de candidato adicional usando informacion de movimiento de una unidad de prediccion disponible, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede generar informacion de direccion de referencia de acuerdo con un tipo de corte de una unidad de prediccion actual. Por ejemplo, cuando una unidad de prediccion actual esta incluida en un corte P, una direccion de referencia incluida en la informacion de movimiento de candidato adicional se establece como la direccion L0. Cuando una unidad de prediccion actual se establece en un corte B, una direccion de referencia puede establecerse como una bi-prediccion que incluye prediccion de las direcciones L0 y L1. Ademas, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede establecer un mdice de instantanea de referencia en un rango de (0 ~ el mdice de instantanea de referencia de la unidad de prediccion disponible) y puede anadir una pluralidad de indices de instantanea de referencia a informacion de movimiento de candidato adicional.
Cuando la unidad 1540 de generacion de informacion de movimiento de candidato adicional genera el mdice de instantanea de referencia, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede usar un mdice de instantanea de referencia que indica una instantanea de referencia que tiene la frecuencia mas alta de entre instantaneas de referencia incluidas en informacion de movimiento de unidades de prediccion espacial y unidades de prediccion temporales disponibles o puede usar un mdice de instantanea de referencia que indica una instantanea de referencia a la que se hace referencia por las unidades de prediccion mas adyacentes de una unidad de prediccion actual, en lugar de establecer un mdice de instantanea de referencia que tiene un valor predeterminado, como se ha descrito anteriormente.
Ademas, cuando el numero de piezas de informacion de movimiento de candidato generado por defecto por la unidad 1510 de generacion de informacion de movimiento de candidato espacial y la unidad 1520 de generacion de informacion de movimiento de candidato temporal es menor que un numero predeterminado 'n', la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede omitir un procedimiento para comprobar si la informacion de movimiento de candidato adicional incluida en informacion de movimiento de candidato esta duplicada de manera que el numero total de piezas de informacion de movimiento de candidato puede ser 'n'. Es decir, la unidad 1540 de generacion de informacion de movimiento de candidato adicional puede anadir informacion de movimiento de candidato adicional generada cambiando informacion de movimiento por defecto a la informacion de movimiento de candidato incluso aunque la informacion de movimiento de candidato adicional sea la misma que la informacion de movimiento por defecto.
La Figura 22 es un diagrama de flujo de un procedimiento de codificacion de un vector de movimiento, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a la Figura 22, en la operacion 2310, el estimador 420 de movimiento realiza prediccion de movimiento en una unidad de prediccion actual para obtener informacion de movimiento acerca de la unidad de prediccion actual.
En la operacion 2320, la unidad 1410 de generacion de informacion de movimiento de candidato determina si esta disponible informacion de movimiento de unidades de prediccion espacial que estan espacialmente co-localizadas a una unidad de prediccion actual e informacion de movimiento de unidades de prediccion temporales que estan temporalmente co-localizadas a la unidad de prediccion actual. Como se ha descrito anteriormente, la unidad 1410 de generacion de informacion de movimiento de candidato comprueba si la informacion de movimiento de unidades de prediccion adyacentes A0 y A1 situadas a la izquierda de la unidad de prediccion actual y la informacion de movimiento de unidades de prediccion adyacentes B0, B1 y B2 situadas por encima de la unidad de prediccion actual estan disponibles y puede anadir informacion de movimiento de una unidad de prediccion adyacente disponible a informacion de movimiento de candidato por defecto. Ademas, la unidad 1410 de generacion de informacion de movimiento de candidato comprueba si esta disponible informacion de movimiento de unidades de prediccion de una localizacion predeterminada de entre unidades de prediccion de una instantanea anterior y puede anadir la informacion de movimiento de la instantanea anterior a la informacion de movimiento de candidato por defecto.
En la operacion 2330, cuando el numero de piezas de informacion de movimiento de unidades de prediccion espacial y unidades de prediccion temporales es menor que un numero predeterminado 'n', la unidad 1410 de generacion de informacion de movimiento de candidato puede generar informacion de movimiento de candidato adicional usando informacion de movimiento de unidades de prediccion espacial y unidades de prediccion temporales disponibles de manera que el numero total de piezas de informacion de movimiento de candidato puede ser 'n'.
En la operacion 2340, el codificador 1420 de informacion de movimiento codifica informacion de movimiento de la unidad de prediccion actual usando n piezas de informacion de movimiento. En detalle, el codificador 1420 de informacion de movimiento determina la informacion de movimiento mas similar a informacion de movimiento de una unidad de prediccion actual de entre la informacion de movimiento de candidato generada y transmite informacion de mdice que indica la informacion de movimiento determinada. Por ejemplo, cuando la informacion de movimiento es un vector de movimiento, la unidad 1410 de generacion de informacion de movimiento de candidato genera candidatos de vector de movimiento de prediccion de la unidad de prediccion actual y el codificador 1420 de informacion de movimiento puede codificar informacion acerca de un valor de mdice que indica un vector de movimiento de prediccion mas similar al vector de movimiento de la unidad de prediccion actual de entre candidatos de vector de movimiento de prediccion e informacion acerca de un valor de diferencia entre el vector de movimiento de la unidad de prediccion actual y el vector de movimiento de prediccion.
La Figura 23 es un diagrama de bloques de un aparato 2400 de decodificacion de vector de movimiento de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a la Figura 23, el aparato 2400 de decodificacion de vector de movimiento incluye un decodificador 2410 por entropfa, un decodificador 2420 de informacion de movimiento, y una unidad 2430 de generacion de informacion de movimiento de candidato.
El decodificador 2410 por entropfa extrae informacion de movimiento usada en una unidad de prediccion actual de entre informacion de movimiento de candidato de una secuencia de bits. Por ejemplo, cuando la informacion de movimiento es un vector de movimiento, el decodificador 2410 por entropfa extrae un mdice que indica informacion de movimiento acerca de un mdice de vector de movimiento de prediccion, un valor de diferencia entre el vector de movimiento de prediccion y un vector de movimiento original, informacion de instantanea de referencia, e informacion de direccion de prediccion.
Como la unidad 1410 de generacion de informacion de movimiento de candidato mostrada en la Figura 14A, la unidad 2430 de generacion de informacion de movimiento de candidato obtiene informacion de movimiento de candidato usando informacion de movimiento de unidades de prediccion adyacentes que estan temporal y espacialmente co-localizadas a una unidad de prediccion actual, y genera informacion de movimiento de candidato adicional usando informacion de movimiento de unidades de prediccion que estan espacial y temporalmente colocalizadas a la unidad de prediccion actual de manera que el numero de piezas de la informacion de movimiento de candidato es 'n'.
El decodificador 2420 de informacion de movimiento obtiene una unica pieza de informacion de movimiento de candidato generada por la unidad 2430 de generacion de informacion de movimiento de candidato usando un mdice que indica informacion de movimiento de una unidad de prediccion actual obtenida desde una secuencia de bits. Como se ha descrito anteriormente, cuando la informacion de movimiento es un vector de movimiento, el decodificador 2420 de informacion de movimiento obtiene un unico vector de movimiento de prediccion de entre candidatos de vector de movimiento de prediccion usando un mdice que indica el vector de movimiento de prediccion obtenido desde una secuencia de bits, extrae informacion acerca de un valor de diferencia entre el vector de movimiento de prediccion y un vector de movimiento original de una secuencia de bits, y a continuacion anade el valor de diferencia y el vector de movimiento de prediccion para restaurar un vector de movimiento de la unidad de prediccion actual.
La Figura 24 es un diagrama de flujo de un procedimiento de decodificacion de informacion de movimiento, de acuerdo con una realizacion de la presente invencion.
Haciendo referencia a la Figura 24, en la operacion 2510, la unidad 2430 de generacion de informacion de movimiento de candidato determina si la informacion de movimiento de unidades de prediccion espacial que estan espacialmente co-localizadas a una unidad de prediccion actual y la informacion de movimiento de unidades de prediccion temporales que estan temporalmente co-localizadas a la unidad de prediccion actual estan disponibles. En la operacion 2520, como el resultado de la determinacion, cuando el numero de piezas de informacion de movimiento disponible de las unidades de prediccion espacial y unidades de prediccion temporales es menor que un numero predeterminado 'n' (donde n es un numero entero), la unidad 2430 de generacion de informacion de movimiento de candidato genera informacion de movimiento de candidato adicional usando informacion de movimiento disponible de unidades de prediccion espacial y unidades de prediccion temporales de manera que el numero total de piezas de informacion de movimiento de candidato puede ser 'n'.
En la operacion 2530, el decodificador 2410 por entropfa obtiene y emite informacion de mdice que indica una informacion de movimiento de entre 'n' piezas de informacion de movimiento de candidato de una secuencia de bits. En la operacion 2540, el decodificador 2420 de informacion de movimiento obtiene informacion de movimiento de una unidad de prediccion actual usando la informacion de movimiento indicada por el mdice. Como se ha descrito anteriormente, cuando la informacion de movimiento es un vector de movimiento, el decodificador 2420 de informacion de movimiento obtiene un unico vector de movimiento de prediccion de entre candidatos de vector de movimiento de prediccion usando el mdice que indica el vector de movimiento de prediccion obtenido desde una secuencia de bits, extrae informacion acerca de un valor de diferencia entre el vector de movimiento de prediccion y un vector de movimiento original de una secuencia de bits, y a continuacion anade el valor de diferencia y el vector de movimiento de prediccion para restaurar un vector de movimiento de la unidad de prediccion actual.
Las realizaciones de la presente invencion pueden escribirse como programas informaticos y pueden implementarse en ordenadores digitales de uso general que ejecutan los programas usando un medio de grabacion legible por ordenador. Ejemplos del medio de grabacion legible por ordenador incluyen medio de almacenamiento magnetico (por ejemplo, ROM, discos flexibles, discos duros, etc.) y medio de grabacion optico (por ejemplo, CD-ROM o DVD). Aunque se ha mostrado y descrito particularmente la presente invencion con referencia a realizaciones ejemplares de la misma, se entendera por los expertos en la materia que pueden realizarse diversos cambios en forma y detalles en la misma sin alejarse del alcance de la presente invencion como se define mediante las siguientes reivindicaciones.

Claims (5)

REIVINDICACIONES
1. Un procedimiento de decodificacion de un vector de movimiento, comprendiendo el procedimiento: determinar si estan disponibles (2510) vectores de movimiento de unidades de prediccion espacial que estan espacialmente co-localizadas a una unidad de prediccion actual y vectores de movimiento de unidades de prediccion temporal que estan temporalmente co-localizadas a la unidad de prediccion actual;
determinar los vectores de movimiento disponibles como candidatos de predictor de vector de movimiento;
caracterizado por:
cuando el numero de los candidatos de predictor de vector de movimiento es menor que un numero predeterminado 'n', donde n es un numero entero, generar al menos un vector de movimiento bidireccional combinado combinando un vector de movimiento disponible, de entre los vectores de movimiento disponibles, que indica un bloque de instantanea en la lista de instantaneas de referencia 0 y un vector de movimiento disponible, de entre los vectores de movimiento disponibles, que indica un bloque de instantanea en la lista de instantaneas de referencia 1; anadir el al menos un vector de movimiento bidireccional combinado a los candidatos de predictor de vector de movimiento;
cuando el numero de los candidatos de predictor de vector de movimiento es menor que el numero predeterminado 'n', anadir un vector de movimiento que tiene un valor de componente predeterminado a los candidatos de predictor de vector de movimiento de modo que un numero total de candidatos de predictor de vector de movimiento es el numero predeterminado n (2520), en el que el valor de componente predeterminado es (0, 0);
obtener informacion que indica un predictor de vector de movimiento entre los candidatos de predictor de vector de movimiento a partir de una secuencia de bits (2530); y
obtener el predictor de vector de movimiento de la unidad de prediccion actual basandose en la informacion (2540).
2. El procedimiento de la reivindicacion 1, en el que la determinacion de si los vectores de movimiento estan disponibles comprende:
buscar unidades de prediccion predeterminadas situadas por encima de la unidad de prediccion actual en un orden de exploracion predeterminado y seleccionar un vector de movimiento de una primera unidad de prediccion superior que tiene un vector de movimiento disponible como un candidato de predictor de vector de movimiento espacial superior de la unidad de prediccion actual; y
buscar unidades de prediccion predeterminadas situadas a la izquierda de la unidad de prediccion actual en un orden de exploracion predeterminado y seleccionar un vector de movimiento de una primera unidad de prediccion izquierda que tiene un vector de movimiento disponible como un candidato de predictor de vector de movimiento espacial izquierdo de la unidad de prediccion actual.
3. El procedimiento de la reivindicacion 1, que comprende adicionalmente, cuando los vectores de movimiento disponibles de las unidades de prediccion espacial y las unidades de prediccion temporal comprenden un vector de movimiento bidireccional, generar un candidato de predictor de vector de movimiento adicional anadiendo o restando un desplazamiento predeterminado a y desde un vector de movimiento para la lista de instantaneas de referencia 0 y un vector de movimiento para la lista de instantaneas de referencia 1 del vector de movimiento bidireccional.
4. El procedimiento de la reivindicacion 3, en el que, cuando una primera instantanea de referencia en la lista de instantaneas de referencia 0 y una segunda instantanea de referencia en la lista de instantaneas de referencia 1 se situan en la misma localizacion basandose en una instantanea actual que comprende la unidad de prediccion actual, se anade el desplazamiento al vector de movimiento para la lista de instantaneas de referencia 0 y el vector de movimiento para la lista de instantaneas de referencia 1, y
en el que, cuando la instantanea actual se situa entre la primera instantanea de referencia en la lista de instantaneas de referencia 0 y la segunda instantanea de referencia en la lista de instantaneas de referencia 1, se anade el desplazamiento al vector de movimiento para la lista de instantaneas de referencia 0 y se anade un valor obtenido multiplicando el desplazamiento por -1 al vector de movimiento para la lista de instantaneas de referencia 1.
5. El procedimiento de la reivindicacion 1, que comprende adicionalmente cambiar un vector de movimiento disponible para la lista de instantaneas de referencia 0 a un vector de movimiento para la lista de instantaneas de referencia 1 y cambiar un vector de movimiento disponible para la lista de instantaneas de referencia 1 a un vector de movimiento para la lista de instantaneas de referencia 1 para generar el candidato de predictor de vector de movimiento adicional.
ES17189965T 2011-06-27 2012-06-27 Procedimiento de decodificación de información de movimiento Active ES2695556T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201161501300P 2011-06-27 2011-06-27

Publications (1)

Publication Number Publication Date
ES2695556T3 true ES2695556T3 (es) 2019-01-09

Family

ID=47424667

Family Applications (5)

Application Number Title Priority Date Filing Date
ES20184517T Active ES2886357T3 (es) 2011-06-27 2012-06-27 Codificación y decodificación de información de movimiento
ES17189965T Active ES2695556T3 (es) 2011-06-27 2012-06-27 Procedimiento de decodificación de información de movimiento
ES18194649T Active ES2754657T3 (es) 2011-06-27 2012-06-27 Codificación y decodificación de información de movimiento
ES19196457T Active ES2848869T3 (es) 2011-06-27 2012-06-27 Codificación y decodificación de información de movimiento
ES21170529T Active ES2951321T3 (es) 2011-06-27 2012-06-27 Procedimiento y aparato para codificar información de movimiento, y procedimiento y aparato para decodificar la misma

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES20184517T Active ES2886357T3 (es) 2011-06-27 2012-06-27 Codificación y decodificación de información de movimiento

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES18194649T Active ES2754657T3 (es) 2011-06-27 2012-06-27 Codificación y decodificación de información de movimiento
ES19196457T Active ES2848869T3 (es) 2011-06-27 2012-06-27 Codificación y decodificación de información de movimiento
ES21170529T Active ES2951321T3 (es) 2011-06-27 2012-06-27 Procedimiento y aparato para codificar información de movimiento, y procedimiento y aparato para decodificar la misma

Country Status (26)

Country Link
US (6) US9204160B2 (es)
EP (6) EP3876540B1 (es)
JP (5) JP6322136B2 (es)
KR (6) KR101456500B1 (es)
CN (6) CN106982373B (es)
AU (5) AU2012276455B2 (es)
BR (2) BR112013033706B1 (es)
CA (2) CA2840483C (es)
CY (1) CY1120897T1 (es)
DK (2) DK3606076T3 (es)
ES (5) ES2886357T3 (es)
HR (1) HRP20181873T1 (es)
HU (4) HUE055772T2 (es)
LT (1) LT3282707T (es)
MX (2) MX2014000160A (es)
MY (1) MY165858A (es)
PH (4) PH12016501429B1 (es)
PL (5) PL3282707T3 (es)
PT (1) PT3282707T (es)
RS (1) RS57965B1 (es)
RU (4) RU2636672C1 (es)
SG (1) SG10201605263SA (es)
SI (1) SI3282707T1 (es)
TW (5) TWI738251B (es)
WO (1) WO2013002557A2 (es)
ZA (5) ZA201400623B (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2886357T3 (es) * 2011-06-27 2021-12-17 Samsung Electronics Co Ltd Codificación y decodificación de información de movimiento
JP5884697B2 (ja) * 2011-09-28 2016-03-15 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP5942782B2 (ja) * 2011-10-31 2016-06-29 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
US20130121417A1 (en) * 2011-11-16 2013-05-16 Qualcomm Incorporated Constrained reference picture sets in wave front parallel processing of video data
WO2013109093A1 (ko) * 2012-01-19 2013-07-25 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US8972570B1 (en) * 2012-08-17 2015-03-03 Facebook, Inc. Implicit geolocation of social networking users
KR20170078672A (ko) * 2014-10-31 2017-07-07 삼성전자주식회사 고정밀 스킵 부호화를 이용한 비디오 부호화 장치 및 비디오 복호화 장치 및 그 방법
WO2016143972A1 (ko) * 2015-03-11 2016-09-15 엘지전자(주) 비디오 신호의 인코딩/디코딩 방법 및 장치
WO2017131908A1 (en) * 2016-01-29 2017-08-03 Google Inc. Dynamic reference motion vector coding mode
US10462457B2 (en) * 2016-01-29 2019-10-29 Google Llc Dynamic reference motion vector coding mode
US10397600B1 (en) 2016-01-29 2019-08-27 Google Llc Dynamic reference motion vector coding mode
US10939099B2 (en) * 2016-04-22 2021-03-02 Lg Electronics Inc. Inter prediction mode-based image processing method and device therefor
CN116708784A (zh) 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
CN116614641A (zh) 2016-07-12 2023-08-18 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
WO2018034373A1 (ko) * 2016-08-19 2018-02-22 엘지전자(주) 영상 처리 방법 및 이를 위한 장치
US20180242024A1 (en) * 2017-02-21 2018-08-23 Mediatek Inc. Methods and Apparatuses of Candidate Set Determination for Quad-tree Plus Binary-tree Splitting Blocks
KR102376069B1 (ko) * 2017-06-30 2022-03-17 후아웨이 테크놀러지 컴퍼니 리미티드 디코더 측 움직임 벡터 도출을 위한 오류 내성 및 병렬 처리
WO2019084776A1 (zh) * 2017-10-31 2019-05-09 华为技术有限公司 图像块的候选运动信息的获取方法、装置及编解码器
WO2019112072A1 (ko) * 2017-12-04 2019-06-13 엘지전자 주식회사 영상 코딩 시스템에서 수정된 움직임 정보 후보 리스트에 기반한 영상 디코딩 방법 및 장치
CN109963155B (zh) 2017-12-23 2023-06-06 华为技术有限公司 图像块的运动信息的预测方法、装置及编解码器
US10397603B1 (en) * 2018-05-08 2019-08-27 Tencent America LLC Method and apparatus for video coding
WO2020057504A1 (en) * 2018-09-17 2020-03-26 Mediatek Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
BR112021007509A2 (pt) 2018-10-27 2021-07-27 Huawei Technologies Co., Ltd. lista de mesclagem separada para candidatos de mesclagem de sub-bloco e harmonização de técnicas intra-inter para codificação de vídeo
CN112997489B (zh) 2018-11-06 2024-02-06 北京字节跳动网络技术有限公司 具有几何分割的帧间预测的边信息信令
US11381807B2 (en) 2018-11-21 2022-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Methods of video picture coding with sub-block merge simplification and related apparatuses
US11122288B2 (en) 2018-12-06 2021-09-14 Qualcomm Incorporated Spatio-temporal motion vector prediction patterns for video coding
US11470340B2 (en) * 2018-12-10 2022-10-11 Tencent America LLC Simplified merge list construction for small coding blocks
MX2021007755A (es) 2018-12-28 2021-08-05 Godo Kaisha Ip Bridge 1 Dispositivo de codificacion de imagenes en movimiento, metodo de codificacion de imagenes en movimiento, programa de codificacion de imagenes en movimiento, dispositivo de decodificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento y programa de decodificacion de imagenes en movimiento.
CN116389749A (zh) * 2018-12-28 2023-07-04 Jvc建伍株式会社 动图像解码装置和方法、以及动图像编码装置和方法
KR20230163002A (ko) * 2018-12-28 2023-11-29 가부시키가이샤 제이브이씨 켄우드 동화상 복호 장치, 동화상 복호 방법, 동화상 복호 프로그램, 동화상 부호화 장치, 동화상 부호화 방법, 동화상 부호화 프로그램, 격납 방법 및 전송 방법
CN113170166B (zh) 2018-12-30 2023-06-09 北京字节跳动网络技术有限公司 具有几何分割的帧间预测在视频处理中有条件的应用
CN114019107B (zh) * 2021-11-08 2023-12-26 南京延长反应技术研究院有限公司 一种蒽醌法制双氧水体系中微气泡强化的评测方法

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0180170B1 (ko) * 1995-06-30 1999-05-01 배순훈 움직임 추정 방법 및 추정 장치
KR0181069B1 (ko) * 1995-11-08 1999-05-01 배순훈 움직임 추정장치
US6567469B1 (en) * 2000-03-23 2003-05-20 Koninklijke Philips Electronics N.V. Motion estimation algorithm suitable for H.261 videoconferencing applications
JP2002165109A (ja) * 2000-11-24 2002-06-07 Matsushita Electric Ind Co Ltd 動きベクトル検出装置および動きベクトル検出方法
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
CN1312927C (zh) * 2002-07-15 2007-04-25 株式会社日立制作所 动态图像编码方法及解码方法
US7978769B2 (en) 2003-06-30 2011-07-12 Ntt Docomo, Inc. Method and apparatus for coding motion information
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN1213613C (zh) * 2003-09-12 2005-08-03 浙江大学 视频编解码中运动矢量的预测方法和装置
JP2006005659A (ja) * 2004-06-17 2006-01-05 Canon Inc 画像符号化装置及びその方法
US20060133495A1 (en) * 2004-12-22 2006-06-22 Yan Ye Temporal error concealment for video communications
CN100539693C (zh) * 2005-08-30 2009-09-09 深圳清华大学研究院 快速运动估计方法
JP2007189276A (ja) * 2006-01-11 2007-07-26 Victor Co Of Japan Ltd 画像圧縮装置及び画像圧縮プログラム
CN100576919C (zh) * 2006-08-08 2009-12-30 佳能株式会社 运动矢量检测设备及运动矢量检测方法
JP4993676B2 (ja) 2006-09-01 2012-08-08 キヤノン株式会社 画像符号化装置及び画像符号化方法
JP2010509799A (ja) * 2006-11-03 2010-03-25 サムスン エレクトロニクス カンパニー リミテッド 映像の予測符号化方法及び装置、その復号化方法及び装置
US8488676B2 (en) * 2007-05-14 2013-07-16 Himax Technologies Limited Motion estimation method
US8422803B2 (en) * 2007-06-28 2013-04-16 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
KR101712915B1 (ko) * 2007-10-16 2017-03-07 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
ES2812473T3 (es) * 2008-03-19 2021-03-17 Nokia Technologies Oy Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo
US20090245374A1 (en) 2008-03-26 2009-10-01 Mediatek Inc. Video encoder and motion estimation method
JP5289440B2 (ja) 2008-07-10 2013-09-11 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP5401071B2 (ja) * 2008-10-09 2014-01-29 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
CN101448159B (zh) * 2009-01-08 2010-08-04 北京航空航天大学 一种基于率失真代价和模式频率的快速帧间模式选择方法
HUE051313T2 (hu) * 2009-10-01 2021-03-01 Sk Telecom Co Ltd Eljárás és készülék képek változtatható méretû makroblokkok használatával történõ kódolására/dekódolására
ES2554237T3 (es) 2009-10-01 2015-12-17 Sk Telecom. Co., Ltd. Método y aparato para codificar/decodificar imagen usando una capa dividida
US9549190B2 (en) 2009-10-01 2017-01-17 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding image using variable-size macroblocks
US9060176B2 (en) 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
US20120207221A1 (en) 2009-10-16 2012-08-16 Tomoko Aono Video coding device and video decoding device
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN107071461B (zh) * 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
US9049444B2 (en) * 2010-12-22 2015-06-02 Qualcomm Incorporated Mode dependent scanning of coefficients of a block of video data
JPWO2012090495A1 (ja) 2010-12-27 2014-06-05 パナソニック株式会社 画像符号化方法および画像復号方法
JP2012151576A (ja) 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
US8755437B2 (en) 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
WO2012122927A1 (en) 2011-03-14 2012-09-20 Mediatek Inc. Method and apparatus for derivation of motion vector candidate and motion vector prediction candidate
WO2012128540A2 (ko) 2011-03-21 2012-09-27 엘지전자 주식회사 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
MX2013012020A (es) 2011-05-24 2013-12-10 Panasonic Corp Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion /decodificacion de imagenes.
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
CN105187839A (zh) 2011-05-31 2015-12-23 Jvc建伍株式会社 动图像解码装置、动图像解码方法、接收装置及接收方法
ES2779226T3 (es) 2011-05-31 2020-08-14 Sun Patent Trust Procedimiento de descodificación de vídeo y dispositivo de descodificación de vídeo
JP5477340B2 (ja) 2011-05-31 2014-04-23 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
JP5252029B2 (ja) 2011-05-31 2013-07-31 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法、及び受信プログラム
CN106686378B (zh) 2011-06-14 2019-10-08 三星电子株式会社 对图像进行解码的方法和设备
US9131239B2 (en) 2011-06-20 2015-09-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
ES2886357T3 (es) * 2011-06-27 2021-12-17 Samsung Electronics Co Ltd Codificación y decodificación de información de movimiento
JP5488666B2 (ja) * 2011-09-28 2014-05-14 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム

Also Published As

Publication number Publication date
AU2018271275C1 (en) 2019-11-21
JP6272948B2 (ja) 2018-01-31
KR101608067B1 (ko) 2016-03-31
AU2016201944B2 (en) 2017-02-23
BR112013033706B1 (pt) 2022-05-31
RU2601180C2 (ru) 2016-10-27
JP7071453B2 (ja) 2022-05-19
PL3282707T3 (pl) 2019-01-31
WO2013002557A2 (ko) 2013-01-03
EP3876540C0 (en) 2023-06-07
PH12016501426B1 (en) 2016-09-19
PH12016501428B1 (en) 2016-09-19
KR20140085393A (ko) 2014-07-07
LT3282707T (lt) 2018-11-26
AU2012276455A1 (en) 2014-01-30
SI3282707T1 (sl) 2018-12-31
CN106851313B (zh) 2018-12-14
RU2682303C1 (ru) 2019-03-18
PL3739884T3 (pl) 2021-11-22
HUE055772T2 (hu) 2021-12-28
ZA201400623B (en) 2016-01-27
AU2017202355A1 (en) 2017-04-27
CN107071470B (zh) 2020-02-07
RU2705435C1 (ru) 2019-11-07
AU2017202355B2 (en) 2017-11-23
TW202025775A (zh) 2020-07-01
JP2016187192A (ja) 2016-10-27
AU2018271275B2 (en) 2019-06-20
KR20140146564A (ko) 2014-12-26
KR20170026409A (ko) 2017-03-08
US9137543B2 (en) 2015-09-15
CY1120897T1 (el) 2019-12-11
EP3282707B1 (en) 2018-11-07
EP2725800A2 (en) 2014-04-30
EP3876540B1 (en) 2023-06-07
ES2886357T3 (es) 2021-12-17
EP3435675B1 (en) 2019-10-23
HUE052897T2 (hu) 2021-05-28
PH12016501427B1 (en) 2016-09-19
CA2840483C (en) 2017-09-26
TWI738251B (zh) 2021-09-01
US20160105681A1 (en) 2016-04-14
PH12016501428A1 (en) 2016-09-19
RU2014102366A (ru) 2015-08-10
JP2018057018A (ja) 2018-04-05
AU2012276455B2 (en) 2016-02-25
US9432680B2 (en) 2016-08-30
PH12016501429A1 (en) 2016-09-19
TWI803915B (zh) 2023-06-01
PL3876540T3 (pl) 2023-07-24
US9204160B2 (en) 2015-12-01
JP2020191683A (ja) 2020-11-26
MX336525B (es) 2016-01-22
RU2636672C1 (ru) 2017-11-27
KR20150099480A (ko) 2015-08-31
TWI628950B (zh) 2018-07-01
TW201309042A (zh) 2013-02-16
TW201830969A (zh) 2018-08-16
BR122021004610B1 (pt) 2022-12-27
CN103765896A (zh) 2014-04-30
US9253500B2 (en) 2016-02-02
EP3282707A1 (en) 2018-02-14
HRP20181873T1 (hr) 2019-01-11
EP3606076B1 (en) 2021-01-13
EP3876540A1 (en) 2021-09-08
TWI587692B (zh) 2017-06-11
CA2975456C (en) 2019-10-22
US20140133570A1 (en) 2014-05-15
EP3435675A1 (en) 2019-01-30
AU2016201944A1 (en) 2016-04-21
ZA201502767B (en) 2020-02-26
EP3606076A1 (en) 2020-02-05
PH12016501429B1 (en) 2016-09-19
CN106851314B (zh) 2018-12-14
ZA201502766B (en) 2020-02-26
DK3606076T3 (da) 2021-01-18
US20150156508A1 (en) 2015-06-04
CA2975456A1 (en) 2013-01-03
KR20140139999A (ko) 2014-12-08
ES2951321T3 (es) 2023-10-19
CN104811725B (zh) 2017-12-29
KR101456500B1 (ko) 2014-11-03
US20150156509A1 (en) 2015-06-04
JP6753979B2 (ja) 2020-09-09
KR101604461B1 (ko) 2016-03-17
DK3282707T3 (en) 2018-12-03
EP3739884A1 (en) 2020-11-18
TWI692248B (zh) 2020-04-21
US9253501B2 (en) 2016-02-02
CA2840483A1 (en) 2013-01-03
MY165858A (en) 2018-05-18
JP6523406B2 (ja) 2019-05-29
ES2754657T3 (es) 2020-04-20
US20150156507A1 (en) 2015-06-04
KR101700367B1 (ko) 2017-01-26
WO2013002557A3 (ko) 2013-03-14
CN106851314A (zh) 2017-06-13
ES2848869T3 (es) 2021-08-12
EP2725800A4 (en) 2015-02-18
CN103765896B (zh) 2017-05-03
HUE042313T2 (hu) 2019-06-28
CN106982373B (zh) 2018-06-15
CN106851313A (zh) 2017-06-13
TW202141983A (zh) 2021-11-01
AU2018271275A1 (en) 2018-12-20
ZA201502768B (en) 2022-03-30
EP3739884B1 (en) 2021-08-04
JP2014523184A (ja) 2014-09-08
BR112013033706A2 (pt) 2017-07-04
JP2019146251A (ja) 2019-08-29
PL3435675T3 (pl) 2020-03-31
CN104811725A (zh) 2015-07-29
PT3282707T (pt) 2018-11-21
CN107071470A (zh) 2017-08-18
SG10201605263SA (en) 2016-08-30
PH12016501427A1 (en) 2016-09-19
KR20130001708A (ko) 2013-01-04
TW201725910A (zh) 2017-07-16
MX2014000160A (es) 2014-02-19
HUE063217T2 (hu) 2024-01-28
PL3606076T3 (pl) 2021-07-26
JP6322136B2 (ja) 2018-05-09
PH12016501426A1 (en) 2016-09-19
AU2018201305A1 (en) 2018-03-15
ZA201502765B (en) 2016-03-30
CN106982373A (zh) 2017-07-25
AU2018201305B2 (en) 2018-09-13
US20150139327A1 (en) 2015-05-21
US9204162B2 (en) 2015-12-01
KR101862357B1 (ko) 2018-05-29
RS57965B1 (sr) 2019-01-31
KR101607608B1 (ko) 2016-03-30

Similar Documents

Publication Publication Date Title
ES2695556T3 (es) Procedimiento de decodificación de información de movimiento
KR102211857B1 (ko) 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
AU2015200192B2 (en) Method and apparatus for encoding motion information and method and apparatus for decoding same