MX2015003512A - Dispositivo de codificacion de prediccion de video, metodo de codificacion de prediccion de video, dispositivo de decodificacion de prediccion de video y metodo de decodificacion de prediccion de video. - Google Patents

Dispositivo de codificacion de prediccion de video, metodo de codificacion de prediccion de video, dispositivo de decodificacion de prediccion de video y metodo de decodificacion de prediccion de video.

Info

Publication number
MX2015003512A
MX2015003512A MX2015003512A MX2015003512A MX2015003512A MX 2015003512 A MX2015003512 A MX 2015003512A MX 2015003512 A MX2015003512 A MX 2015003512A MX 2015003512 A MX2015003512 A MX 2015003512A MX 2015003512 A MX2015003512 A MX 2015003512A
Authority
MX
Mexico
Prior art keywords
reference samples
prediction
signal
intra
target block
Prior art date
Application number
MX2015003512A
Other languages
English (en)
Other versions
MX341412B (es
Inventor
Yoshinori Suzuki
Thiow Keng Tan
Choong Seng Boon
Original Assignee
Ntt Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ntt Docomo Inc filed Critical Ntt Docomo Inc
Publication of MX2015003512A publication Critical patent/MX2015003512A/es
Publication of MX341412B publication Critical patent/MX341412B/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Eye Examination Apparatus (AREA)
  • Optical Measuring Cells (AREA)
  • Picture Signal Circuits (AREA)

Abstract

Un dispositivo de decodificación incluye medios de decodificación para decodificar información de la dirección de la predicción intra-imagen de un bloque objetivo y datos de compresión de una señal residual, medios para la generación de la señal de predicción para generar una señal de predicción intra-imagen utilizando la información de la dirección y una muestra de referencia previamente reconstruida de un bloque adyacente, medios de restauración de la señal residual para restaurar una señal residual reconstruida del bloque objetivo, y medios de almacenamiento de bloques para restaurar y almacenar una señal de pixeles del bloque objetivo. Los medios para la generación de la señal de predicción derivan las muestras de referencia de un bloque previamente reconstruido próximo al bloque objetivo almacenado, seleccionan dos o más muestras de referencia clave, realizan un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y generan la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección de la predicción intra-imagen.

Description

DISPOSITIVO DE CODIFICACIÓN DE PREDICCIÓN DE VIDEO, MÉTODO DE CODIFICACIÓN DE PREDICCIÓN DE VIDEO, DISPOSITIVO DE DECODIFICACIÓN DE PREDICCIÓN DE VIDEO Y MÉTODO DE DECODIFICACIÓN DE PREDICCIÓN DE VIDEO Campo Téenico La presente invención se refiere a un dispositivo y método de codificación de predicción de imágenes en movimiento y a un dispositivo y método de decodificación de predicción de imágenes en movimiento, y más particularmente al procesamiento filtrante de muestras vecinas para utilizarse en la predicción intra-imagen.
Técnica Antecedente Las tecnologías de codificación de compresión se utilizan para transmitir y acumular eficientemente datos de imágenes en movimiento. MPEG-1 a 4 y H.261 a H.264 son tecnologías de codificación de vídeo ampliamente utilizadas.
En tales tecnologías de codificación de vídeo el procesamiento de codificación y el procesamiento de decodificación se realizan después de que una imagen que va a codificarse se divide en una pluralidad de bloques. En la codificación de predicción intra-imagen, se genera una señal de predicción utilizando una señal de imagen vecina previamente reconstruida (obtenida al restaurar los datos comprimidos de la imagen) ubicada dentro de la imagen actual en donde se incluye un bloque objetivo y posteriormente se obtiene una señal diferencial al restar la señal de predicción de la señal del bloque objetivo y codificarla. En la codificación de predicción entre-imágenes, que se refiere a una señal de imagen previamente reconstruida dentro de una imagen diferente de la imagen dentro de la cual se incluye el bloque objetivo, se lleva a cabo la compensación de movimiento, y se genera una señal de predicción. La señal de predicción se resta de la señal del bloque objetivo para generar una señal diferencial, y la señal diferencia se codifica.
Generalmente, en la codificación de predicción entre-imágenes (ínter predicción), se genera una señal de predicción al buscar las imágenes previamente reconstruidas para una señal que se asemeja a la señal de pixeles de un bloque que va a codificarse. Un vector de movimiento que representa la cantidad de desplazamiento espacial entre el bloque objetivo y la región formada por la señal buscada y la señal residual entre la señal de pixeles del bloque objetivo y la señal de predicción se codifican. La téenica para buscar los bloques respectivos para el vector de movimiento en esta forma se llama comparación por bloques.
La Figura 10 es un diagrama esquemático para explicar el proceso de comparación por bloques. Aquí, se describe el procedimiento para generar una señal de predicción con un ejemplo en el cual una imagen 701 incluye un bloque objetivo 702 a codificarse. Se ha reconstruido previamente una imagen de referencia 703. Una región 704 se ubica espacialmente en la misma posición que se ubica el bloque objetivo 702. En el proceso de comparación por bloques, se define una región de búsqueda 705 vecina a la región 704, y a partir de las señales de pixeles en la región de búsqueda, se va a detectar una región 706 que tiene la suma más baja de las diferencias absolutas de las señales de pixeles del bloque objetivo 702. La señal de la región 706 se vuelve una señal de predicción, y la cantidad de desplazamiento desde la región 704 hasta la región 706 se detecta como un vector de movimiento 707. Además, se utiliza comúnmente un método en el cual se identifica una pluralidad de imágenes de referencia 703 para cada bloque objetivo, se selecciona una imagen de referencia sobre la cual se lleva a cabo la comparación de bloques, y se genera información de la selección de la imagen de referencia. En H.264, para hacer frente a los cambios de características locales en las imágenes, se proporciona una pluralidad de tipos de predicción que se utilizan con diferentes tamaños de bloques cada uno para codificar un vector de movimiento. Los tipos de predicción de H.264 se describen por ejemplo en la Literatura de Patente 2.
H264 también lleva a cabo la codificación de predicción intra-imagen (intra predicción) en la cual se genera una señal de predicción al extrapolar, en direcciones predeterminadas, los valores de los pixeles previamente reconstruidos adyacentes a un bloque que va a codificarse. La Figura 11A-11I es un diagrama esquemático para explicar la predicción intra-imagen utilizada en ITU H.264. En la Figura 11(A), un bloque objetivo 802 es un bloque a codificarse, y un grupo de pixeles (grupo de muestra de referencia) 801 es de una región adyacente que incluye una señal de imagen previamente reconstruida en un procesamiento previo, y el grupo incluye los pixeles A hasta M adyacentes al límite del bloque objetivo 802.
En este caso, se genera una señal de predicción al extender del grupo de pixeles (grupo de muestra de referencia) 801 de los pixeles adyacentes inmediatamente por arriba del bloque objetivo 802 en la dirección descendente. En la Figura 11(B), se genera una señal de predicción al extender los pixeles previamente reconstruidos (I hasta L) ubicados a la izquierda de un bloque objetivo 804 en la dirección hacia la derecha. Una explicación detallada para generar una señal de predicción se da por ejemplo en la Literatura de Patente 1. La diferencia de la señal de pixeles del bloque objetivo se calcula para cada una de las nueve señales de predicción generadas como se muestra en las Figuras 11(A)-11(B). La señal de predicción que tiene el valor de diferencia más pequeño se selecciona como la señal de predicción óptima. Como se describe arriba, pueden generarse las señales de predicción (muestras intra predicción) al extrapolar los pixeles. La descripción anterior se proporciona en la Literatura de Patente 1 de abajo.
La predicción intra-imagen mostrada en la Literatura No de Patente 1 proporciona 25 tipos de métodos de generación de señal de predicción todos llevados a cabo en diferentes direcciones de muestras de referencia extensibles, además de los 9 tipos antes descritos (un total de 34 tipos).
En la Literatura No de Patente 1, a fin de suprimir las distorsiones en las muestras de referencia, las muestras de referencia se someten a un filtro de paso bajo antes que se genere una señal de predicción. Específicamente, un filtro 121 que tiene coeficientes de ponderación de 1:2:1 se aplica a las muestras de referencia antes de la predicción de extrapolación. Este procesamiento se llama intra-filtrado.
Con referencia a la Figura 7 y la Figura 8, se describe la predicción intra-imagen en la Literatura No de Patente 1. La Figura 7 muestra un ejemplo de la división de bloques. Se han reconstruido previamente los cinco bloques 220, 230, 240, 250 y 260 adyacentes a un bloque objetivo 210, que tiene un tamaño de bloque de las muestras NxN. Para la intra predicción del bloque objetivo 210, se utilizan las muestras de referencia denotadas como ref[x](x=0 hasta 4N). La Figura 8 muestra el flujo del proceso de la intra predicción. Primero, en la etapa 310, las muestras de referencia ref[x](x=0 hasta 4N) se derivan de una memoria en la cual un generador de señales de predicción para llevar a cabo el proceso de predicción intra-imagen almacena los pixeles reconstruidos. En la etapa, algunos de los bloques adyacentes pueden no haberse reconstruido debido al orden de codificación, y pueden no derivarse todas las muestras 4N+1 ref[x]. Si este es el caso, las muestras faltantes se sustituyen con muestras generadas mediante un proceso de relleno (se copian los valores de las muestras vecinas), mediante lo cual se preparan las muestras de referencia 4N+1. Los detalles del proceso de relleno se describen en la Literatura No de Patente 1. Después, en la etapa 320, el generador de señales de predicción lleva a cabo el proceso de filtrado sobre las muestras de referencia utilizando el filtro 121. Finalmente, en la etapa 330, el generador de señales de predicción predice una señal en el bloque objetivo mediante las extrapolaciones (en las direcciones de la predicción intra-imagen) y genera una señal de predicción (i.e., muestras de intra predicción).
Lista de Citas Literatura de Patente Literatura de Patente 1: Patente de Estados Unidos No. 6765964 Literatura de Patente 2: Patente de Estados Unidos No. 7003035 Literatura No de Patente Literatura No de Patente 1: B. Bross et al., "High efficiency video coding (HEVC) text specification draft 8" (Proyecto 8 de la especificación del texto de codificación de vídeo de alta eficiencia (HEVC)), Equipo de Colaboración Conjunta en la Codificación de Vídeo (JCT-VC) de ITU-T SG16 WP3 e ISO/IEC JTC1/SC29/WG11, JCTVC-J1003, 10a Reunión: Estocolmo, Suecia, del 11-20 de Julio de 2012.
SUMARIO DE LA INVENCIÓN Problema Téenico La Figura 9 muestra un ejemplo de una señal que representa una región plana en la cual son similares los valores de pixel. Cuando se codifican los valores de pixel originales 410 (valores muestra originales) mediante cuantificación aproximada, los valores reconstruidos 420 (valores muestra reconstruidos) en el bloque toman un valor constante, y aparece una distorsión similar a intervalo en el límite del bloque 430. Esta distorsión se conoce como un ruido de bloque y se elimina comúnmente al aplicar un filtro que elimina el ruido de bloque en la imagen reconstruida. Sin embargo, la muestra de referencia utilizada en la predicción intra-imagen es una señal preparada previamente a la aplicación del proceso de filtro para eliminar el ruido de bloque, de tal manera que el ruido de bloque restante en la muestra de referencia en el límite del bloque se propaga hacia la señal de predicción (muestras de intra predicción) del bloque objetivo a través de la predicción intra-imagen. El ruido de bloque que se ha propagado hacia la señal de predicción no puede eliminarse mediante un proceso de eliminación de ruido de bloque para una señal reconstruida y por lo tanto se propaga directamente hacia el grupo de muestras de referencia para el siguiente bloque objetivo.
En la Literatura de No Patente 1, se prepararon 34 diferentes tipos de direcciones de extrapolación en el método de extrapolación de predicción intra-imagen (en las direcciones de predicción intra-imagen), de tal manera que se propaga el ruido de bloque mientras cambian las direcciones. Como resultado, se produce una pluralidad de artefactos de contorno en la señal reconstruida de una región plana en una imagen. En particular, cuando se propaga el ruido hacia un bloque de gran tamaño, los artefactos de contorno se introducen a través de un gran bloque, dando un efecto visual desagradable.
El filtro 121 descrito en la Téenica Antecedente puede eliminar de manera efectiva el ruido dentro de las muestras de referencia pero no puede eliminar el ruido similar a intervalo como se ilustra en la Figura 9 debido a una serie de golpecitos cortos.
El objetivo de la presente invención es suprimir el ruido artificial tal como los artefactos de contorno antes descritos.
Solución al Problema Un dispositivo de codificación de predicción de imágenes en movimiento de acuerdo con un aspecto de la presente invención incluye medios de división de bloques para dividir una imagen de entrada en una pluralidad de bloques, medios de generación de la señal de predicción para generar, utilizando las muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos de los medios de división de bloques, una señal de predicción intra-imagen de un bloque que tiene una mayor correlación con el bloque objetivo. El dispositivo que codifica la predicción de imágenes en movimiento incluye además medios para la generación de la señal residual para generar una señal residual entre la señal de predicción del bloque objetivo y la señal de pixeles del bloque objetivo, medios de compresión de la señal residual para comprimir la señal residual generada por los medios para la generación de señal residual, medios de restauración de la señal residual para generar una señal residual reconstruida al restaurar la señal residual comprimida, medios de codificación para codificar los datos de compresión de la señal residual, y medios de almacenamiento de bloques para restaurar la señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. Los medios de generación de la señal de predicción derivan las muestras de referencia de los bloques previamente reconstruidos, almacenadas en los medios de almacenamiento de bloques, que se encuentra próximas al bloque objetivo, selecciona dos o más muestras de referencia clave de las muestras de referencia, realiza un proceso de interpolación entre las muestras de referencia clave para generar las muestras de referencia interpoladas, determina la dirección de la predicción intra-imagen, y genera la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección determinada de la predicción intra-imagen. Los medios de codificación codifican la información de la dirección de la dirección intra-imagen junto con los datos de compresión de la señal residual.
En el dispositivo que codifica la predicción de imágenes en movimiento antes descrito, los medios de generación de la señal de predicción pueden llevar a cabo de manera selectiva el proceso de interpolación de las muestras de referencia o un proceso de filtrado de las muestras de referencia, en base a una comparación entre las muestras de referencia clave y un umbral predeterminado.
En el dispositivo que codifica la predicción de imágenes en movimiento antes descrito, las muestras de referencia pueden ser tales muestras de referencia como se ubican al extremo del grupo de muestras de referencia, y el proceso de interpolación puede ser un proceso de interpolación bilineal realizado sobre las muestras de referencia entre las muestras de referencia clave.
Un dispositivo que decodifica la predicción de imágenes en movimiento de acuerdo con un aspecto de la presente invención incluye medios de descodificación para decodificar, a partir de los datos de compresión codificados para una pluralidad de bloques divididos, información de una dirección de la predicción intra-imagen a utilizarse en la predicción intra-imagen de un bloque objetivo que va a decodificarse y una señal residual comprimida, medios para la generación de la señal de predicción para generar una señal de predicción intra-imagen utilizando la información de la dirección de la predicción intra-imagen y las muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo, medios para la restauración de la señal residual para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y medios de almacenamiento de bloques para restaurar una señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo a utilizarse como muestras de referencia. Los medios de generación de señal de predicción derivan las muestras de referencia a partir de bloques previamente reconstruidos almacenados en los medios de almacenamiento de bloques, que se encuentran próximos al bloque objetivo, seleccionan dos o más muestras de referencia clave de las muestras de referencia, realizan un proceso de interpolación entre las muestras de referencia clave para generar las muestras de referencia interpoladas y generan la señal de predicción intra-imagen mediante la extrapolación de las muestras de referencia interpoladas en base a la dirección de la predicción intra-imagen.
En el dispositivo que decodifica la predicción de imágenes en movimiento antes descrito, los medios de generación de señal de predicción pueden llevar a cabo de manera selectiva un proceso de interpolación de las muestras de referencia o un proceso de filtrado de las muestras de referencia, en base a una comparación entre las muestras de referencia clave y un umbral predeterminado.
En el dispositivo que decodifica la predicción de imágenes en movimiento antes descrito, las muestras de referencia pueden ser tales muestras de referencia que se ubican en el extremo de un grupo de muestra de referencia y el proceso de interpolación puede ser un proceso de interpolación bilineal realizado sobre las muestras de referencia entre las muestras de referencia clave.
La presente invención puede tomarse en relación a un método de codificación de predicción de imágenes en movimiento, a un método de decodificación de predicción de imágenes en movimiento, a un programa de codificación de predicción de imágenes en movimiento, y a un programa de decodificación de predicción de imágenes en movimiento y puede describirse como sigue.
Un método de codificación de predicción de imágenes en movimiento de acuerdo con un aspecto de la presente invención se ejecuta mediante un dispositivo de codificación de predicción de imágenes en movimiento. El método de codificación de predicción de imágenes en movimiento incluye una etapa de división de bloques para dividir una imagen de entrada en una pluralidad de bloques, una etapa de generación de señal de predicción para generar, utilizando las muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos de la etapa de división de bloques, una señal de predicción intra-imagen de un bloque que tiene mayor correlación con el bloque objetivo, una etapa de generación de señal residual para generar una señal residual entre la señal de predicción del bloque objetivo y la señal de pixeles del bloque objetivo, una etapa de compresión de la señal residual para comprimir la señal residual generada en la etapa de generación de señal residual, una etapa de restauración de la señal residual para generar una señal residual reconstruida al restaurar la señal residual comprimida, una etapa de codificación para codificar la señal residual comprimida, y una etapa de almacenamiento de bloques para restaurar la señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo para utilizarse como las muestras de referencia. En la etapa de generación de la señal de predicción, las muestras de referencia se derivan de los bloques previamente reconstruidos, los cuales se almacenan y se encuentran próximos al bloque objetivo, se seleccionan dos o más muestras de referencia clave de las muestras de referencia, se lleva a cabo un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, se determina una dirección de la predicción intra-imagen, y se genera la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección determinada de la predicción intra-imagen. En la etapa de codificación, se codifica la información de la dirección de la predicción intra-imagen junto con los datos de compresión de la señal residual.
Un método de decodificación de predicción de imágenes en movimiento de acuerdo con un aspecto de la presente invención se ejecuta mediante un dispositivo de decodificación de la predicción de imágenes en movimiento. El método que decodifica la predicción de imágenes en movimiento incluye una etapa de decodificación para decodificar, a partir de los datos de compresión codificados para una pluralidad de bloques divididos, la información de una dirección de predicción intra-imagen que va a utilizarse en la predicción intra-imagen de un bloque objetivo que va a decodificarse y una señal residual comprimida, una etapa de generación de señal de predicción para generar una señal de predicción intra-imagen que utiliza la información de la dirección de predicción intra-imagen y las muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo, una etapa de restauración de señal residual para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y una etapa de almacenamiento de bloques para restaurar una señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. En la etapa de la generación de la señal de predicción, las muestras de referencia se derivan de los bloques previamente reconstruidos, que se almacenan y se encuentran próximos al bloque objetivo, se seleccionan dos o más muestras de referencia clave de las muestras de referencia se realiza un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y se genera la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección de la predicción intra-imagen.
Un programa que codifica la predicción de imágenes en movimiento de acuerdo con un aspecto de la presente invención hace que una computadora funcione como los medios de división de bloques para dividir una imagen de entrada en una pluralidad de bloques, medios para la generación de la señal de predicción para generar, utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos de los medios de división de bloques, una señal de predicción intra-imagen de un bloque que tiene una mayor correlación con el bloque objetivo, medios para la generación de la señal residual para generar una señal residual entre la señal de predicción del bloque objetivo y la señal de pixeles del bloque objetivo, medios de compresión de señal residual para comprimir la señal residual generada por los medios de generación de la señal residual, medios para la restauración de la señal residual para generar una señal residual reconstruida al restaurar la señal residual comprimida, medios de codificación para codificar los datos de compresión de la señal residual, y medios de almacenamiento de bloques para restaurar la señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como la muestra de referencia. Los medios de generación de señal de predicción derivan las muestras de referencia de los bloques previamente reconstruidos almacenados en los medios de almacenamiento de bloques, que se encuentran próximos al bloque objetivo, seleccionan dos o más muestras de referencia clave de las muestras de referencia, realizan un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, determinan una dirección de la predicción intra-imagen, y generan la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección determinada de la predicción intra-imagen. Los medios de codificación codifican información de la dirección de la dirección intra-imágenes junto con los datos de compresión de la señal residual.
Un programa que decodifica la predicción de imágenes en movimiento de acuerdo con un aspecto de la presente invención, hace que una computadora funcione como medios de decodificación para decodificar, a partir de los datos de compresión codificados para una pluralidad de bloques divididos, la información de una dirección de la predicción intra-imagen que va a utilizarse en la predicción intra-imagen de un bloque objetivo que va a decodificarse y una señal residual comprimida, medios de generación de señal de predicción para generar una señal de predicción intra-imagen utilizando la información de la dirección de la predicción intra-imagen y muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo, medios para la restauración de la señal residual para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y medios de almacenamiento de bloques para restaurar la señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como las muestras de referencia. Los medios de generación de señal de predicción derivan las muestras de referencia de los bloques previamente reconstruidos almacenados en los medios de almacenamiento de bloques, que se encuentran próximos al bloque objetivo, seleccionan dos o más muestras de referencia clave de las muestras de referencia, realizan un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y generan la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección de la predicción intra-imagen.
Efectos de la Invención Con el proceso de filtro aplicado sobre las muestras de referencia mediante interpolación bilineal de acuerdo con la presente invención, las señales en las muestras de referencia se hacen cambiando gradualmente al utilizar las muestras en ambos extremos de las muestras de referencia, suprimiendo mediante esto tal ruido artificial como los artefactos de contorno.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es un diagrama de bloques que muestra un dispositivo que codifica la predicción de imágenes en movimiento de acuerdo con una modalidad de la presente invención.
La Figura 2 es un diagrama de bloques que muestra un dispositivo que codifica la predicción de imágenes en movimiento de acuerdo con la modalidad de la presente invención.
La Figura 3 es un diagrama de flujo que muestra un método de predicción intra-imagen de acuerdo con la modalidad de la presente invención.
La Figura 4 es un diagrama de flujo que muestra otro ejemplo del método de predicción intra-imagen de acuerdo con la modalidad de la presente invención.
La Figura 5 es un diagrama que muestra una configuración de hardware de una computadora para ejecutar un programa almacenado en un medio de registro.
La Figura 6 es una vista general de la computadora para ejecutar un programa almacenado en un medio de registro.
La Figura 7 es un diagrama que ilustra un ejemplo de las muestras de referencia utilizadas en la predicción intra-imagen.
La Figura 8 es un diagrama de flujo que muestra un método de predicción intra-imagen en una téenica convencional.
La Figura 9 es un diagrama que ilustra la relación entre una señal original y una señal reconstruida en una región plana.
La Figura 10 es un diagrama esquemático para explicar un proceso de estimación de movimiento en la predicción intra-imagen.
La Figura 11A-11I es un diagrama esquemático para explicar la predicción intra-imagen mediante la extrapolación de las muestras de referencia.
La Figura 12 es un diagrama que ilustra otro ejemplo de las muestras de referencia utilizadas en la predicción intra-imagen.
La Figura 13 es un diagrama de flujo que ilustra un proceso en un generador de señales de predicción 103 en la Figura 1.
La Figura 14 es un diagrama de flujo que ilustra un proceso en un generador de señales de predicción 208 en la Figura 2.
La Figura 15 es un diagrama de flujo que muestra un segundo ejemplo diferente del método de predicción intra-imagen de acuerdo con la modalidad de la presente invención.
La Figura 16 es un diagrama de bloques que muestra una configuración de un programa que codifica la predicción de imágenes en movimiento.
La Figura 17 es un diagrama de bloques que muestra una configuración de un programa que decodifica la predicción de imágenes en movimiento.
MODALIDADES DE LA INVENCIÓN Las modalidades de la presente invención se describirán a continuación con referencia de la Figura 1 a la Figura 7 y de la Figura 13 a la Figura 17.
La Figura 1 es un diagrama de bloques que muestra un dispositivo 100 que codifica la predicción de imágenes en movimiento de acuerdo con una modalidad de la presente invención. Como se muestra en la Figura 1, el dispositivo 100 que codifica la predicción de imágenes en movimiento incluye una terminal de entrada 101, un divisor de bloques 102, un generador de señales de predicción 103, una memoria de cuadro 104, un sustractor 105, un transformador 106, un cuantificador 107, un cuantificador inverso 108, un transformador inverso 109, un adicionador 110, un codificador de entropía 111, una terminal de salida 112, una memoria de bloques 113, y un filtro de circuito cerrado 114. El sustractor 105, el transformador 106 y el cuantificador 107 funcionan como "medios de codificación" citados en las reivindicaciones. El cuantificador inverso 108, el transformador inverso 109, y el adicionador 110 funcionan como "medios de decodificación" citados en las reivindicaciones. La memoria de cuadro 104 funciona como los "medios de almacenamiento de imágenes", y la memoria de bloques 113 funciona como los "medios de almacenamiento de bloques".
Se describe a continuación, la operación del dispositivo 100 que codifica la predicción de imágenes en movimiento configurada como se describe arriba. La señal de una imagen en movimiento compuesta de una pluralidad de imágenes es la entrada hacia la terminal de entrada 101. El divisor de bloques 102 divide una imagen que va a codificarse en una pluralidad de regiones. En la modalidad de acuerdo con la presente invención, como se muestra en el Ejemplo en la Figura 7, no se limita el tamaño del bloque. Una variedad de tamaños y formas de bloques pueden definirse de manera coincidente en una imagen. Se describe el orden de codificación de bloques, por ejemplo en la Literatura de No Patente 1. Después, se genera una señal de predicción para una región que va a codificarse (de aquí en adelante llamada "bloque objetivo"). En la modalidad de acuerdo con la presente invención, se utilizan dos tipos de métodos de predicción, es decir, la predicción ínter-imágenes y la predicción intra-imagen. El proceso de la generación de señal de predicción en el generador de señales de predicción 103, se describe después utilizando la Figura 13.
El sustractor 105 sustrae una señal de predicción (a través de la línea L103) a partir de la señal de un bloque objetivo (a través de la línea L102) para generar una señal residual. El transformador 106 transforma en cosenos discretos la señal residual. El cuantificador 107 cuantifica cada coeficiente de transformación. El codificador de entropía 111 codifica los coeficientes de transformación cuantificados, y emite, en la terminal de salida 112, los coeficientes de transformación codificados junto con la información de predicción requerida para generar una señal de predicción.
A fin de realizar la predicción intra-imagen o la predicción ínter-imágenes sobre el bloque objetivo subsecuente, la señal comprimida del bloque objetivo se procesa y decodifica de manera inversa. Más específicamente, los coeficientes de transformación cuantificados se cuantifican de manera inversa mediante el cuantificador inverso 108 y después de esto, se transforma el coseno discreto de manera inversa por el transformador inverso 109 mediante lo cual se reconstruye la señal residual. El adicionador 110 agrega la señal residual reconstruida a la señal de predicción enviada a través de la línea L103 para reproducir la señal del bloque objetivo. La señal del bloque reconstruido se almacena en la memoria de bloques 113 para la predicción intra-imagen. Una imagen reconstruida formada de la señal reconstruida se almacena en la memoria de cuadro 104 después de que se elimina el ruido de bloque sufrido en la imagen reconstruida mediante el filtro de circuito cerrado 114.
Con referencia a la Figura 13, se explica el flujo del proceso de la señal de predicción realizado en el generador de señales de predicción 103. Primero, en la etapa S302, se genera la información de predicción requerida para la predicción ínter-imágenes. Específicamente, se utiliza como una imagen de referencia, la imagen reconstruida que se codificó previamente y después de esto se reconstruye. Se busca esta imagen de referencia para un vector de movimiento y una imagen de referencia que da una señal de predicción con la diferencia más pequeña del bloque objetivo. En este caso, el bloque objetivo se introduce a través de la línea L102, y la imagen de referencia se introduce a través a la línea L104. Se utiliza una pluralidad de imágenes previamente codificadas y reconstruidas como imágenes de referencia. Los detalles de esto son los mismos que en H.264 que es la téenica o método convencional mostrado en la Literatura de No Patente 1.
En la etapa S303, se genera la información de predicción requerida para la predicción intra-imagen. Como se muestra en la Figura 7, se utilizan los valores de pixel previamente reconstruidos espacialmente adyacentes al bloque objetivo para generar las señales de predicción en una pluralidad de direcciones de intra-predicción. Después, se selecciona la dirección de predicción (modo intra predicción) que da una señal de predicción con la diferencia más pequeña del bloque objetivo. Aquí, el generador de señales de predicción 103 genera una señal de predicción intra-imagen al adquirir las señales de pixeles previamente reconstruidas dentro de la misma imagen como las muestras de referencia de la memoria de bloques 113 a traves de la línea L113 y extrapolando estas señales.
Después, en la etapa S304, se selecciona un método de predicción para aplicarse al bloque objetivo a partir de la predicción ínter-imágenes y la predicción intra-imagen. Por ejemplo, se selecciona uno de los métodos de predicción que da un valor de predicción con una pequeña diferencia del bloque objetivo. De manera alternativa, los dos métodos de predicción pueden realizarse realmente hasta la terminación del procesamiento de codificación, y puede seleccionarse el que tenga un valor de evaluación más pequeño calculado a partir de la relación entre la cantidad de codificación producida y la suma de los valores absolutos de las imágenes de diferencia codificadas. La información de selección del método de predicción seleccionado se envía como la información requerida para generar una señal de predicción al codificador de entropía 111 a través de la línea L112 para codificarse y después emitirse desde la terminal de salida 112 (etapa S305).
Si el método de predicción seleccionado en la etapa S306 es la predicción ínter-imágenes, se genera una señal de predicción en la etapa S307 en base a la información de movimiento (el vector de movimiento y la información de la imagen de referencia). La señal de predicción de inter-imagen generada se emite hacia el sustractor 105 a través de la línea 103. En la etapa S308, la información de movimiento se envía como la información requerida para generar una señal de predicción hacia el codificador de entropía 111 a través de la línea L112 para la codificación y después se emite desde la terminal de salida 112.
Si el método de predicción seleccionado en la etapa S306 es la predicción intra-imagen, se genera una señal de predicción en la etapa S309 en base al modo intra predicción. La señal de predicción intra-imagen generada se emite hacia el sustractor 105 a través de la línea L103. En la etapa S310, se envía el modo intra predicción como la información requerida para generar una señal de predicción hacia el codificador de entropía 111 a través de la línea L112 para la codificación y después se emite desde la terminal de salida 112.
El método de codificación utilizado en el codificador de entropía 111 puede ser codificación aritmética o puede ser codificación de longitud variable.
La Figura 2 es un diagrama de bloques de un dispositivo 200 que decodifica la predicción de imágenes en movimiento de acuerdo con una modalidad de la presente invención. Como se muestra en la Figura 2, el dispositivo 200 que decodifica la predicción de imágenes en movimiento incluye una terminal de entrada 201, un analizador de datos 202, un cuantificador inverso 203, un transformador inverso 204, un adicionador 205, un generador de señales de predicción 208, una memoria de cuadro 207, una terminal de salida 206, un filtro de circuito cerrado 209, y una memoria de bloques 215. El cuantificador inverso 203 y el transformador inverso 204 funcionan como los "medios de decodificación" citados en las reivindicaciones. Puede utilizarse cualquier otro medio como el medio de decodificación. Puede omitirse el transformador inverso 204. La memoria de cuadro 207 funciona como los "medios de almacenamiento de imágenes", y la memoria de bloques 215 funciona como los "medios de almacenamiento de bloques".
Se describe a continuación, la operación del dispositivo 200 que decodifica la predicción de imágenes en movimiento configurada como se describe en lo anterior. Los datos comprimidos es decir, codificados por compresión por el método antes descrito se introducen desde la terminal de entrada 201. Los datos comprimidos incluyen una señal residual obtenida al predecir y codificar un bloque objetivo de una pluralidad de bloques de una imagen dividida, así como la información requerida para generar una señal de predicción. Como se muestra en el ejemplo en la Figura 7, no se limita el tamaño del bloque. Una variedad de tamaños y formas de bloques pueden definirse de manera coincidente en una imagen. El orden de decodificación de bloques se describe por ejemplo en la Literatura de no Patente 1. La información requerida para generar una señal de predicción incluye la información de selección del método de predicción y la información de movimiento (para la predicción inter imágenes) o el modo intra predicción (para la predicción intra-imagen).
El analizador de datos 202 decodifica la señal residual del bloque objetivo, la información requerida para generar una señal de predicción, y el parámetro de cuantificación de los datos comprimidos. El cuantificador inverso 203 cuantifica de manera inversa la señal residual decodificada del bloque objetivo en base al parámetro de cuantificación (a través de la línea L202). El transformador inverso 204 trasforma además de manera inversa por coseno discreto la señal residual cuantificada inversamente. Como resultado, se reconstruye la señal residual. Después, la información requerida para generar una señal de predicción se envía hacia el generador de señales de predicción 208 a través de la línea L206. El generador de señales de predicción 208 genera una señal de predicción del bloque objetivo en base a la información requerida para generar una señal de predicción. Se describe posteriormente un proceso para generar una señal de predicción en el generador de señales de predicción 208 utilizando la Figura 14. Se envía la señal de predicción generada al adicionador 205 a través de la línea L208 y se agrega a la señal residual reconstruida. La señal del bloque objetivo se reconstruye de este modo y se emite hacia el filtro de circuito cerrado 209 a través de la línea L205 y, al mismo tiempo, se almacena en la memoria de bloques 215 para utilizarse para la predicción intra-imagen de bloques subsecuentes. El filtro de circuito cerrado 209 elimina el ruido de bloque de la señal reconstruida introducida a través de la línea L205. La imagen reconstruida que tiene el ruido de bloque eliminado se almacena en la memoria de cuadro 207 como una imagen reconstruida a utilizarse para decodificar y reproducir las imágenes subsecuentes.
El flujo del procesamiento de la señal de predicción realizado en el generador de señales de predicción 208 se describe utilizando la Figura 14. Primero, en la etapa S402, se deriva el método de predicción decodificado por el analizador de datos 202.
Si el método de predicción decodificado es la predicción ínter-imágenes (etapa S403), la información de movimiento (vector de movimiento y la información de imagen de referencia) decodificada por el analizador de datos 202 se deriva (etapa S404). Se tiene acceso a la memoria de cuadro 207 en base a la información de movimiento para derivar una señal de referencia de la pluralidad de imágenes de referencia, y se genera (etapa S405) una señal de predicción.
Si el método de predicción decodificado es la predicción intra-imagen (etapa S403), se deriva (etapa S406) el modo intra predicción decodificado por el analizador de datos 202. Se tiene acceso a la memoria de bloques 215 para derivar las señales de pixeles previamente reconstruidas ubicadas adyacentes al bloque objetivo como muestras de referencia, y se genera una señal de predicción en base al modo intra predicción (etapa S407). La señal de predicción generada se emite hacia el adicionador 205 a través de L208.
El método de decodificación utilizado en el analizador de datos 202 puede ser la decodificación aritmética o puede ser la decodificación de longitud variable.
Después, el método de predicción intra-imagen en la modalidad de la presente invención se describe utilizando la Figura 3 y la Figura 7. Específicamente, se describen los detalles de la etapa S309 en la Figura 13 y la etapa S407 en la Figura 14, los cuales incluyen un método para estimar las muestras de intra predicción en un bloque objetivo mediante la extrapolación en base al modo intra predicción utilizando las muestras de referencia derivadas de la memoria de bloques 113 en la Figura 1 o la memoria de bloques 215 en la Figura En la presente invención, a fin de suprimir el ruido tal como los artefactos de contorno previamente descritos en la sección de Problema Téenico, se aplica un proceso de interpolación bilineal a un grupo de muestras de referencia utilizadas en la predicción intra-imagen con respecto al bloque que sufre de artefactos de contorno. Se suprime la apariencia del ruido similar a intervalo en el límite del bloque del grupo de muestras de referencia al hacer que cambie suavemente la señal del grupo de muestras de referencia.
El proceso de interpolación bilineal aplicado al grupo de muestras de referencia se describe utilizando la Figura 7. Cuando un bloque objetivo 210 tiene un tamaño de bloque de NxN muestras, el grupo de muestras de referencia 270 cercano de 4N+1 muestras de referencia (ref[x](x=0 a 4N)) se forma con las señales previamente reconstruidas que pertenecen a cinco bloques previamente reconstruidos 220, 230, 240, 250 y 260. En la presente modalidad, tres muestras de referencia ubicadas en los extremos del grupo de muestras de referencia 270, es decir, la muestra de referencia en la parte inferior izquierda BL = ref[0] y la muestra de referencia arriba a la derecha AR = ref [4N], y la muestra de referencia arriba a la izquierda AL = ref [2N] ubicada al centro del grupo de muestras de referencia 270 y superior a la izquierda del bloque objetivo se definen como las muestras de referencia clave de la interpolación bilineal. Aquí, las muestras de referencia 4N+1 se interpolan como sigue. ref'[0] = ref[0] (1) ref' [i] = BL + ( i* (AL-BL) + N)/2N (i=l a 2N-1) (2) ref' [2N] = ref [2N] (3) ref' [2N + i] = AL + (i*(AR-AL) + N) / 2N (i=l a 2N-1) (4) ref' [4N] = ref [4N] (5) en donde, ref'[x] (x = 0 a 4N) representa los valores de las muestras de referencia interpoladas. Las Ecuaciones (2) y (4) pueden transformarse a la Ecuación (2)' y (4)' respectivamente. ref' [i] = ( ( 2N- i ) *BL + i*AL + N) / 2N (i = l a 2N-1) (2) ' ref' [2N+i] = ( (2N-i) *AL + i*AR+N) /2N (i=l a 2N-1) (4) ' Los valores de muestra de referencia entre BL y Al se generan con las muestras de referencia clave BL y AL mediante interpolación bilineal, y los valores de muestra de referencia entre AL y AR se generan con las muestras de referencia clave AL y AR mediante interpolación bilineal, dando como resultado que los niveles de los valores de muestras de referencia interpolados se hacen que cambien suavemente. Como resultado, puede suprimirse la propagación del ruido de bloque a la señal de predicción.
A continuación se describen los criterios para determinar si debe aplicarse la interpolación bilineal a las muestras de referencia, utilizando la Figura 7. En la presente modalidad, la determinación se hace utilizando las tres muestras de referencia clave y dos muestras de referencia en el límite de bloque, y dos umbrales. UMBRALJSUPERIOR y UMBRAL_IZQUIERDO son los umbrales utilizados para determinar si debe aplicarse la interpolación bilineal a las muestras de referencia ref[x] (x=2N+l a 4N-1) sobre la posición superior y las muestras de referencia ref[x] (x=l a 2N-1) sobre la posición izquierda respectivamente, con respecto al bloque objetivo. La interpolación bilineal se aplica a la muestra de referencia que satisfaces los criterios de determinación.
En la presente modalidad, se utilizan los criterios de determinación de abajo. Interpolar_Superior e Interpolar_Izquierdo en las dos ecuaciones de abajo son valores Booleanos. Cuando se satisface el lado derecho, se mantiene (1) verdadero, y se aplica la interpolación bilineal. Cuando no se satisface el lado derecho, se mantiene (0) falso, y se aplica intra filtraje mediante el filtro 121 convencional.
Interpolar_Izquierdo=abs(BL+AL-2*ref[N])<UMBRAL_IZQUIERDO (6) Interpolar_Superior=abs(AL+AR-2*ref[3N])<UMBRAL_SUPERIOR (7) Cuando los valores de BL, AL, y la ref[3N] se encuentran sobre una línea recta, el valor de BL+AL-2* ref[N] es cero. De manera similar, cuando los valores de AL, AR, y ref[3N] se encuentran en una línea recta, el valor de AL+AR-2* ref[3N] es también cero. En otras palabras, las dos ecuaciones anteriores comparan la magnitud de la desviación de ref[N] desde la línea recta que conecta BL y AL y la magnitud de la desviación de la ref[3N] de la línea recta que conecta AL y AR, con los umbrales respectivos. Si las dos desviaciones calculadas son más pequeñas que el umbral correspondiente UMBRAL_SUPERIOR o UMBRAL_IZQUIERDO, el valor Booleano (Interpolar_Superior o Interpolar_Izquierdo) es verdadero, y se aplica la interpolación bilineal a la muestra de referencia. En las Ecuaciones (6) y (7), abs(x) calcula el valor absoluto de x.
Los valores de los dos umbrales (UMBRAL_SUPERIOR y UMBRAL_IZQUIERDO) pueden estar pre-establecidos a valores fijos, o puede codificarse para cada cuadro o para cada porción que tenga una pluralidad de bloques juntos, y decodificados por el decodificador. Los valores de los dos umbrales pueden codificarse para cada bloque y decodificarse mediante el decodificador. En la Figura 2, se decodifican los dos umbrales por el analizador de datos 202 y se emiten hacia el generador de señales de predicción 208 para utilizarse en la generación de una señal de predicción intra-imagen detallada abajo en la Figura 3 y la Figura 4.
La Figura 3 muestra un diagrama de flujo de un proceso para estimar las muestras de intra predicción mediante la extrapolación (en las direcciones de predicción intra-imagen). Primero, en la etapa S510, el generador de señales de predicción (103 o 208, el numeral de referencia se omite de aquí en adelante) deriva las muestras de referencia ref[x] (x=0 a 4N) como se muestra en el grupo de pixeles 270 en la Figura 7 de la memoria de bloques (113 o 215, el numeral de referencia se omite de aquí en adelante). Si los bloques cercanos aún no se han reconstruido debido al orden de codificación u otras razones, y no pueden derivarse todas las muestras 4N+1, las muestras faltantes se sustituyen mediante el proceso de relleno (se copian los valores de las muestras vecinas), mediante lo cual se preparan las muestras de referencia 4N+1. Se describen los detalles del proceso de relleno en la Literatura de no Patente 1. Después, en la etapa 560, se calculan dos valores Booleanos Interpolar_Superior e Interpolar_Izquierdo con las Ecuaciones (6) y (7).
Después, en la etapa 520, el generador de señales de predicción determina si el bloque objetivo satisface los criterios de determinación para aplicar la interpolación bilineal. Específicamente, se determina si el tamaño del bloque objetivo es mayor que un M predeterminado, y también se determina si los Interpolar_Superior e Interpolar_Izquierdo calculados ambos son verdaderos. La razón por la cual se establece el tamaño de bloque como un criterio de determinación se debe al problema de los artefactos de contorno que probablemente se presenta en un bloque de un gran tamaño. La prueba para determinar si el tamaño de un bloque es mayor que el valor M grande ayuda a evitar realizar cambios innecesarios en las muestras de referencia.
Si se satisfacen los dos criterios de determinación (tamaño de bloque >=M e Interpolar_Superior== verdadero e Interpolar_Izquierdo==verdadero), el proceso procede a la etapa 530. Si no se satisface, el proceso procede a la etapa 540. En la etapa 530, el proceso de interpolación bilineal mostrado por las Ecuaciones (1) a (5) se aplica a las muestras de referencia ref[x] (x=0 a 4N) para generar las muestras de referencia interpoladas ref'[x] (x=0 a 4N). En la etapa 540, de acuerdo con las Ecuaciones (8) y (9), se aplica intra filtraje por el filtro 121 a las muestras de referencia ref[x] (x=0 a 4N). ref'[i] = ref[i] (i=0 y 4N) (8) ref'[i] = ref[i-l] + 2* ref[i] + ref[i+1]+2)/4 (i=l a 4N-1) (9), en donde ref'[x] (x=0 a 4N) representa los valores de las muestras de referencia filtradas.
Finalmente, en la etapa 550, las muestras de intra predicción del bloque objetivo se estiman mediante la extrapolación (en la dirección de la predicción intra-imagen) utilizando el modo intra predicción ya determinado y las muestras de referencia interpoladas o filtradas ref'[x](x=0 a 4N).
La Figura 4 ilustra además los detalles de la Figura 3 y muestra un diagrama de flujo de un proceso para estimar la muestra de intra predicción mediante la extrapolación (en la dirección de la predicción intra-imagen) en un caso en donde la conmutación entre la interpolación bilineal y el filtro 121 se lleva a cabo por separado y de manera independiente para las muestras de referencia izquierdas (ref[x], X=0 a 2N) y las muestras de referencia superiores (ref[x], x=2N a 4N). Primero, en la etapa 610, el generador de señales de predicción (103 o 208, el numeral de referencia se omite de aquí en adelante) deriva las muestras de referencia ref[x] (x=0 a 4N) como se muestra en el grupo de pixeles 270 en la Figura 7 desde la memoria de bloques (113 a 215, el numeral de referencia se omite de aquí en adelante). Si los bloques cercanos aún no se han reconstruido debido al orden de codificación u otras razones. y no pueden derivarse todas las muestras de referencia 4N+1, se sustituyen las muestras faltantes mediante el proceso de relleno (se copian los valores de las muestras vecinas), mediante lo cual se preparan las muestras de referencia 4N+1. Los detalles del proceso de relleno se describen en la Literatura de no Patente 1.
Después, en la etapa 680, los dos valores Booleanos Interpolar_Superior e Interpolar_Izquierdo se calcularon con las Ecuaciones (6) y (7).
Después, en la etapa 620, el generador de señales de predicción determina si el bloque objetivo satisface los criterios para aplicar la interpolación bilineal. Específicamente, se determina si el tamaño del bloque objetivo es mayor que el valor M predeterminado, y también se determina si al menos uno del Interpolar_Superior e Interpolar_Izquierdo calculado es verdadero. Si se satisfacen estos dos criterios de determinación, (tamaño de bloque >=M e Interpolar_Superior==verdadero o Interpolar_Izquierdo==verdadero), el proceso procede a la etapa 625. Si no se satisfacen, el proceso procede a la etapa 660. En la etapa 660, se aplica el intra filtraje mediante el filtro 121 al grupo de muestras de referencia con las Ecuaciones (8) y (9).
En la etapa 625, se determina si se satisface el criterio de determinación, como se muestra en la Ecuación (6), para aplicar la interpolación bilineal para las muestras de referencia izquierdas. Específicamente, si el Interpolar_Izquierdo es verdadero (1), el proceso procede a la etapa 630, y se aplica el proceso de interpolación bilineal mostrado en las Ecuaciones (1) y (2) a las muestras de referencia ref[x] (x=0 a 2N) para generar las muestras de referencia interpoladas ref'[x] (x=0 a 2N). Si no se satisface el criterio de determinación en la Ecuación (6), el proceso procede a la etapa 635, y se aplica el intra filtraje por el filtro 121 a las muestras de referencia izquierdas ref[x] (x=0 a 2N) con las Ecuaciones (10) y (11). ref'[0] = ref[0] (10) ref'[i] = (ref[i-l]+2* ref[i]+ ref[i-1]+2)/4 (i=l a 2N - 1) (11), en donde ref[x] (x=0 a 2N) representa los valores de las muestras de referencia filtradas.
Después, en la etapa 640, se determina si se satisface el criterio de determinación, como se muestra en la Ecuación (7), para aplicar la interpolación bilineal para las muestras de referencia superiores. Específicamente, si Interpolar_Superior es verdadero (1), el proceso procede a la etapa 650, y se aplica el proceso de interpolación bilineal a las muestras de referencia superiores ref[i] (i=2N+l a 4N) con las Ecuaciones (3), (4) y (5). Si no se satisfacen los criterios de determinación en la Ecuación (7), el proceso procede a la etapa 655, y se aplica el intra filtraje mediante el filtro 121 a las muestras de referencia superiores ref[x] (x=2N+l a 4N) en base a las Ecuaciones (12), (13, y (14). ref'[2N] = ref[2N] (12) ref ' [i] = (ref [ i - 1 ] +2*ref [i] + ref [i + 1] +2 ) /4 ( i = 2N+l a 4N-1) ( 13 ) ref ' [4N] = ref [4N] (14) , en donde ref ' [x] (x=2N+l a 4N) representa los valores de los valores de referencia filtrados .
Finalmente, en la etapa 670, se estiman las muestras de intra predicción del bloque objetivo mediante la extrapolación (en la dirección de la predicción intra-imagen) utilizando el modo intra predicción ya determinado y las muestras de referencia interopladas o filtradas ref'[x] (x=0 a 4N). Para la extrapolación, cuando se proyecta una línea en la dirección de intra predicción hacia las muestras de referencia interpoladas o filtradas desde la posición de la muestra en el bloque objetivo que va a extrapolarse, se utilizan las muestras de referencia interpoladas o filtradas que se ubican próximas a la línea proyectada.
Un programa de codificación de predicción de imágenes en movimiento para hacer que una computadora funcione como el dispositivo 100 que codifica la predicción de imágenes en movimiento antes descrito, puede proporcionarse en un medio de registro. De manera similar, un programa de decodificación de predicción de imágenes en movimiento para hacer que una computadora funcione como el dispositivo 200 que decodifica la predicción de imágenes en movimiento antes descrito, puede proporcionarse en un medio de registro. Ejemplos del medio de registro incluyen un medio de registro tal como una memoria USB, un disco flexible, un CD-ROM, un DVD o un ROM, y una memoria semiconductora.
Por ejemplo, como se muestra en la Figura 16, un programa P100 de codificación de predicción de imágenes en movimiento incluye un módulo P101 de división de bloques, un módulo P102 de generación de señal de predicción, un módulo P103 de generación de señal residual, un módulo P104 de compresión de señal residual, un módulo P105 de restauración de señal residual, un módulo P106 de codificación y un módulo P107 de almacenamiento de bloques.
Por ejemplo, como se muestra en la Figura 17, un programa P200 de decodificación de predicción de imágenes en movimiento incluye un módulo P201 de decodificación, un módulo P202 de generación de la señal de predicción, un módulo P203 de restauración de la señal residual, y un módulo P204 de almacenamiento de bloques.
El programa P100 de codificación de predicción de imágenes en movimiento o el programa P200 de decodificación de predicción de imágenes en movimiento configurado de esta manera se almacena en un medio de registro 10 mostrado en la Figura 5 y la Figura 6 descrito más adelante y se ejecuta por una computadora descrita más adelante.
La Figura 5 es un diagrama que muestra una configuración de hardware de una computadora 30 para ejecutar un programa almacenado en un medio de registro, y la Figura 6 es una vista general de la computadora 30 para ejecutar un programa almacenado en un medio de registro. La computadora 30 referida en general aquí incluye un reproductor de DVD, un decodificador, un teléfono móvil, y lo similar, que se equipan con un CPU para realizar el procesamiento de información o control mediante software.
Como se muestra en la Figura 6, la computadora 30 incluye un lector 12 tal como una unidad de disco flexible, una unidad CD-ROM, o una unidad DVD, una memoria de trabajo (RAM) 14 que tiene un Sistema Operativo residente, una memoria 16 para almacenar un programa almacenado en el medio de registro 10, un dispositivo de visualización 18 tal como una pantalla, un ratón 20 y un teclado 22 que sirven como dispositivos de entrada, un dispositivo de comunicación 24 para transmitir/recibir datos, y un CPU 26 para controlar la ejecución de un programa. Cuando se inserta el medio de registro 10 en el lector 12, la computadora 30 puede tener acceso al programa de codificación de predicción de imágenes en movimiento almacenado en el medio de registro 10 del lector 12 y puede operar como el dispositivo 100 que codifica la predicción de imágenes en movimiento antes descrito con el programa de codificación de predicción de imágenes en movimiento. De manera similar, cuando se inserta el medio de registro 10 en el lector 12, la computadora 30 puede tener acceso al programa de decodificación de predicción de imágenes en movimiento almacenado en el medio de registro 10 del lector 12 y puede operar como el dispositivo 200 que decodifica la predicción de imágenes en movimiento antes descrito con el programa de decodificación de predicción de imágenes en movimiento.
La presente invención puede tener las siguientes modificaciones: (A) Criterios de Determinación para Aplicar la Interpolación Bilineal Los criterios de determinación para aplicar la interpolación bilineal no se limitan al método tratado en la modalidad anterior. Por ejemplo, suponiendo que el resultado de la determinación para aplicar la interpolación sea siempre verdadero, pueden omitirse las etapas 520, 620, 625 y 640.
En este caso, el proceso de interpolación se aplica siempre en lugar del proceso de filtraje por el filtro 121.
Puede agregarse el modo intra predicción a los criterios de determinación. Por ejemplo, los artefactos de contorno en el límite del bloque se mitigan por un proceso para eliminar el ruido de bloque, y por lo tanto, el resultado de la determinación para aplicar el proceso de interpolación puede ser siempre falso cuando la dirección de predicción del proceso de extrapolación es vertical u horizontal.
Puede eliminarse la prueba del tamaño de bloque de los criterios de determinación. Puede utilizarse la correlación del tamaño de bloque entre el bloque objetivo y el bloque cercano como el criterio de determinación en lugar del tamaño de bloque del bloque objetivo. En el ejemplo en la Figura 7, el tamaño de bloque del bloque 260 ubicado adyacente a la izquierda del bloque objetivo 210 es más grande que el bloque objetivo 210. En este caso, no se presenta el ruido de bloque alrededor de ref[N]. Cuando el tamaño de bloque del bloque cercano es más grande que el bloque objetivo en esta manera, pueden ser falsos los criterios de determinación para aplicar la interpolación independientemente del resultado en la Ecuación (6) o (7). Por el otro lado, los bloques 230, 240, y 250 ubicados adyacentes por arriba del bloque objetivo 210 son más pequeños que el bloque objetivo 210. En este caso, se determina la aplicación de la interpolación dependiendo del resultado de la Ecuación (6) o (7) debido a que es posible que se presente alrededor un ruido de bloque ref[3N] o ref[2N+N/2]. Puede utilizarse la correlación en el tamaño de bloque entre el bloque objetivo y el bloque cercano como un criterio de determinación junto con el tamaño de bloque del bloque objetivo.
Los umbrales (UMBRAL_SUPERIOR y UMBRAL_IZQUIERDO) en las Ecuaciones (6) y (7) pueden definirse por separado para diferentes tamaños de bloque y formas de bloque (diferencias en los tamaños vertical y horizontal del bloque) o diferentes modos de intra predicción y codificarse y reconstruirse por el decodificador. De manera alternativa, los valores de UMBRAL_SUPERIOR y UMBRAL_IZQUIERDO pueden establecerse al mismo valor, solo uno de los cuales se codifica y decodifica por el decodificador. En el decodificador, el umbral reconstruido por el analizador de datos 202 en la Figura 2 se introduce al generador de señales de predicción 208. En el generador de señales de predicción 208, se calculan los valores del Interpolar_Superior e Interpolar_Izquierdo en base al umbral de entrada (etapa 560 en la Figura 3 o etapa 680 en la Figura 4).
En lugar de proporcionar los criterios de determinación en las etapas 520, 620, 625 y 640, el resultado de la determinación puede incluirse en la corriente de bits que va a codificarse y decodificarse por el decodificador. En este caso, en el generador de señales de predicción 103 en la Figura 1, los valores (0 o 1) de Interpolar_Superior e Interpolar_Izquierdo, los dos valores se obtienen en base al tamaño del bloque objetivo y los resultados en la Ecuación (6) y (7) se codifican como la información de predicción necesaria para predecir cada bloque o cada grupo de bloques que consiste de una pluralidad de bloques. En otras palabras, esos valores se envían al codificador de entropía 11 a través de la línea L112 para codificación y después se emiten de la terminal de salida 112. Cuando se derivan los valores (0 o 1) de Interpolar_Superior e Interpolar_Izquierdo, puede utilizarse la correlación del tamaño de bloque entre el bloque objetivo y el bloque cercano y el tamaño del bloque objetivo, y el modo intra predicción como se describe arriba.
En el analizador de datos 202 en la Figura 2, se decodifican los valores de Interpolar_Superior e Interpolar_Izquierdo para cada bloque o para cada grupo de bloques que consiste de una pluralidad de bloques y se introducen al generador de señales de predicción 208 Estos dos valores pueden codificarse y decodificarse por separado, o los dos valores pueden codificarse y decodificarse como un conjunto.
El proceso del método de predicción intra-imagen realizado en el generador de señales de predicción 208 en la Figura 2 se describe utilizando la Figura 15. En este caso, la Figura 15 reemplaza la Figura 4. En la Figura 14, en la etapa S406, se derivan los valores de Interpolar_Superior e Interpolar_Izquierdo decodificados junto con el modo intra predicción. Primero, en la etapa 710, el generador de señales de predicción (103 o 208, el numeral de referencia se omite de aquí en adelante) deriva las muestras de referencia ref[x] (x=0 a 4N), como se muestra en el grupo de pixeles 270 en la Figura 7, de la memoria de bloques (113 o 215, el numeral de referencia se omite de aquí en adelante). Si los bloques cercanos aún no se han reconstruido debido al orden de codificación u otras razones, no pueden derivarse todas las muestras de referencia 4N+1, las muestras faltantes se sustituyen a través del proceso de relleno (se copian los valores de las muestras vecinas), mediante lo cual se preparan las muestras de referencia 4N+1. Los detalles del proceso de relleno se describen en la Literatura de no Patente 1.
Después, en la etapa 790, se derivan los valores de Interpolar_Superior e Interpolar_Izquierdo. En la etapa 720, el generador de señales de predicción determina ya sea si el Interpolar_Superior o el valor Interpolar_Izquierdo tiene un valor "1". Si cualquiera tiene un valor "1", el proceso procede a la etapa 725. Si no se satisface, el proceso procede a la etapa 760. En la etapa 760, se aplica el intra filtraje por el filtro 121 al grupo de muestras de referencia con las Ecuaciones (8) y (9).
En la etapa 725, si el valor de Interpolar_Izquierdo es "1", el proceso procede a la etapa 730, y se aplica el proceso de interpolación bilineal mostrado en las Ecuaciones (1) y (2) a las muestras de referencia ref[x] (x=0 a 2N) para generar las muestras de referencia interpoladas ref'[x] (x=0 a 2N). Si el valor de Interpolar_Izquierdo es "0", el proceso procede a la etapa 735, y se aplica el intra filtraje por el filtro 121 a las muestras de referencia izquierda ref[x] (x=0 a 2N) con las Ecuaciones (10) y (11).
Después, en la etapa 740, si el valor de Interpolar_Superior es "1", el proceso procede a la etapa 750, y se aplica el proceso de interpolación bilineal a las muestras de referencia superiores ref[i] (i=2N+l a 4N) con las Ecuaciones (3), (4) y (5). Si el valor de Interpolar_Superior es "0", el proceso procede a la etapa 755, y se aplica el intra filtraje por el filtro 121 a las muestras de referencia izquierdas ref[x] (x=2N+l a 4N) con las Ecuaciones (12), (13) y (14).
Finalmente, en la etapa 770, las muestras de intra predicción del bloque objetivo se estiman por la extrapolación (en la dirección de la predicción intra-imagen) utilizando el modo intra predicción decodificado y las muestras de referencia interpoladas o filtradas ref'[x] (x=0 a 4N).
(B) Proceso de Interpolación En la descripción anterior, se utiliza la interpolación bilineal en el proceso de interpolación. Sin embargo, puede utilizarse otro proceso de interpolación siempre y cuando pueda eliminarse el ruido en el límite del bloque. Por ejemplo, pueden reemplazarse todas las muestras de referencia con el valor promedio de las muestras de referencia clave. El método del proceso de interpolación puede cambiarse de acuerdo al tamaño del bloque o el tipo de predicción intra-imagen. El método del proceso de interpolación a aplicarse puede incluirse en la corriente de bits que va a codificarse y decodificarse.
(C) Flujo del Proceso de Predicción intra-imagen de las Muestras de Referencia El flujo del proceso para estimar las muestras de intra predicción mediante extrapolación (en la dirección de la predicción intra-imagen) no se limita al procedimiento en la Figura 4. Por ejemplo, las etapas 625, 630 y 635 y las etapas 640, 650 y 655 pueden cambiarse en su orden. La Ecuación (3) y la Ecuación (12) pueden llevarse a cabo no en las etapas 650 y 655 sino en las etapas 630 y 635. Ya que el proceso resulta de las Ecuaciones (1), (3) y (5) y las Ecuaciones (10), (12) y (14) son las mismas, pueden llevarse a cabo juntas inmediatamente antes de la etapa 625 (entre las etapas 620 y 625) o inmediatamente después de las etapas 650 y 655 (entre la etapa 650 o 655 y la etapa 670).
Los criterios de determinación en la etapa 620 pueden solo incluir el tamaño de bloque. En este caso, la Ecuación (12) puede reemplazarse con las Ecuaciones (15) y (16) debido a que el resultado del proceso es el mismo que el de la Figura 4. ref ' [2N] = ref [2N] si Interpolar_Superior==verdadero ||Interpolar_Izquierdo ==verdadero (15) ref'[2N]=(ref[2N-1]+2*ref[2N]+ref[2N+1]+2)/4 diferentes (16), en donde ref'[2N] representa los valores de la muestra de referencia filtrados.
(D) Tamaño de Bloque En la descripción anterior, el bloque objetivo es un bloque cuadrado. El proceso de interpolación para las muestras de referencia de acuerdo con la presente invención puede aplicarse a un bloque no cuadrado. Un ejemplo del bloque objetivo 290 de un tamaño de bloque de Nx2N se muestra en la Figura 12. En este caso, el número de ref[x] es 3N+1.
(E) Muestra de referencia clave En la descripción anterior, las tres muestras de referencia clave se ubican en los extremos y el centro del grupo de muestras de referencia. Sin embargo, el número y la posición no se limitan a eso. Por ejemplo, el número o posición puede cambiarse de acuerdo con el tamaño del bloque de referencia o la correlación entre el bloque de referencia y el bloque cercano. El número y posición de las muestras de referencia clave pueden también incluirse en la corriente de bits que va a codificarse y decodificarse. Las tres muestras de referencia clave en los extremo y el centro del grupo de muestras de referencia pueden establecerse como predeterminados, y si utilizan los predeterminados u otras muestras de referencia clave pueden codificarse como información de instrucción y decodificarse. En el analizador de datos 202 en la Figura 2, se actualizan las muestras de referencia clave. Ya que se actualizan las muestras de referencia clave, ref[N+N/2] y ref[2N+N/2] pueden agregarse en la Figura 7 o pueden utilizarse en lugar de ref[2N]. De manera alternativa, la ref[N/2] y la ref[3N+N/2] pueden utilizarse en lugar de ref[0] y ref[4N], y puede aplicarse el filtro 121 a ref[1] hasta ref[N/2-l] y ref[3N+N/2] hasta ref[4N-1].
(F) Ecuaciones de Criterios de Determinación Las ecuaciones de determinación utilizadas en las etapas 520, 620, 625 y 640 no se limitan a las Ecuaciones (6) y (7). Por ejemplo, ref[N+l] y ref[3N+1] pueden utilizarse en lugar de ref[N] y ref[3N] en la Figura 7.
Lista de los Signos de Referencia 100: dispositivo que codifica la predicción de imágenes en movimiento; 101: terminal de entrada; 102: divisor de bloques; 103: generador de señales de predicción; 104: memoria de cuadro; 105: sustractor; 106: transformador, 107: cuantificador; 108: cuantificador inverso; 109: transformador inverso; 110: adicionador; 111: codificador de entropía; 112: terminal de salida; 113: memoria de bloques; 114: filtro de circuito cerrado; 200: dispositivo que decodifica la predicción de imágenes en movimiento; 201: terminal de entrada; 202: analizador de datos; 203: cuantificador inverso; 204: transformador inverso; 205: adicionador; 206: terminal de salida; 207: memoria de cuadro; 208: generador de señales de predicción; 209: filtro de circuito cerrado; 215: memoria de bloques.

Claims (8)

REIVINDICACIONES
1. Un dispositivo que codifica la predicción de imágenes en movimiento que comprende: medios de división de bloques para dividir una imagen de entrada en una pluralidad de bloques; medios para la generación de la señal de predicción para generar una señal de predicción intra-imagen de un bloque que tiene alta correlación con un bloque objetivo que va a codificarse utilizando las muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo entre los bloques divididos de los medios de división de bloques; medios para la generación de la señal residual para generar una señal residual entre la señal de predicción intra-imagen del bloque objetivo y una señal de pixeles del bloque objetivo; medios de compresión de la señal residual para comprimir la señal residual generada por los medios para la generación de la señal residual; medios para la restauración de la señal residual para generar una señal residual reconstruida de la señal residual comprimida; medios de codificación para codificar la señal residual comprimida; y medios de almacenamiento de bloques para almacenar una señal de pixeles reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en donde se reconstruye la señal de pixeles del bloque objetivo al agregar la señal de predicción intra-imagen con la señal residual reconstruida, y en donde los medios para la generación de la señal de predicción derivan las muestras de referencia de los bloques previamente reconstruidos, almacenados en los medios de almacenamiento de bloques, que se encuentran próximos al bloque objetivo, seleccionan dos o más muestras de referencia clave de las muestras de referencia ubicadas en las posiciones predeterminadas entre las muestras de referencia, realizan un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, determinan una dirección de la predicción intra-imagen, y generan la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección determinada de la predicción intra-imagen, y los medios de codificación codifican la información de la dirección de la dirección intra-imágenes junto con los datos de compresión de la señal residual.
2. El dispositivo que codifica la predicción de imágenes en movimiento de acuerdo con la reivindicación 1, en donde los medios para la generación de la señal de predicción realizan de manera selectiva el proceso de interpolación de las muestras de referencia o un proceso de filtraje de las muestras de referencia, en base a una comparación entre las muestras de referencia clave y un umbral predeterminado.
3. El dispositivo que codifica la predicción de imágenes en movimiento de acuerdo con la reivindicación 1, en donde las muestras de referencia son tales muestras de referencia que se ubican en un extremo de un grupo de muestras de referencia, y el proceso de interpolación es un proceso de interpolación bilineal realizado sobre las muestras de referencia entre las muestras de referencia clave.
4. Un dispositivo que decodifica la predicción de imágenes en movimiento que comprende: medios de descodificación para decodificar, a partir de los datos de compresión codificados para una pluralidad de bloques divididos, la información de la dirección de la predicción intra-imagen a utilizarse en la predicción intra-imagen de un bloque objetivo que va a decodificarse y una señal residual comprimida,- medios para la generación de la señal de predicción para generar una señal de predicción intra-imagen utilizando la información de la dirección de la predicción intra-imagen y las muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo; medios para la restauración de la señal residual para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida; y medios de almacenamiento de bloques para restaurar una señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en donde los medios de generación de señal de predicción derivan muestras de referencia de los bloques previamente reconstruidos, almacenados en los medios de almacenamiento de bloques, que se encuentran próximos al bloque objetivo, seleccionan dos o más muestras de referencia clave de las muestras de referencia ubicadas en posiciones predeterminadas entre las muestras de referencia, realizan un proceso de interpolación entre las muestras de referencia clave para generar las muestras de referencia interpoladas y generan la señal de predicción intra-imagen mediante la extrapolación de las muestras de referencia interpoladas en base a la dirección de la predicción intra-imagen.
5. El dispositivo que decodifica la predicción de imágenes en movimiento de acuerdo con la reivindicación 4, en donde los medios para la generación de la señal de predicción realizan de manera selectiva el proceso de interpolación de las muestras de referencia o un proceso de filtraje de las muestras de referencia, en base a una comparación entre las muestras de referencia clave y un umbral predeterminado.
6. El dispositivo que decodifica la predicción de imágenes en movimiento de acuerdo con la reivindicación 4, en donde las muestras de referencia son tales muestras de referencia que se ubican en un extremo de un grupo de muestras de referencia, y el proceso de interpolación es un proceso de interpolación bilineal realizado sobre las muestras de referencia entre las muestras de referencia clave.
7. Un método que codifica la predicción de imágenes en movimiento ejecutado mediante un dispositivo que codifica la predicción de imágenes en movimiento, comprendiendo el método que codifica la predicción de imágenes en movimiento: una etapa de división de bloques para dividir una imagen de entrada en una pluralidad de bloques; una etapa para la generación de la señal de predicción para generar, utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos de la etapa de división de bloques, una señal de predicción intra-imagen de un bloque que tiene mayor correlación con el bloque objetivo; una etapa para la generación de la señal residual para generar una señal residual entre la señal de predicción del bloque objetivo y una señal de pixeles del bloque objetivo; una etapa para la compresión de la señal residual para comprimir la señal residual generada en la etapa para la generación de la señal residual; una etapa para la restauración de la señal residual para generar una señal residual reconstruida al restaurar la señal residual comprimida; una etapa de codificación para codificar la señal residual comprimida; y una etapa de almacenamiento de bloques para restaurar la señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en donde en la etapa para la generación de la señal de predicción, las muestras de referencia se derivan de los bloques previamente reconstruidos, los cuales se almacenan y se encuentran próximos al bloque objetivo, se seleccionan dos o más muestras de referencia clave de las muestras de referencia ubicadas en posiciones predeterminadas entre las muestras de referencia, se lleva a cabo un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, se determina una dirección de la predicción intra-imagen, y se genera la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección determinada de la predicción intra-imagen, y en la etapa de codificación, se codifica la información de la dirección de la predicción intra-imagen junto con la señal residual comprimida.
8. Un método que decodifica la predicción de imágenes en movimiento ejecutado mediante un dispositivo que decodifica la predicción de imágenes en movimiento, comprendiendo el método que decodifica la predicción de imágenes en movimiento: una etapa de decodificación para decodificar, a partir de los datos de compresión codificados para una pluralidad de bloques divididos, la información de la dirección de la predicción intra-imagen que va a utilizarse en la predicción intra-imagen de un bloque objetivo a decodificarse y una señal residual comprimida; una etapa para la generación de la señal de predicción para generar una señal de predicción intra-imagen utilizando la información de la dirección de la predicción intra-imagen y las muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo,- una etapa para la restauración de la señal residual para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida; y una etapa de almacenamiento de bloques para restaurar una señal de pixeles del bloque objetivo al agregar la señal de predicción a la señal residual reconstruida, y almacenar la señal de pixeles reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en donde en la etapa para la generación de la señal de predicción, las muestras de referencia se derivan de los bloques previamente reconstruidos, que se almacenan y se encuentran próximos al bloque objetivo, se seleccionan dos o más muestras de referencia clave de las muestras de referencia ubicadas en posiciones predeterminadas entre las muestras de referencia, se realiza un proceso de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y se genera la señal de predicción intra-imagen al extrapolar las muestras de referencia interpoladas en base a la dirección de la predicción intra-imagen.
MX2015003512A 2012-09-24 2013-06-17 Dispositivo de codificacion de prediccion de video, metodo de codificacion de prediccion de video, dispositivo de decodificacion de prediccion de video y metodo de decodificacion de prediccion de video. MX341412B (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012209626A JP5798539B2 (ja) 2012-09-24 2012-09-24 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
PCT/JP2013/066616 WO2014045651A1 (ja) 2012-09-24 2013-06-17 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法

Publications (2)

Publication Number Publication Date
MX2015003512A true MX2015003512A (es) 2015-07-17
MX341412B MX341412B (es) 2016-08-19

Family

ID=50340983

Family Applications (2)

Application Number Title Priority Date Filing Date
MX2015003512A MX341412B (es) 2012-09-24 2013-06-17 Dispositivo de codificacion de prediccion de video, metodo de codificacion de prediccion de video, dispositivo de decodificacion de prediccion de video y metodo de decodificacion de prediccion de video.
MX2016010755A MX351764B (es) 2012-09-24 2013-06-17 Dispositivo de codificación de predicción de video, método de codificación de predicción de video, dispositivo de decodificación de predicción de video y método de decodificación de predicción de video.

Family Applications After (1)

Application Number Title Priority Date Filing Date
MX2016010755A MX351764B (es) 2012-09-24 2013-06-17 Dispositivo de codificación de predicción de video, método de codificación de predicción de video, dispositivo de decodificación de predicción de video y método de decodificación de predicción de video.

Country Status (22)

Country Link
US (6) US9736494B2 (es)
EP (4) EP3654650B1 (es)
JP (1) JP5798539B2 (es)
KR (6) KR101964171B1 (es)
CN (6) CN106878733B (es)
AU (7) AU2013319537B2 (es)
BR (3) BR122016013354A2 (es)
CA (6) CA3118836C (es)
DK (1) DK3654650T3 (es)
ES (3) ES2949638T3 (es)
FI (1) FI3654650T3 (es)
HU (1) HUE062434T2 (es)
IN (1) IN2015DN03265A (es)
MX (2) MX341412B (es)
MY (2) MY161733A (es)
PH (1) PH12015500622B1 (es)
PL (3) PL2899982T3 (es)
PT (3) PT3654650T (es)
RU (7) RU2642810C1 (es)
SG (1) SG11201502234VA (es)
TW (7) TWI622287B (es)
WO (1) WO2014045651A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6504604B2 (ja) 2015-08-25 2019-04-24 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム
CN108028923B (zh) * 2015-09-10 2021-08-20 Lg电子株式会社 视频编码系统中的帧内预测方法和设备
CN117255194A (zh) 2016-09-30 2023-12-19 罗斯德尔动力有限责任公司 图像处理方法及其装置
DE112017006638B4 (de) 2016-12-28 2023-05-11 Arris Enterprises Llc Verbesserte Videobitstromkodierung
WO2018124850A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 예측 블록의 중복성을 고려한 화면 내 예측 방법 및 화면 내 예측을 수행하는 영상 복호화 장치
JP7036628B2 (ja) * 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10225578B2 (en) 2017-05-09 2019-03-05 Google Llc Intra-prediction edge filtering
US10992939B2 (en) 2017-10-23 2021-04-27 Google Llc Directional intra-prediction coding
JP2020120141A (ja) * 2017-05-26 2020-08-06 シャープ株式会社 動画像符号化装置及び動画像復号装置、フィルタ装置
WO2019009506A1 (ko) * 2017-07-04 2019-01-10 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
CN107592539B (zh) * 2017-08-21 2019-10-22 北京奇艺世纪科技有限公司 一种视频编码方法和装置
WO2020009400A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 인트라 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
WO2020007747A1 (en) * 2018-07-05 2020-01-09 Telefonaktiebolaget Lm Ericsson (Publ) Deblocking of intra-reference samples
US10778972B1 (en) 2019-02-27 2020-09-15 Google Llc Adaptive filter intra prediction modes in image/video compression
JP7145793B2 (ja) * 2019-03-11 2022-10-03 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
CN110035289B (zh) * 2019-04-24 2022-04-01 润电能源科学技术有限公司 一种屏幕图像的分层压缩方法、系统及相关装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
KR100945546B1 (ko) * 2002-01-14 2010-03-08 노키아 코포레이션 동적 필터 부호화
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040008775A1 (en) * 2002-07-12 2004-01-15 Krit Panusopone Method of managing reference frame and field buffers in adaptive frame/field encoding
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
CN101218829A (zh) * 2005-07-05 2008-07-09 株式会社Ntt都科摩 动态图像编码装置、动态图像编码方法、动态图像编码程序、动态图像解码装置、动态图像解码方法以及动态图像解码程序
KR100977101B1 (ko) * 2005-11-30 2010-08-23 가부시끼가이샤 도시바 화상 부호화/화상 복호화 방법 및 화상 부호화/화상 복호화장치
TWI432035B (zh) * 2006-01-11 2014-03-21 Nokia Corp 可縮放視訊編碼之圖像反向相容聚合技術
US8494052B2 (en) * 2006-04-07 2013-07-23 Microsoft Corporation Dynamic selection of motion estimation search ranges and extended motion vector ranges
JP2008048272A (ja) * 2006-08-18 2008-02-28 Canon Inc 再生装置及び再生方法
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
JP4650461B2 (ja) * 2007-07-13 2011-03-16 ソニー株式会社 符号化装置、符号化方法、プログラム、及び記録媒体
JPWO2009110160A1 (ja) * 2008-03-07 2011-07-14 株式会社東芝 動画像符号化/復号化方法及び装置
JP5680283B2 (ja) * 2008-09-19 2015-03-04 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム
JP5697301B2 (ja) * 2008-10-01 2015-04-08 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
JP5686499B2 (ja) * 2009-01-22 2015-03-18 株式会社Nttドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
JP2010268259A (ja) * 2009-05-15 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム
JP5199196B2 (ja) * 2009-08-04 2013-05-15 日本電信電話株式会社 動画像復号方法,動画像復号装置および動画像復号プログラム
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
JP2011151682A (ja) * 2010-01-22 2011-08-04 Sony Corp 画像処理装置および方法
JP2011166592A (ja) * 2010-02-12 2011-08-25 Mitsubishi Electric Corp 画像符号化装置及び画像復号装置
JP5393573B2 (ja) * 2010-04-08 2014-01-22 株式会社Nttドコモ 動画像予測符号化装置、動画像予測復号装置、動画像予測符号化方法、動画像予測復号方法、動画像予測符号化プログラム、及び動画像予測復号プログラム
WO2011127964A2 (en) * 2010-04-13 2011-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction
US20110301976A1 (en) * 2010-06-03 2011-12-08 International Business Machines Corporation Medical history diagnosis system and method
US20110310976A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Joint Coding of Partition Information in Video Coding
DK3661210T3 (da) * 2010-07-20 2023-09-11 Ntt Docomo Inc Fremgangsmåde til forudsigende billedafkodning
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
CN107071425B (zh) * 2010-08-17 2019-07-12 M&K控股株式会社 用于恢复帧内预测模式的方法
US8923395B2 (en) * 2010-10-01 2014-12-30 Qualcomm Incorporated Video coding using intra-prediction
WO2012077719A1 (ja) * 2010-12-09 2012-06-14 シャープ株式会社 画像復号装置、および画像符号化装置
US20120163457A1 (en) 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
MX2013008119A (es) * 2011-01-12 2013-08-12 Mitsubishi Electric Corp Dispositivo de codificacion de imagen, dispositivo de decodificacion de imagen, metodo de codificacion de imagen y metodo de decodificacion de imagen.
WO2012096622A1 (en) * 2011-01-14 2012-07-19 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices for intra coding of video
JP2014509119A (ja) * 2011-01-21 2014-04-10 トムソン ライセンシング 幾何学ベースのイントラ予測の方法および装置
CN102685505B (zh) * 2011-03-10 2014-11-05 华为技术有限公司 帧内预测的方法和预测装置
KR101383775B1 (ko) * 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치

Also Published As

Publication number Publication date
CN106878733A (zh) 2017-06-20
AU2016202132A1 (en) 2016-04-28
CN104604238A (zh) 2015-05-06
US20190037235A1 (en) 2019-01-31
CN106131558B (zh) 2018-02-27
DK3654650T3 (da) 2023-07-03
CN107087181A (zh) 2017-08-22
MY161733A (en) 2017-05-15
FI3654650T3 (fi) 2023-06-28
TW201818726A (zh) 2018-05-16
RU2602978C1 (ru) 2016-11-20
CA3118836C (en) 2023-06-27
US20170180751A1 (en) 2017-06-22
CN106131558A (zh) 2016-11-16
TWI678919B (zh) 2019-12-01
AU2019210532A1 (en) 2019-08-15
TWI562614B (es) 2016-12-11
ES2781556T3 (es) 2020-09-03
RU2715015C1 (ru) 2020-02-21
EP3654650B1 (en) 2023-05-31
KR20170128635A (ko) 2017-11-22
KR20180069128A (ko) 2018-06-22
ES2637502T3 (es) 2017-10-13
US20190037236A1 (en) 2019-01-31
TWI679881B (zh) 2019-12-11
ES2949638T3 (es) 2023-10-02
US20150201213A1 (en) 2015-07-16
KR20170083167A (ko) 2017-07-17
MX351764B (es) 2017-10-27
AU2019210520B2 (en) 2021-02-04
EP3179722B1 (en) 2020-02-26
KR101964171B1 (ko) 2019-04-01
BR122016013292A2 (pt) 2018-02-06
PL2899982T3 (pl) 2017-10-31
KR20150060877A (ko) 2015-06-03
KR101662655B1 (ko) 2016-10-05
RU2701052C1 (ru) 2019-09-24
JP2014064249A (ja) 2014-04-10
KR20160116036A (ko) 2016-10-06
KR20160088450A (ko) 2016-07-25
TWI577182B (zh) 2017-04-01
RU2715017C1 (ru) 2020-02-21
TW201909636A (zh) 2019-03-01
PH12015500622A1 (en) 2015-05-11
WO2014045651A1 (ja) 2014-03-27
PT3179722T (pt) 2020-04-02
TWI648981B (zh) 2019-01-21
CN107071442B (zh) 2020-03-27
BR122016013354A2 (pt) 2018-02-06
PT2899982T (pt) 2017-08-30
CA2957095A1 (en) 2014-03-27
BR112015006109A8 (pt) 2018-02-06
MX341412B (es) 2016-08-19
TWI622287B (zh) 2018-04-21
AU2019210520A1 (en) 2019-08-15
US9736494B2 (en) 2017-08-15
AU2013319537B2 (en) 2016-03-03
EP3654650A1 (en) 2020-05-20
CN106131559B (zh) 2018-04-17
CA2957095C (en) 2021-07-13
RU2699675C1 (ru) 2019-09-09
BR112015006109B1 (pt) 2018-08-14
AU2019210516A1 (en) 2019-08-15
EP4221222A1 (en) 2023-08-02
PT3654650T (pt) 2023-07-05
US10477241B2 (en) 2019-11-12
AU2019210530A1 (en) 2019-08-15
AU2017248485B2 (en) 2019-07-11
MY178848A (en) 2020-10-21
CN104604238B (zh) 2017-03-22
TW201415905A (zh) 2014-04-16
KR101799846B1 (ko) 2017-11-22
PL3179722T3 (pl) 2020-07-13
TWI666923B (zh) 2019-07-21
CA3118841C (en) 2023-01-24
RU2015115487A (ru) 2016-11-20
CA3118832C (en) 2023-06-20
EP2899982A4 (en) 2016-06-15
IN2015DN03265A (es) 2015-10-09
CA2885802C (en) 2017-08-15
TW201720162A (zh) 2017-06-01
US10123042B2 (en) 2018-11-06
US20190037237A1 (en) 2019-01-31
CA3118841A1 (en) 2014-03-27
BR122016013292B1 (pt) 2018-08-14
HUE062434T2 (hu) 2023-11-28
US10382783B2 (en) 2019-08-13
EP2899982B1 (en) 2017-08-02
TW201701668A (zh) 2017-01-01
TW201937932A (zh) 2019-09-16
US10110918B2 (en) 2018-10-23
CA3118832A1 (en) 2014-03-27
TW201937933A (zh) 2019-09-16
CN107087181B (zh) 2020-05-05
PH12015500622B1 (en) 2015-05-11
AU2019210516B2 (en) 2021-02-11
CN107071442A (zh) 2017-08-18
KR101869830B1 (ko) 2018-06-21
US20170180750A1 (en) 2017-06-22
US10477242B2 (en) 2019-11-12
AU2017248485A1 (en) 2017-11-09
AU2019210530B2 (en) 2021-02-18
JP5798539B2 (ja) 2015-10-21
CA3195958A1 (en) 2014-03-27
EP3179722A1 (en) 2017-06-14
AU2013319537A1 (en) 2015-05-14
KR101755363B1 (ko) 2017-07-07
CA2885802A1 (en) 2014-03-27
AU2016202132B2 (en) 2017-07-20
RU2642810C1 (ru) 2018-01-26
SG11201502234VA (en) 2015-05-28
AU2019210532B2 (en) 2021-03-04
RU2673393C1 (ru) 2018-11-26
CA3118836A1 (en) 2014-03-27
KR101764235B1 (ko) 2017-08-03
CN106878733B (zh) 2020-01-07
EP2899982A1 (en) 2015-07-29
PL3654650T3 (pl) 2023-10-02
BR112015006109A2 (pt) 2017-05-16
CN106131559A (zh) 2016-11-16

Similar Documents

Publication Publication Date Title
RU2715017C1 (ru) Устройство кодирования с предсказанием видео, способ кодирования с предсказанием видео, устройство декодирования с предсказанием видео и способ декодирования с предсказанием видео

Legal Events

Date Code Title Description
FG Grant or registration