ES2781556T3 - Dispositivo de codificación por predicción de vídeo, método de codificación por predicción de vídeo, dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo - Google Patents

Dispositivo de codificación por predicción de vídeo, método de codificación por predicción de vídeo, dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo Download PDF

Info

Publication number
ES2781556T3
ES2781556T3 ES17152385T ES17152385T ES2781556T3 ES 2781556 T3 ES2781556 T3 ES 2781556T3 ES 17152385 T ES17152385 T ES 17152385T ES 17152385 T ES17152385 T ES 17152385T ES 2781556 T3 ES2781556 T3 ES 2781556T3
Authority
ES
Spain
Prior art keywords
ref
reference samples
sample
target block
key reference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17152385T
Other languages
English (en)
Inventor
Yoshinori Suzuki
Choong Seng Boon
Thiow Keng Tan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2781556T3 publication Critical patent/ES2781556T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Eye Examination Apparatus (AREA)
  • Optical Measuring Cells (AREA)
  • Picture Signal Circuits (AREA)

Abstract

Dispositivo de codificación por predicción de imágenes en movimiento que comprende: medio de división en bloques (102) para dividir una imagen de entrada en una pluralidad de bloques; medio de generación de señales de predicción (103) para generar una señal de predicción intraimagen para un bloque objetivo (210) que va a codificarse utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo entre los bloques divididos a partir del medio de división en bloques; medio de generación de señales residuales para generar una señal residual entre la señal de predicción intraimagen del bloque objetivo y una señal de píxel del bloque objetivo; medio de compresión de señales residuales para comprimir la señal residual generada por el medio de generación de señales residuales; medio de restauración de señales residuales para generar una señal residual reconstruida a partir de la señal residual comprimida; medio de codificación (111) para codificar la señal residual comprimida, y medio de almacenamiento de bloques (113) para almacenar una señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en el que la señal de píxel del bloque objetivo se reconstruye sumando la señal de predicción intraimagen con la señal residual reconstruida, y en el que el medio de generación de señales de predicción (103) está adaptado para obtener muestras de referencia (ref[0], ref[N], ref[2N], ref[3N], ref[4N]) a partir de los bloques previamente reconstruidos (220, 230, 240, 250, 260), almacenados en el medio de almacenamiento de bloques (113), que son adyacentes al bloque objetivo (210), en el que el bloque objetivo tiene un tamaño de NxN, una primera muestra de referencia clave (AL, ref[2N]) es la muestra situada en la intersección entre la primera fila superior contigua al bloque objetivo (210) y la primera columna izquierda contigua al bloque objetivo (210), una segunda muestra de referencia clave (BL,ref[0]) es la muestra 2N-ésima por debajo de la primera muestra de referencia clave, una tercera muestra de referencia clave (AR, ref[4N]) es la muestra 2N-ésima a la derecha de la primera muestra de referencia clave, una cuarta muestra de referencia clave (ref[N]) es la muestra N-ésima por debajo de la primera muestra de referencia clave, and una quinta muestra de referencia clave (ref[3N]) es la muestra N-ésima a la derecha de la primera muestra de referencia clave, para llevar a cabo una interpolación lineal entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia interpoladas en la primera columna izquierda contigua al bloque objetivo (210), cuando la magnitud de desviación de la cuarta muestra de referencia clave (ref[N]) desde línea recta que conecta las muestras de referencia clave primera y segunda (AL, BL) es menor que un primer umbral (UMBRAL_IZQUIERDO)), de lo contrario para llevar a cabo intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia intrasuavizadas, para llevar a cabo una interpolación lineal entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia interpoladas en la primera fila superior contigua al bloque objetivo (210), cuando la magnitud de desviación de la quinta muestra de referencia clave (ref[3N]) desde la línea recta que conecta las muestras de referencia clave primera y tercera (AL, AR) es menor que un segundo umbral (UMBRAL_SUPERIOR), de lo contrario para llevar a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia intrasuavizadas, para determinar un modo de intrapredicción, y para generar la señal de predicción intraimagen extrapolando o bien las muestras de referencia interpoladas o bien muestras intrasuavizadas basándose en el modo de intrapredicción determinado, en el que el medio de codificación (111) está adaptado para codificar el modo intrapredicción junto con los datos de compresión de la señal residual.

Description

DESCRIPCIÓN
Dispositivo de codificación por predicción de vídeo, método de codificación por predicción de vídeo, dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo
Campo técnico
La presente invención se refiere a un dispositivo y a un método de codificación por predicción de imágenes en movimiento, y a un dispositivo y a un método de descodificación por predicción de imágenes en movimiento y, más particularmente, al procesamiento por filtro de muestras adyacentes para utilizarse en la predicción intraimagen.
Antecedentes de la técnica
Las tecnologías de codificación por compresión se utilizan para transmitir y acumular eficazmente datos de imágenes en movimiento. MPEG-1 a 4 y H.261 a H.264 son tecnologías de codificación de vídeo ampliamente utilizas.
En dichas tecnologías de codificación de vídeo, el procesamiento de la codificación y el procesamiento de la descodificación se llevan a cabo después de que una imagen que va a codificarse se divida en una pluralidad de bloques. En la codificación por predicción intraimagen, se genera una señal de predicción utilizando una señal de imagen adyacente previamente reconstruida (obtenida a partir de la restauración de los datos de imagen comprimidos) ubicada dentro de la imagen actual en la que se incluye un bloque objetivo y después se obtiene una señal diferencial restando la señal de predicción de la señal del bloque objetivo y se codifica. En la codificación por predicción entre imágenes, en referencia a una señal de imagen previamente reconstruida dentro de una imagen distinta a la imagen dentro de la cual se incluye el bloque objetivo, se lleva a cabo una compensación de movimiento y se genera una señal de predicción. La señal de predicción se resta de la señal del bloque objetivo para generar una señal diferencial y se codifica la señal diferencial.
Normalmente, en la codificación por predicción entre imágenes (interpredicción), se genera una señal de predicción buscando imágenes previamente reconstruidas para una señal parecida a la señal de píxel de un bloque que va a codificarse. Se codifica un vector de movimiento que representa la cantidad de desplazamiento espacial entre el bloque objetivo y la zona formada por la señal buscada y la señal residual entre la señal de píxel del bloque objetivo y la señal de predicción. La técnica para buscar los bloques respectivos del vector de movimiento de esta manera se denomina coincidencia de bloques.
La figura 10 es un diagrama esquemático para explicar el procedimiento de coincidencia de bloques. En el presente documento, se describe el procedimiento para generar una señal de predicción con un ejemplo en el que una imagen 701 incluye un bloque objetivo 702 que va a codificarse. Una imagen de referencia 703 se ha reconstruido previamente. Una zona 704 está ubicada espacialmente en la misma posición en que está ubicado el bloque objetivo 702. En el procedimiento de coincidencia de bloques, se define una zona de búsqueda 705 adyacente a la zona 704 y, a partir de las señales de píxel en la zona de búsqueda, va a detectarse una zona 706 que tiene la suma más baja de las diferencias absolutas de las señales de píxel del bloque objetivo 702. La señal de la zona 706 pasa a ser una señal de predicción, y la cantidad de desplazamiento desde la zona 704 hasta la zona 706 se detecta como un vector de movimiento 707. Además, se utiliza normalmente un método en el que se identifican una pluralidad de imágenes de referencia 703 para cada bloque objetivo, se selecciona una imagen de referencia sobre la que se realiza la coincidencia de bloques, y se genera la información de selección de la imagen de referencia. En H.264, con el fin de hacer frente a los cambios de características locales en las imágenes, se proporcionan una pluralidad de tipos de predicción que se utilizan con diferentes tamaños de bloque cada uno para codificar un vector de movimiento. Los tipos de predicción de H.264 se describen, por ejemplo, en la bibliografía de patente 2.
H264 también realiza codificación por predicción intraimagen (intrapredicción) en la que se genera una señal de predicción extrapolando, en direcciones predeterminadas, los valores de los píxeles adyacentes previamente reconstruidos en un bloque a codificar. La figura 11 es un diagrama esquemático para explicar la predicción intraimagen utiliza en la recomendación H.264 de la UIT. En la figura 11(A), un bloque objetivo 802 es un bloque a codificar, y un grupo de píxeles 801 (grupo de muestras de referencia) es de una zona adyacente que incluye la señal de imagen previamente reconstruida en el procesamiento anterior, y el grupo incluye los píxeles A a M adyacentes al límite del bloque objetivo 802.
En este caso, se genera una señal de predicción extendiendo el grupo de píxeles 801 (grupo de muestras de referencia) de los píxeles inmediatamente adyacentes por encima del bloque objetivo 802 en la dirección hacia abajo. En la figura 11(B), se genera una señal de predicción extendiendo los píxeles previamente reconstruidos (de I a L) ubicados a la izquierda de un bloque objetivo 804 en la dirección hacia la derecha. Se proporciona una explicación detallada para generar una señal de predicción, por ejemplo, en la bibliografía de patente 1. La diferencia de la señal de píxel del bloque objetivo se calcula para cada una de las nueve señales de predicción generadas tal como se muestra en las figuras 11(A) - 11(B).
La señal de predicción que tiene el valor de diferencia más pequeño se selecciona como la señal de predicción óptima. Tal como se describió anteriormente, las señales de predicción (muestras por intrapredicción) pueden generarse extrapolando los píxeles. La descripción anterior se proporciona en la bibliografía de patente 1 a continuación.
La predicción intraimagen que se muestra en la bibliografía de no patente 1 proporciona 25 tipos de métodos de generación de señales de predicción, todos ellos realizados en diferentes direcciones de muestras de referencia que se extienden, además de los 9 tipos descritos anteriormente (un total de 34 tipos).
En la bibliografía de no patente 1, con el fin de suprimir distorsiones en las muestras de referencia, las muestras de referencia se someten a un filtro de paso bajo antes de que se genere una señal de predicción. Concretamente, se aplica un filtro 121 que tiene coeficientes de ponderación de 1 : 2 : 1 a las muestras de referencia antes de la predicción por extrapolación. Este procesamiento se denomina intrasuavizado.
Con referencia a la figura 7 y a la figura 8, se describe la predicción intraimagen en la bibliografía de no patente 1. La figura 7 muestra un ejemplo de división en bloques. Previamente, se han reconstruido cinco bloques 220, 23o, 240, 250 y 260, adyacentes a un bloque objetivo 201, que tiene un tamaño de bloque de NxN muestras. Para la intrapredicción del bloque objetivo 201, se utilizan muestras de referencia indicadas como ref[x] (x = 0 a 4N). La figura 8 muestra el flujo de procedimiento de la intrapredicción. En primer lugar, en la etapa 310, las muestras de referencia ref[x] (x = 0 a 4N) se obtienen de una memoria en la que, un generador de señales de predicción que lleva a cabo el procedimiento de predicción intraimagen, almacena los píxeles reconstruidos. En la etapa, algunos de los bloques adyacentes pueden no haberse reconstruido debido al orden de codificación, y pueden no obtenerse todas las 4N 1 muestras de ref[x]. Si es el caso, las muestras perdidas se sustituyen por muestras generadas mediante un procedimiento de relleno (se copian los valores de las muestras adyacentes), a través del cual se preparan las 4N 1 muestras de referencia. Los detalles del procedimiento de relleno se describen en la bibliografía de no patente 1.
A continuación, en la etapa 320, el generador de señales de predicción realiza el procedimiento de suavizado sobre las muestras de referencia utilizando el filtro 121. Finalmente, en la etapa 330, el generador de señales de predicción predice una señal en el bloque objetivo mediante extrapolaciones (en las direcciones de predicción intraimagen) y genera una señal de predicción (por ejemplo, muestras por intrapredicción).
Lista de citas
Bibliografía de patente
Bibliografía de patente 1: Patente estadounidense n.° 6765964
Bibliografía de patente 2: Patente estadounidense n.° 7003035
Bibliografía de no patente:
Bibliografía de no patente 1: B. Bross et al., "High efficiency video coding (HEVC) text specification draft 8", Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP3 and ISO/IEC JTC1/SC29/WG11, JCTVC-11003, 10th Meeting: Estocolmo, Suecia, 11 al 20 de julio de 2012.
Viktor Wahadaniah et al.: "Constrained Intra Prediction Scheme for Flexible-Sized Prediction Units in HEVC", 4. JCT-VC MEETING; 95. MPEG MEETING 20-1-2011 -28-1-2011; DAEGU; (JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/WG11 y ITU-T SG.16); URL: HTTP://WFTP3.ITU.INT/AV-ARCH/JCTVC-SITE/,, n.° JCTVC-D094, 14 de enero de 2011 (2011-01-14), el documento XP030008134 divulga posibles mejoras del esquema de intrapredicción limitado en HEVC.
Resumen de la invención
Problema técnico
La figura 9 muestra un ejemplo de una señal que representa una zona plana en la que los valores de los píxeles son similares. Cuando los valores de los píxeles originales 410 (valores de muestra originales) se codifican mediante cuantificación gruesa, los valores reconstruidos 420 (valores de muestra reconstruidos) en el bloque toman un valor constante y aparece una distorsión en forma de escalón en un límite de bloque 430. Esta distorsión se conoce como ruido de bloque y normalmente se elimina aplicando un filtro de eliminación de ruido de bloque a la imagen reconstruida. Sin embargo, la muestra de referencia utilizada en la predicción intraimagen es una señal previamente preparada para la aplicación del procedimiento de filtro para eliminar el ruido de bloque, de modo que el ruido de bloque que permanece en la muestra de referencia en el límite de bloque se propaga a la señal de predicción (muestras por intrapredicción) del bloque objetivo a través de la predicción intraimagen. El ruido de bloque que se ha propagado a la señal de predicción no puede eliminarse mediante un procedimiento de eliminación de ruido de bloque para una señal reconstruida y, por lo tanto, se propaga directamente al grupo de muestras de referencia para el siguiente bloque objetivo.
En la bibliografía de no patente 1, se preparan 34 tipos diferentes de direcciones de extrapolación en el método de extrapolación por predicción intraimagen (en las direcciones de predicción intraimagen), de modo que se propaga el ruido de bloque mientras cambian las direcciones. Como resultado, se producen una pluralidad de artefactos periféricos en la señal reconstruida de una zona plana en una imagen. En particular, cuando el ruido se propaga en un bloque de gran tamaño, los artefactos periféricos atraviesan el gran bloque, presentando un efecto visual desagradable.
El filtro 121 descrito en los antecedentes de la técnica puede eliminar el ruido de manera eficaz dentro de las muestras de referencia, pero no puede eliminar el ruido en forma de escalón tal como se ilustra en la figura 9 debido a un bajo número de toques.
El objetivo de la presente invención es suprimir el ruido artificial tal como los artefactos periféricos descritos anteriormente.
Solución al problema
La presente invención se define por las reivindicaciones independientes. Un dispositivo de codificación por predicción de imágenes en movimiento según un ejemplo para una mejor comprensión de la presente invención incluye un medio de división en bloque para dividir una imagen de entrada en una pluralidad de bloques, un medio de generación de señales de predicción para generar, utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos a partir de un medio de división en bloque, una señal de predicción intraimagen de un bloque que tiene una correlación mayor con el bloque objetivo. El dispositivo de codificación por predicción de imágenes en movimiento incluye además un medio de generación de señales residuales para generar una señal residual entre la señal de predicción del bloque objetivo y la señal de píxel del bloque objetivo, un medio de compresión de señales residuales para comprimir la señal residual generada por un medio de generación de señales residuales, un medio de restauración de señales residuales para generar una señal residual reconstruida restaurando la señal residual comprimida, un medio de codificación para codificar los datos de compresión de la señal residual, y un medio de almacenamiento de bloques para restaurar la señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. Un medio de generación de señales de predicción obtiene muestras de referencia a partir de bloques previamente reconstruidos, almacenados en un medio de almacenamiento de bloques, que son adyacentes al bloque objetivo, selecciona dos o más muestras de referencia clave de las muestras de referencia, realiza un procedimiento de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, determina una dirección de predicción intraimagen, y genera la señal de predicción intraimagen extrapolando las muestras de referencia interpoladas basándose en la dirección determinada de la predicción intraimagen. Un medio de codificación codifica información de la dirección de predicción intraimagen junto con los datos de compresión de la señal residual.
En el dispositivo de codificación por predicción de imágenes en movimiento descrito anteriormente, un medio de generación de señales de predicción puede llevar a cabo de manera selectiva el procedimiento de interpolación de las muestras de referencia o un procedimiento de suavizado de las muestras de referencia, basándose en una comparación entre las muestras de referencia clave y un umbral predeterminado.
En el dispositivo de codificación por predicción de imágenes en movimiento descrito anteriormente, las muestras de referencia pueden ser tales muestras de referencia que se ubican en el extremo del grupo de muestras de referencia, y el procedimiento de interpolación puede ser un procedimiento de interpolación bilineal realizado en las muestras de referencia entre las muestras de referencia clave.
Un dispositivo de descodificación por predicción de imágenes en movimiento según un ejemplo para una mejor comprensión de la presente invención incluye un medio de descodificación para descodificar, a partir de datos de compresión codificados para una pluralidad de bloques divididos, información de una dirección de predicción intraimagen que va a utilizarse en la predicción intraimagen de un bloque objetivo que va a descodificarse y una señal residual comprimida, un medio de generación de señales de predicción para generar una señal de predicción intraimagen utilizando la información de la dirección de la predicción intraimagen y muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo, un medio de restauración de señales residuales para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y un medio de almacenamiento de bloques para restaurar una señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. Un medio de generación de señales de predicción obtiene muestras de referencia a partir de bloques previamente reconstruidos almacenados en un medio de almacenamiento de bloques, que son adyacentes al bloque objetivo, selecciona dos o más muestras de referencia clave a partir de las muestras de referencia, realiza un procedimiento de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y genera la señal de predicción intraimagen extrapolando las muestras de referencia interpoladas basándose en la dirección de la predicción intraimagen.
En el dispositivo de descodificación por predicción de imágenes en movimiento descrito anteriormente, un medio de generación de señales de predicción puede llevar a cabo de manera selectiva un procedimiento de interpolación de las muestras de referencia o un procedimiento de suavizado de las muestras de referencia, basándose en una comparación entre las muestras de referencia clave y un umbral predeterminado.
En el dispositivo de descodificación por predicción de imágenes en movimiento descrito anteriormente, las muestras de referencia pueden ser tales muestras de referencia que se ubican en el extremo de un grupo de muestras de referencia, y el procedimiento de interpolación puede ser un procedimiento de interpolación bilineal realizado en las muestras de referencia entre las muestras de referencia clave.
Puede considerarse que la presente invención se refiere a un método de codificación por predicción de imágenes en movimiento, a un método de descodificación por predicción de imágenes en movimiento, a un programa de codificación por predicción de imágenes en movimiento, y a un programa de descodificación por predicción de imágenes en movimiento, y puede describirse tal como a continuación.
Un método de codificación por predicción de imágenes en movimiento según un ejemplo para una mejor comprensión de la presente invención se ejecuta mediante un dispositivo de codificación por predicción de imágenes en movimiento. El método de codificación por predicción de imágenes en movimiento incluye una etapa de división en bloques que divide una imagen de entrada en una pluralidad de bloques, una etapa de generación de señales de predicción que genera, utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos de la etapa de división en bloques, una señal de predicción intraimagen de un bloque que tiene una correlación mayor con el bloque objetivo, una etapa de generación de señales residuales que genera una señal residual entre la señal de predicción del bloque objetivo y la señal de píxel del bloque objetivo, una etapa de compresión de señales residuales que comprime la señal residual generada en la etapa de generación de señales residuales, una etapa de restauración de señales residuales que genera una señal residual reconstruida restaurando la señal residual comprimida, una etapa de codificación que codifica la señal residual comprimida, y una etapa de almacenamiento de bloques que restaura la señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. En la etapa de generación de señales de predicción, se obtienen muestras de referencia a partir de bloques previamente reconstruidos, que se almacenan y son adyacentes al bloque objetivo, se seleccionan dos o más muestras de referencia clave a partir de las muestras de referencia, se realiza un procedimiento de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, se determina una dirección de predicción de intraimagen, y la señal de predicción intraimagen se genera extrapolando las muestras de referencia interpoladas basándose en la dirección determinada de la predicción intraimagen. En la etapa de codificación, se codifica información de la dirección de la predicción intraimagen junto con los datos de compresión de la señal residual.
Un método de descodificación por predicción de imágenes en movimiento según un ejemplo para una mejor comprensión de la presente invención se ejecuta mediante un dispositivo de descodificación por predicción de imágenes en movimiento. El método de descodificación por predicción de imágenes en movimiento incluye una etapa de descodificación que descodifica, a partir de datos de compresión codificados para una pluralidad de bloques divididos, información de una dirección de predicción intraimagen que va a utilizarse en predicción intraimagen de un bloque objetivo que va a descodificarse y una señal residual comprimida, una etapa de generación de señales de predicción que genera una señal de predicción intraimagen utilizando la información de la dirección de la predicción intraimagen y muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo, una etapa de restauración de señales residuales que restaura una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y una etapa de almacenamiento de bloques que restaura una señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. En la etapa de generación de señales de predicción, se obtienen muestras de referencia a partir de bloques previamente reconstruidos, que se almacenan y son adyacentes al bloque objetivo, se seleccionan dos o más muestras de referencia clave a partir de las muestras de referencia, se realiza un procedimiento de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y la señal de predicción intraimagen se genera extrapolando las muestras de referencia interpoladas basándose en la dirección de la predicción intraimagen.
Un programa de codificación por predicción de imágenes en movimiento según un ejemplo para una mejor comprensión de la presente invención hace que un ordenador funcione como un medio de división en bloque para dividir una imagen de entrada en una pluralidad de bloques, un medio de generación de señales de predicción para generar, utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo que va a codificarse entre los bloques divididos a partir de un medio de división en bloque, una señal de predicción intraimagen de un bloque que tiene una correlación mayor con el bloque objetivo, un medio de generación de señales residuales para generar una señal residual entre la señal de predicción del bloque objetivo y la señal de píxel del bloque objetivo, un medio de compresión de señales residuales para comprimir la señal residual generada por un medio de generación de señales residuales, un medio de restauración de señales residuales para generar una señal residual reconstruida restaurando la señal residual comprimida, un medio de codificación para codificar los datos de compresión de la señal residual, y un medio de almacenamiento de bloques para restaurar la señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como la muestra de referencia. Un medio de generación de señales de predicción obtiene muestras de referencia a partir de bloques previamente reconstruidos almacenados en un medio de almacenamiento de bloques, que son adyacentes al bloque objetivo, selecciona dos o más muestras de referencia clave a partir de las muestras de referencia, realiza un procedimiento de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, determina una dirección de predicción intraimagen, y genera la señal de predicción intraimagen extrapolando las muestras de referencia interpoladas basándose en la dirección determinada de la predicción intraimagen. Un medio de codificación codifica información de la dirección de predicción intraimagen junto con los datos de compresión de la señal residual.
Un programa de descodificación por predicción de imágenes en movimiento según un ejemplo para una mejor comprensión de la presente invención hace que un ordenador funcione como un medio de descodificación para descodificar, a partir de datos de compresión codificados para una pluralidad de bloques divididos, información de una dirección de predicción intraimagen que va a utilizarse en predicción intraimagen de un bloque objetivo que va a codificarse y una señal residual comprimida, un medio de generación de señales de predicción para generar una señal de predicción intraimagen que utiliza la información de la dirección de la predicción intraimagen y muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo, un medio de restauración de señales residuales para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y un medio de almacenamiento de bloques para restaurar la señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia. Un medio de generación de señales de predicción obtiene muestras de referencia a partir de bloques previamente reconstruidos almacenados in un medio de almacenamiento de bloques, que son adyacentes al bloque objetivo, selecciona dos o más muestras de referencia clave a partir de las muestras de referencia, realiza un procedimiento de interpolación entre las muestras de referencia clave para generar muestras de referencia interpoladas, y genera la señal de predicción intraimagen extrapolando las muestras de referencia interpoladas basándose en la dirección de la predicción intraimagen.
Efectos de la invención
Con el procedimiento de filtro aplicado sobre las muestras de referencia mediante interpolación bilineal según la presente invención, se hace cambiar las señales en las muestras de referencia gradualmente utilizando muestras en ambos extremos de las muestras de referencia, suprimiendo de ese modo dicho ruido artificial como los artefactos periféricos.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que muestra un dispositivo de codificación por predicción de imágenes en movimiento según un modo de realización de la presente invención.
La figura 2 es un diagrama de bloques que muestra un dispositivo de descodificación por predicción de imágenes en movimiento según un modo de realización de la presente invención.
La figura 3 es un diagrama de flujo que muestra un método de predicción intraimagen según un modo de realización de la presente invención.
La figura 4 es un diagrama de flujo que muestra otro ejemplo del método de predicción intraimagen según un modo de realización de la presente invención.
La figura 5 es un diagrama que muestra una configuración de hardware de un ordenador que ejecuta un programa almacenado en un medio de grabación.
La figura 6 es una visión general del ordenador que ejecuta un programa almacenado en un medio de grabación.
La figura 7 es un diagrama que ilustra un ejemplo de muestras de referencia utilizas en la predicción intraimagen.
La figura 8 es un diagrama de flujo que muestra un método de predicción intraimagen en una técnica convencional.
La figura 9 es un diagrama que ilustra la relación entre una señal original y una señal reconstruida en una zona plana.
La figura 10 es un diagrama esquemático que explica un procedimiento de estimación del movimiento en la predicción entre imágenes.
La figura 11 es un diagrama esquemático que explica la predicción intraimagen mediante extrapolación de muestras de referencia.
La figura 12 es un diagrama que ilustra otro ejemplo de muestras de referencia utilizas en la predicción intraimagen.
La figura 13 es un diagrama de flujo que ilustra un procedimiento en un generador de señales de predicción 103 en la figura 1.
La figura 14 es un diagrama de flujo que ilustra un procedimiento en un generador de señales de predicción 208 en la figura 2.
La figura 15 es un diagrama de flujo que muestra un segundo ejemplo distinto del método de predicción intraimagen según un modo de realización de la presente invención.
La figura 16 es un diagrama de bloques que muestra una configuración de un programa de codificación por predicción de imágenes en movimiento.
La figura 17 es un diagrama de bloques que muestra una configuración de un programa de descodificación por predicción de imágenes en movimiento.
Modos de realización de la invención
A continuación, se describirán modos de realización de la presente invención con referencia de la figura 1 a la figura 7 y de la figura 13 a la figura 17.
La figura 1 es un diagrama de bloques que muestra un dispositivo de codificación por predicción de imágenes en movimiento 100 según un modo de realización de la presente invención. Tal como se muestra en la figura 1, el dispositivo de codificación por predicción de imágenes en movimiento 100 incluye un terminal de entrada 101, un divisor de bloques 102, un generador de señales de predicción 103, una memoria de tramas 104, un sustractor 105, un transformador 106, un cuantificador 107, un cuantificador inverso 108, un transformador inverso 109, un sumador 110, un codificador de entropía 111, un terminal de salida 112, una memoria de bloques 113 y un filtro de bucle 114. El sustractor 105, el transformador 106 y el cuantificador 107 funcionan como “medios de codificación” referidos en las reivindicaciones. El cuantificador inverso 108, el transformador inverso 109 y el sumador 110 funcionan como “medios de descodificación” referidos en las reivindicaciones. La memoria de tramas 104 funciona como “medio de almacenamiento de imágenes” y la memoria de bloques 113 funciona como “medio de almacenamiento de bloques”.
El funcionamiento del dispositivo de codificación por predicción de imágenes en movimiento 100 configurado tal como se ha descrito anteriormente se describe a continuación. La señal de una imagen en movimiento compuesta por una pluralidad de imágenes se introduce al terminal de entrada 101. El divisor de bloques 102 divide una imagen que va a codificarse en una pluralidad de zonas. En un modo de realización según la presente invención, tal como se muestra en el ejemplo en la figura 7, el tamaño de bloque no está limitado. Una variedad de tamaños y formas de bloque pueden definirse de manera coincidente en una imagen. El orden de codificación de bloque se describe, por ejemplo, en la bibliografía de no patente 1. A continuación, se genera una señal de predicción para una zona que va a codificarse (denominada en lo sucesivo, en el presente documento, “bloque objetivo”). En un modo de realización según la presente invención, se utilizan dos tipos de métodos de predicción, concretamente, predicción intraimagen y predicción entre imágenes. El procedimiento de generación de señales de predicción en el generador de señales de predicción 103 se describe más adelante utilizando la figura 13.
El sustractor 105 resta una señal de predicción (a través de una línea L103) de la señal de un bloque objetivo (a través de una línea L102) y genera una señal residual. El transformador 106 transforma la señal residual mediante la transformada de coseno discreta. El cuantificador 107 cuantifica cada coeficiente de la transformada. El codificador de entropía 111 codifica los coeficientes de transformada cuantificados y emite, al terminal de salida 112, los coeficientes de transformada codificados junto con información de predicción necesaria para generar una señal de predicción.
Con el fin de realizar la predicción intraimagen o la predicción entre imágenes en el bloque objetivo posterior, la señal comprimida del bloque objetivo se descodifica y se procesa inversamente. Más concretamente, los coeficientes de transformada cuantificados se cuantifican inversamente mediante el cuantificador inverso 108 y después se transforman mediante la transformada de coseno directa con el transformador inverso 109, a través del cual se reconstruye la señal residual. El sumador 110 suma la señal residual reconstruida con la señal de predicción enviada a través de la línea L103 para reproducir la señal del bloque objetivo. La señal del bloque reconstruido se almacena en la memoria de bloques 113 para la predicción intraimagen. Una imagen reconstruida formada por la señal reconstruida se almacena en la memoria de tramas 104 después de que un ruido de bloque experimentado en la imagen reconstruida se elimine mediante el filtro de bucle 114.
Con referencia a la figura 13, se explica el flujo del procedimiento de señal de predicción realizado en el generador de señales de predicción 103. En primer lugar, en la etapa S302, se genera la información de predicción necesaria para la predicción entre imágenes. Concretamente, una imagen reconstruida que se codifica previamente y después se reconstruye se utiliza como imagen de referencia. Esta imagen de referencia se busca para un vector de movimiento y una imagen de referencia que da una señal de predicción con la diferencia más pequeña del bloque objetivo. En este caso, el bloque objetivo se introduce a través de la línea L102 y la imagen de referencia se introduce a través de una línea L104. Una pluralidad de imágenes previamente codificadas y reconstruidas se utilizan como imágenes de referencia. Los detalles de las mismas son los mismos que en H.264 lo cual es la técnica o método convencional que se muestra en la bibliografía de no patente 1.
En la etapa S303, se genera información de predicción necesaria para la predicción intraimagen. Tal como se muestra en la figura 7, los valores de píxel previamente reconstruidos, espacialmente adyacentes al bloque objetivo, se utilizan para generar señales de predicción en una pluralidad de direcciones de intrapredicción. Luego se selecciona la dirección de predicción (modo intrapredicción) que da una señal de predicción con la diferencia más pequeña del bloque objetivo. En el presente documento, el generador de señales de predicción 103 genera una señal de predicción intraimagen adquiriendo las señales de píxel previamente reconstruidas dentro de la misma imagen que las muestras de referencia de la memoria de bloques 113 a través de una línea L113 y extrapolando estas señales.
A continuación, en la etapa S304, se selecciona un método de predicción de entre predicción entre imágenes y predicción intraimagen que va a aplicarse al bloque objetivo. Por ejemplo, se selecciona uno de los métodos de predicción que da un valor de predicción con una pequeña diferencia del bloque objetivo. De forma alternativa, los dos métodos de predicción pueden realizarse realmente hasta el final del procesamiento de codificación, y puede seleccionarse el que tiene un valor de evaluación menor calculado a partir de la relación entre la cantidad de codificación producida y la suma de los valores absolutos de las imágenes de diferencia codificadas. La información de selección del método de predicción seleccionado se envía como información necesaria para generar una señal de predicción al codificador de entropía 111 a través de una línea L112 para la codificación y, a continuación, se emite desde el terminal de salida 112 (etapa S305).
Si el método de predicción seleccionado en la etapa S306 es la predicción entre imágenes, se genera una señal de predicción en la etapa S307 basándose en la información de movimiento (la información del vector de movimiento y la imagen de referencia). La señal de predicción entre imágenes generada se emite al sustractor 105 a través de la línea L103. En la etapa S308, la información de movimiento se envía como información necesaria para generar una señal de predicción hasta el codificador de entropía 111 a través de la línea L112 para la codificación y, a continuación, se emite desde el terminal de salida 112.
Si el método de predicción seleccionado en la etapa S306 es la predicción intraimagen, se genera una señal de predicción en la etapa S309 basándose en el modo intrapredicción. La señal de predicción intraimagen generada se emite al sustractor 105 a través de la línea L103. En la etapa S310, el modo intrapredicción se envía como información necesaria para generar una señal de predicción hasta el codificador de entropía 111 a través de la línea L112 para la codificación y, a continuación, se emite desde el terminal de salida 112.
El método de codificación utilizado en el codificador de entropía 111 puede ser codificación aritmética o puede ser codificación de longitud variable.
La figura 2 es un diagrama de bloques de un dispositivo de descodificación por predicción de imágenes en movimiento 200 según un modo de realización de la presente invención. Tal como se muestra en la figura 2, el dispositivo de descodificación por predicción de imágenes en movimiento 200 incluye un terminal de entrada 201, un analizador de datos 202, un cuantificador inverso 203, un transformador inverso 204, un sumador 205, un generador de señales de predicción 208, una memoria de tramas 207, un terminal de salida 206, un filtro de bucle 209 y una memoria de bloques 215. El cuantificador inverso 203 y el transformador inverso 204 funcionan como los “medios de descodificación” referidos en las reivindicaciones. Puede utilizarse cualquier otro medio como medio de descodificación. El transformador inverso 204 puede omitirse. La memoria de tramas 207 funciona como “medio de almacenamiento de imágenes” y la memoria de bloques 215 funciona como “medio de almacenamiento de bloques”.
El funcionamiento del dispositivo de descodificación por predicción de imágenes en movimiento 200 configurado tal como se ha descrito anteriormente se describe a continuación. Los datos comprimidos que se codifican por compresión mediante el método descrito previamente se introducen desde el terminal de entrada 201. Los datos comprimidos incluyen una señal residual obtenidos prediciendo y codificando un bloque objetivo de una pluralidad de bloques de una imagen dividida, así como la información necesaria para generar una señal de predicción. Tal como se muestra en el ejemplo en la figura 7, el tamaño de bloque no está limitado. Una variedad de tamaños y formas de bloque pueden definirse de manera coincidente en una imagen. El orden de descodificación de bloque se describe, por ejemplo, en la bibliografía de no patente 1. La información necesaria para generar una señal de predicción incluye la información de selección del método de predicción y la información de movimiento (para la predicción entre imágenes) o el modo intrapredicción (para la predicción intraimagen).
El analizador de datos 202 descodifica la señal residual del bloque objetivo, la información necesaria para generar una señal de predicción y el parámetro de cuantificación a partir de los datos comprimidos. El cuantificador inverso 203 cuantifica inversamente la señal residual descodificada del bloque objetivo basándose en el parámetro de cuantificación (a través de una línea L202). El transformador inverso 204 transforma inversamente la señal residual cuantificada inversamente mediante la transformada de coseno discreta. Como resultado, se reconstruye la señal residual. A continuación, la información necesaria para generar una señal de predicción se envía al generador de señales de predicción 208 a través de una línea L206. El generador de señales de predicción 208 genera una señal de predicción del bloque objetivo basándose en la información necesaria para generar una señal de predicción. Un procedimiento de generación de una señal de predicción en el generador de señales de predicción 208 se describe más adelante utilizando la figura 14. La señal de predicción generada se envía al sumador 205 a través de una línea L208 y se suma a la señal residual reconstruida. El bloque objetivo señal por tanto se reconstruye y se emite al filtro de bucle 209 a través de una línea L205 y, al mismo tiempo, se almacena en la memoria de bloques 215 para utilizarse para la predicción intraimagen de bloques posteriores. El filtro de bucle 209 elimina un ruido de bloque a partir de la entrada de la señal reconstruida a través de la línea L205. La imagen reconstruida que tiene un ruido de bloque eliminado se almacena en la memoria de tramas 207 como una imagen reconstruida para utilizarse en la de descodificación y reproducción de imágenes posteriores.
El flujo de procesamiento de la señal de predicción realizado en el generador de señales de predicción 208 se describe utilizando la figura 14. En primer lugar, en la etapa S402, se obtiene el método de predicción descodificado mediante el analizador de datos 202.
Si el método de predicción descodificado es la predicción entre imágenes (etapa S403), se obtiene la información de movimiento (la información de vector de movimiento y la imagen de referencia) descodificada mediante el analizador de datos 202 (etapa S404). Se accede a la memoria de tramas 207 basándose en la información de movimiento para obtener una señal de referencia a partir de una pluralidad de imágenes de referencia, y se genera una señal de predicción (etapa S405).
Si el método de predicción descodificado es la predicción intraimagen (etapa S403), se obtiene el modo intrapredicción descodificado mediante el analizador de datos 202 (etapa S406). Se accede a la memoria de bloques 215 para obtener señales de píxel previamente reconstruidas ubicadas adyacentes al bloque objetivo como muestras de referencia, y se genera una señal de predicción basándose en el modo intrapredicción (etapa S407). La señal de predicción generada se emite al sumador 205 a través de L208.
El método de descodificación utilizado en el analizador de datos 202 puede ser descodificación aritmética o puede ser descodificación de longitud variable.
A continuación, se describe el método de predicción intraimagen en un modo de realización de la presente invención utilizando la figura 3 y la figura 7. Concretamente, se describen los detalles de la etapa S309 en la figura 13 y de la etapa S407 en la figura 14, que incluyen un método de estimación de las muestras por intrapredicción en un bloque objetivo mediante extrapolación basándose en el modo intrapredicción utilizando las muestras de referencia obtenidas a partir de la memoria de bloques 113 en la figura 1 o de la memoria de bloques 215 en la figura 2.
En la presente invención, con el fin de suprimir ruidos tales como artefactos periféricos descritos previamente en la sección Problema técnico, se aplica un procedimiento de interpolación bilineal a un grupo de muestras de referencia utilizas en la predicción intraimagen con respecto al bloque que experimenta artefactos periféricos. Un aspecto de ruido en forma de escalón en el límite de bloque del grupo de muestras de referencia se suprime haciendo que la señal del grupo de muestras de referencia cambie suavemente.
El procedimiento de interpolación bilineal aplicado al grupo de muestras de referencia se describe utilizando la figura 7. Cuando un bloque objetivo 201 tiene un tamaño de bloque de NxN muestras, el grupo de muestras de referencia adyacentes 270 de 4N 1 muestras de referencia (ref[x] (x = 0 a 4N)) se forma con las señales previamente reconstruidas que pertenecen a cinco bloques previamente reconstruidos 220, 230, 240, 250 y 260. En el presente modo de realización, tres muestras de referencia ubicadas en los extremos del grupo de muestras de referencia 270, concretamente, la muestra de referencia inferior izquierda BL = ref[0] y la muestra de referencia superior derecha AR= ref[4N] y la muestra de referencia superior izquierda AL = ref[2N] ubicadas en el centro del grupo de muestras de referencia 270 y en la parte superior izquierda del bloque objetivo se definen como muestras de referencia clave de la interpolación bilineal. En el presente documento, las 4N+ 1 muestras de referencia se interpolan de la siguiente manera.
ref'[0] = ref[0] (1)
ref'[i] = BL (i*(AL - BL) N) I 2N (i =1 a 2N -1) (2)
ref'[2N] = ref[2N] (3)
ref'[2N i] = AL (i*(AR - AL) N) I 2N (i = 1 a 2N -1) (4)
ref'[4N] = ref[4N] (5)
donde ref'[x] (x = 0 a 4N) representa los valores de las muestras de referencia interpoladas. Las ecuaciones (2) y (4) pueden transformarse en las ecuaciones (2)' y (4)', respectivamente.
ref'[i] = ((2N- i)*BL i* AL N) I 2N(i = 1 a 2N -1) (2)'
ref'[2N i] = ((2N- i)* AL i*AR N) I 2N (i =1 a 2 N -1) (4)'
Los valores de las muestras de referencia entre BL y AL se generan con las muestras de referencia clave BL y AL mediante interpolación bilineal, y los valores de las muestra de referencia entre AL y AR se generan con las muestras de referencia clave AL y AR mediante interpolación bilineal, dando como resultado que los niveles de los valores de las muestras de referencia interpoladas se hacen cambiar suavemente. Como resultado, puede suprimirse la propagación de ruido de bloque a la señal de predicción.
A continuación, se describen los criterios para determinar si la interpolación bilineal debe aplicarse a las muestras de referencia utilizando la figura 7. En el presente modo de realización, la determinación se hace utilizando las tres muestras de referencia clave y dos muestras de referencia en el límite de bloque, y dos umbrales. UMBRAL_SUPERIOR y UMBRAL_IZQUIERDO son umbrales utilizados para determinar si la interpolación bilineal debe aplicarse a las muestras de referencia ref[x] (x = 2N 1 a 4N -1 ) en la posición superior y las muestras de referencia ref[x] (x = 1 a 2 N -1) en la posición izquierda, respectivamente, con respecto al bloque objetivo. La interpolación bilineal se aplica a la muestra de referencia que satisface los criterios de determinación.
En el presente modo de realización, se utilizan los siguientes criterios de determinación. Interpolar_Superior e Interpolar_Izquierdo en las dos ecuaciones siguientes son valores booleanos. Cuando se satisface el lado derecho, es verdadero (1) y se aplica la interpolación bilineal. Cuando no se satisface el lado derecho, es falso (0) y se aplica el intrasuavizado mediante el filtro 121 convencional.
Interpolar_Izquierdo= abs(BL AL- 2 *ref[N]) < UMBRAL_IZQUIERDO (6)
Interpolar_Superior = abs(AL AR - 2*ref[3N]) < UMBRAL_SUPERIOR (7)
Cuando los valores de BL, AL y ref[3N] están sobre una línea recta, el valor de BL AL- 2*ref[N] es cero. De manera similar, cuando los valores de A l , AR y ref[3N] están sobre una línea recta, el valor de AL a R - 2*ref[3N] también es cero. En otras palabras, las dos ecuaciones anteriores comparan la magnitud de desviación de ref[N] desde la línea recta que conecta b L y AL y la magnitud de desviación de ref[3N] desde la línea recta que conecta AL y AR, con de los umbrales respectivos. Si las dos desviaciones calculadas son más pequeñas que el umbral correspondiente UMBRAL_SUPERIOR o UMBRAL_ IZQUIERDO, el valor booleano (Interpolar_Superior o Interpolar_Izquierdo) es verdadero, y la interpolación bilineal se aplica a la muestra de referencia. En las ecuaciones (6) y (7), abs(x) calcula el valor absoluto de x.
Los valores de los dos umbrales (UMBRAL_SUPERIOR y UMBRAL_ IZQUIERDO) pueden preestablecerse a valores fijos, o pueden codificarse para cada trama o para cada trozo que tiene una pluralidad de bloques juntos, y descodificarse mediante el descodificador. Los valores de los dos umbrales pueden codificarse para cada bloque y descodificarse mediante el descodificador. En la figura 2, los dos umbrales se descodifican mediante el analizador de datos 202 y se emiten al generador de señales de predicción 208 para utilizarse en la generación una señal de predicción intraimagen detallada a continuación en la figura 3 y la figura 4.
La figura 3 muestra un diagrama de flujo de un procedimiento de estimación de las muestras por intrapredicción mediante extrapolación (en las direcciones de predicción intraimagen). En primer lugar, en la etapa S510, el generador de señales de predicción (103 o 208, en lo sucesivo se omite el número de referencia) obtiene las muestras de referencia ref[x] (x = 0 a 4N) tal como se muestra en el grupo de píxeles 270 en la figura 7, a partir de la memoria de bloques (113 o 215, en lo sucesivo se omite el número de referencia). Si los bloques adyacentes aún no se han reconstruido debido al orden de codificación u otros motivos, y no pueden obtenerse todas las 4N 1 muestras, las muestras perdidas se sustituyen mediante el procedimiento de relleno (se copian los valores de las muestras adyacentes), a través del cual se preparan las 4N 1 muestras de referencia. Los detalles del procedimiento de relleno se describen en la bibliografía de no patente 1. A continuación, en la etapa 560, se calculan dos valores booleanos Interpolar_ Superior e Interpolar_ Izquierdo con las ecuaciones (6) y (7).
A continuación, en la etapa 520, el generador de señales de predicción determina si el bloque objetivo satisface los criterios de determinación para aplicar la interpolación bilineal. Concretamente, se determina si el tamaño del bloque objetivo es mayor que un valor M predeterminado, y también se determina si el Interpolar_ Superior como el Interpolar_ Izquierdo calculados son ambos verdaderos. El motivo por el que el tamaño de bloque se establece como criterio de determinación es debido a que es posible que el problema de los artefactos periféricos se produzca en un bloque de gran tamaño. La prueba para determinar si el tamaño de un bloque es mayor que el gran valor M ayuda a evitar que se realicen cambios innecesariamente a las muestras de referencia.
Si los dos criterios de determinación se satisfacen (tamaño de bloque >= M e Interpolar_ Superior == verdadero e Interpolar_ Izquierdo == verdadero), el procedimiento avanza a la etapa 530. Si no se satisfacen, el procedimiento avanza a la etapa 540. En la etapa 530, el procedimiento de interpolación bilineal que se muestra en las ecuaciones (1) a (5) se aplica a las muestras de referencia ref[x] (x = 0 a 4N) para generar las muestras de referencia interpoladas ref'[x] (x = 0 a 4N). En la etapa 540, según las ecuaciones (8) y (9), se aplica intrasuavizado mediante el filtro 121 a las muestras de referencia ref[x] (x = 0 a 4N).
ref'[i] = ref[i] (i = 0 y 4N) (8)
ref'[i] = (ref[i -1] 2*ref[i] ref[i 1] 2) I 4 (i = 1 a 4N -1) (9),
Finalmente, en la etapa 550, las muestras por intrapredicción del bloque objetivo se estiman mediante extrapolación (en la dirección de predicción intraimagen) utilizando el modo intrapredicción ya determinado y las muestras de referencia suavizadas o interpoladas ref'[x] (x = 0 a 4N).
La figura 4 ilustra además los detalles de la figura 3 y muestra un diagrama de flujo de un procedimiento de estimación de la muestra por intrapredicción mediante extrapolación (en la dirección de predicción intraimagen) en caso de que la conmutación entre la interpolación bilineal y el filtro 121 se lleve a cabo separada e independientemente en las muestras de referencia izquierdas (ref[x], x = 0 a 2N) y las muestras de referencia superiores (ref[x], x = 2N a 4N). En primer lugar, en la etapa 610, el generador de señales de predicción (103 o 208, en lo sucesivo se omite el número de referencia) obtiene las muestras de referencia ref[x] (x = 0 a 4N) tal como se muestra en el grupo de píxeles 270 en la figura 7 a partir de la memoria de bloques (113 o 215, en lo sucesivo se omite el número de referencia). Si los bloques adyacentes aún no se han reconstruido debido al orden de codificación u otros motivos, y no pueden obtenerse todas las 4N 1 muestras de referencia, las muestras perdidas se sustituyen mediante el procedimiento de relleno (se copian los valores de las muestras adyacentes), a través del cual se preparan las 4N 1 muestras de referencia. Los detalles del procedimiento de relleno se describen en la bibliografía de no patente 1.
A continuación, en la etapa 680, los dos valores booleanos Interpolar_Superior e Interpolar_ Izquierdo se calculan con las ecuaciones (6) y (7).
A continuación, en la etapa 620, el generador de señales de predicción determina si el bloque objetivo satisface los criterios para aplicar la interpolación bilineal. Concretamente, se determina si el tamaño del bloque objetivo es mayor que el valor M predeterminado, y también se determina si al menos, uno de los Interpolar Superior e Interpolar_ Izquierdo calculados, es verdadero. Si estos dos criterios de determinación se satisfacen (tamaño de bloque >= M e Interpolar_ Superior == verdadero o Interpolar_Izquierdo == verdadero), el procedimiento avanza a la etapa 625. Si no se satisfacen, el procedimiento avanza a la etapa 660. En la etapa 660, se aplica el intrasuavizado mediante el filtro 121 al grupo de muestras de referencia con las ecuaciones (8) y (9).
En la etapa 625, se determina si se satisface el criterio de determinación, tal como se muestra en la ecuación (6), para aplicar la interpolación bilineal en las muestras de referencia izquierdas. Concretamente, si Interpolar_ Izquierdo es verdadero (1), el procedimiento avanza a la etapa 630 y se aplica el procedimiento de interpolación bilineal que se muestra en las ecuaciones (1) y (2) a las muestras de referencia ref[x] (x = 0 a 2N) para generar las muestras de referencia interpoladas ref'[x] (x = 0 a 2N). Si el criterio de determinación en la ecuación (6) no se satisface, el procedimiento avanza a la etapa 635 y se aplica el intrasuavizado mediante el filtro 121 a las muestras de referencia izquierdas ref[x] (x = 0 a 2N) con las ecuaciones (10) y (11).
ref'[0] = ref[0] (10)
ref'[i] = (ref[i -1] 2*ref[i] ref[i 1] 2) I 4 (i = 1 a 2N -1) (11),
donde ref'[x] (x = 0 a 2N) representa los valores de las muestras de referencia suavizadas.
A continuación, en la etapa 640, se determina si se satisface el criterio de determinación, tal como se muestra en la ecuación (7), para aplicar la interpolación bilineal en las muestras de referencia superiores. Concretamente, si Interpolar_Superior es verdadero (1), el procedimiento avanza a la etapa 650 y el procedimiento de interpolación bilineal se aplica a las muestras de referencia superiores ref[i] (i = 2N 1 a 4N) con las ecuaciones (3), (4) y (5). Si no se satisface el criterio de determinación en la ecuación (7), el procedimiento avanza a la etapa 655 y se aplica el intrasuavizado mediante el filtro 121 a las muestras de referencia superiores ref[x] (x = 2N 1 a 4N) basándose en las ecuaciones (12), (13) y (14).
ref'[2N] = ref[2N] (12)
ref'[i] = (ref[i -1] 2*ref[i] ref[i 1] 2) I 4 (i = 2N 1a 4 N -1) (13)
ref'[4N] = ref[4N] (14),
donde ref'[x] (x = 2N 1 a 4N) representa los valores de los valores de referencia suavizados.
Finalmente, en la etapa 670, las muestras por intrapredicción del bloque objetivo se estiman mediante extrapolación (en la dirección de predicción intraimagen) utilizando el modo intrapredicción ya determinado y las muestras de referencia suavizadas o interpoladas ref'[x] (x = 0 a 4N). Para la extrapolación, cuando se proyecta una línea en la dirección de intrapredicción hacia las muestras de referencia suavizadas o interpoladas desde la posición de la muestra en el bloque objetivo que va a extrapolarse, se utilizan las muestras de referencia suavizadas o interpoladas que están ubicadas próximas a la línea proyectada.
Un programa de codificación por predicción de imágenes en movimiento para hacer que un ordenador funcione como el dispositivo de codificación por predicción de imágenes en movimiento 100 que se ha descrito previamente puede proporcionarse en un medio de grabación. De manera similar, un programa de descodificación por predicción de imágenes en movimiento para hacer que un ordenador funcione como el dispositivo de descodificación por predicción de imágenes en movimiento 200 que se ha descrito previamente puede proporcionarse en un medio de grabación. Ejemplos del medio de grabación incluyen un medio de grabación tal como una memoria USB, un disco flexible, un CD-ROM, un DVD o una ROM, y una memoria semiconductora.
Por ejemplo, tal como se muestra en la figura 16, un programa de codificación por predicción de imágenes en movimiento P100 incluye un módulo de división en bloques P101, un módulo de generación de señales de predicción P102, un módulo de generación de señales residuales P103, un módulo de compresión de señales residuales P104, un módulo de restauración de señales residuales P105, un módulo de codificación P106 y un módulo de almacenamiento de bloques P107.
Por ejemplo, tal como se muestra en la figura 17, un programa de descodificación por predicción de imágenes en movimiento P200 incluye un módulo de descodificación P201, un módulo de generación de señales de predicción P202, un módulo de restauración de señales residuales P203 y un módulo de almacenamiento de bloques P204.
El programa de codificación por predicción de imágenes en movimiento P100 o el programa de descodificación por predicción de imágenes en movimiento P200 configurado de esta manera se almacena en un medio de grabación 10 que se muestra en la figura 5 y en la figura 6 descritas más adelante y se ejecuta mediante un ordenador descrito más adelante.
La figura 5 es un diagrama que muestra una configuración de hardware de un ordenador 30 para ejecutar un programa almacenado en un medio de grabación, y la figura 6 es una descripción general del ordenador 30 para ejecutar un programa almacenado en un medio de grabación. El ordenador 30 referido ampliamente en el presente documento incluye un reproductor de DVD, un descodificador, un teléfono móvil y similares, que están equipados con una CPU para realizar el procesamiento o control de la información por software.
Tal como se muestra en la figura 6, el ordenador 30 incluye un lector 12 tal como una unidad de disco flexible, una unidad de CD-ROM o una unidad de DVD, una memoria de trabajo 14 (RAM) que tiene un sistema operativo residente, una memoria 16 para almacenar un programa almacenado en el medio de grabación 10, un dispositivo de visualización 18 tal como una pantalla, un ratón 20 y un teclado 22 que sirven de dispositivos de entrada, un dispositivo de comunicación 24 para transmitir/recibir datos y una CPU 26 para controlar la ejecución de un programa. Cuando el medio de grabación 10 se inserta en el lector 12, el ordenador 30 puede acceder al programa de codificación por predicción de imágenes en movimiento almacenado en el medio de grabación 10 desde el lector 12 y puede funcionar como el dispositivo de codificación por predicción de imágenes en movimiento 100 descrito previamente con el programa de codificación por predicción de imágenes en movimiento. De manera parecida, cuando el medio de grabación 10 se inserta en el lector 12, el ordenador 30 puede acceder al programa de descodificación por predicción de imágenes en movimiento almacenado en el medio de grabación 10 desde el lector 12 y puede funcionar como el dispositivo de descodificación por predicción de imágenes en movimiento 200 descrito previamente con el programa de descodificación por predicción de imágenes en movimiento.
La presente invención puede adoptar las siguientes modificaciones:
(A) Criterios de determinación para aplicar interpolación bilineal
Los criterios de determinación para aplicar la interpolación bilineal no se limitan al método analizado en el modo de realización anterior. Por ejemplo, suponiendo que el resultado de la determinación para aplicar la interpolación es siempre verdadero, pueden omitirse las etapas 520, 620, 625 y 640. En este caso, el procedimiento de interpolación se aplica siempre en lugar del procedimiento de suavizado mediante el filtro 121.
El modo intrapredicción puede añadirse a los criterios de determinación. Por ejemplo, se mitigan los artefactos periféricos en el límite de bloque mediante un procedimiento de eliminación del ruido del bloque y, por lo tanto, el resultado de la determinación para aplicar el procedimiento de interpolación puede ser siempre falso cuando la dirección de predicción del procedimiento de extrapolación es vertical u horizontal.
La prueba de tamaño de bloque puede eliminarse de los criterios de determinación. La correlación de tamaño de bloque entre el bloque objetivo y el bloque adyacente puede utilizarse como criterio de determinación en lugar del tamaño de bloque del bloque objetivo. En el ejemplo en la figura 7, el tamaño de bloque del bloque 260 ubicado adyacente a la izquierda del bloque objetivo 201 es mayor que el del bloque objetivo 201. En este caso, no se produce un ruido de bloque alrededor de ref[N]. Cuando el tamaño de bloque del bloque adyacente es mayor que el del bloque objetivo de esta manera, el criterio de determinación para aplicar la interpolación puede ser falso sin tener en cuenta el resultado de la ecuación (6) o (7). Por otra parte, los bloques 230, 240 y 250 ubicados adyacentes por encima del bloque objetivo 201 son más pequeños que el bloque objetivo 201. En este caso, se determina la aplicación de interpolación en función del resultado de la ecuación (6) o (7) debido a que es posible que un ruido de bloque se produzca alrededor de ref[3N] o ref[2N N/2]. La correlación en tamaño de bloque entre el bloque objetivo y el bloque adyacente puede utilizarse como criterio de determinación junto con el tamaño de bloque del bloque objetivo.
Los umbrales (UMBRAL_ SUPERIOR y UMBRAL _IZQUIERDO) en las ecuaciones (6) y (7) en las ecuaciones (6) y (7) pueden definirse de manera separada para diferentes tamaños de bloque y formas de bloque (diferencias en tamaños de bloque vertical y horizontal) o diferentes modos intrapredicción y codificación y se reconstruyen mediante el descodificador. Alternativamente, los valores de UMBRAL_ SUPERIOR y UMBRAL_ IZQUIERDO pueden establecerse al mismo valor, solo uno de los cuales se codifica y descodifica mediante el descodificador. En el descodificador, el umbral reconstruido mediante el analizador de datos 202 en la figura 2 se introduce en el generador de señales de predicción 208. En el generador de señales de predicción 208, los valores de Interpolar_ Superior e Interpolar_Izquierdo se calculan basándose en el umbral introducido (etapa 560 de la figura 3 o etapa 680 de la figura 4).
En lugar de proporcionar los criterios de determinación en las etapas 520, 620, 625 y 640, el resultado de la determinación puede incluirse en el flujo de bits que va a codificarse y descodificarse mediante el descodificador. En este caso, en el generador de señales de predicción 103 de la figura 1, los valores (0 o 1) de Interpolar_ Superior e Interpolar_ Izquierdo, los dos valores se obtienen basándose en el tamaño del bloque objetivo y los resultados de la ecuación (6) y (7) y se codifican como información de predicción necesaria para predecir cada bloque o cada grupo de bloques constituido por una pluralidad de bloques. En otras palabras, se envían esos valores al codificador de entropía 111 a través de la línea L112 para codificar y después se emiten desde el terminal de salida 112. Cuando se obtienen los valores (0 o 1) de Interpolar_ Superior e Interpolar_ Izquierdo, puede utilizarse la correlación de tamaño de bloque entre el bloque objetivo y el bloque adyacente y el tamaño del bloque objetivo y el modo intrapredicción tal como se ha descrito anteriormente.
En el analizador de datos 202 de la figura 2, los valores de Interpolar_ Superior e Interpolar_ Izquierdo se descodifican para cada bloque o para cada grupo de bloques constituido por una pluralidad de bloques y se introducen en el generador de señales de predicción 208. Esos dos valores pueden codificarse y descodificarse de manera separada, o pueden codificarse y descodificarse los dos valores como un conjunto.
El procedimiento del método de predicción intraimagen realizado en el generador de señales de predicción 208 en la figura 2 se describe utilizando la figura 15. En este caso, la figura 15 reemplaza a la figura 4. En la figura 14, en la etapa S406, se obtienen los valores de Interpolar_ Superior e Interpolar_ Izquierdo descodificados juntos con el modo intrapredicción. En primer lugar, en la etapa 710, el generador de señales de predicción (103 o 208, en lo sucesivo se omite el número de referencia) obtiene las muestras de referencia ref[x] (x = 0 a 4N), tal como se muestra en el grupo de píxeles 270 de la figura 7, a partir de la memoria de bloques (113 o 215, en lo sucesivo se omite el número de referencia). Si los bloques adyacentes aún no se han reconstruido debido al orden de codificación u otros motivos, y no pueden obtenerse todas las 4N 1 muestras de referencia, las muestras perdidas se sustituyen a través del procedimiento de relleno (se copian los valores de las muestras adyacentes), a través del cual se preparan las 4N 1 muestras de referencia. Los detalles del procedimiento de relleno se describen en la bibliografía de no patente 1.
A continuación, en la etapa 790, se obtienen los valores de Interpolar_ Superior e Interpolar_ Izquierdo. En la etapa 720, el generador de señales de predicción determina si el valor de Interpolar_ Superior o el de Interpolar_Izquierdo toma un valor de “1”. Si cualquiera de los dos toma un valor de “1”, el procedimiento avanza a la etapa 725. Si no se satisface, el procedimiento avanza a la etapa 760. En la etapa 760, se aplica el intrasuavizado mediante el filtro 121 al grupo de muestras de referencia con las ecuaciones (8) y (9).
En la etapa 725, si el valor de Interpolar_Izquierdo es “1”, el procedimiento avanza a la etapa 730 y se aplica el procedimiento de interpolación bilineal, que se muestra en las ecuaciones (1) y (2), a las muestras de referencia ref[x] (x = 0 a 2N) para generar las muestras de referencia interpoladas ref'[x] (x = 0 a 2N). Si el valor de Interpolar_Izquierdo es “0”, el procedimiento avanza a la etapa 735 y se aplica el intrasuavizado mediante el filtro 121 a las muestras de referencia izquierdas ref[x] (x = 0 a 2N) con las ecuaciones (10) y (11).
A continuación, en la etapa 740, si el valor de lnterpolar_Superior es “1”, el procedimiento avanza a la etapa 750 y se aplica el procedimiento de interpolación bilineal a las muestras de referencia superiores ref[i] (i = 2N 1 a 4N) con las ecuaciones (3), (4) y (5). Si el valor de Interpolar_Superior es “0”, el procedimiento avanza a la etapa 755 y se aplica el intrasuavizado mediante el filtro 121 a las muestras de referencia izquierdas ref[x] (x = 2N 1 a 4N) con las ecuaciones (12), (13) y (14).
Finalmente, en la etapa 770, las muestras por intrapredicción del bloque objetivo se estiman mediante extrapolación (en la dirección de predicción intraimagen) utilizando el modo intrapredicción descodificado y las muestras de referencia suavizadas o interpoladas ref'[x] (x = 0 a 4N).
(B) Procedimiento de interpolación
En la descripción anterior, la interpolación bilineal se utiliza en el procedimiento de interpolación. Sin embargo, puede utilizarse otro procedimiento de interpolación siempre que pueda eliminarse un ruido en el límite de bloque. Por ejemplo, todas las muestras de referencia pueden reemplazarse con el valor medio de las muestras de referencia clave. El método del procedimiento de interpolación puede cambiarse según el tamaño de bloque o el tipo de predicción intraimagen El método del procedimiento de interpolación que va a aplicarse puede incluirse en el flujo de bits que va a codificarse y descodificarse.
(C) Flujo del procedimiento de predicción intraimagen de muestras de referencia
El flujo del procedimiento de estimación de las muestras por intrapredicción mediante extrapolación (en la dirección de predicción intraimagen) no está limitado al procedimiento de la figura 4. Por ejemplo, las etapas 625, 630 y 635 y las etapas 640, 650 y 655 pueden conmutar su orden. La ecuación (3) y la ecuación (12) pueden llevarse a cabo no en las etapas 650 y 655, sino en las etapas 630 y 635. Dado que los resultados del procedimiento de las ecuaciones (1), (3) y (5) y de las ecuaciones (10), (12) y (14) son los mismos, pueden llevarse a cabo juntas inmediatamente antes de la etapa 625 (entre las etapas 620 y 625), o inmediatamente después de las etapas 650 y 655 (entre la etapa 650 o 655 y la etapa 670).
Los criterios de determinación en la etapa 620 solo pueden incluir el tamaño de bloque. En este caso, la ecuación (12) puede reemplazarse con las ecuaciones (15) y (16) debido a que el resultado del procedimiento es el mismo que el de la figura 4.
ref [2N] = ref[2N]
si Interpolar_ Superior == verdadero | | Interpolar_ Izquierdo= verdadero (15)
ref' [2N] = (ref[2N -1 ] 2 *ref[2N] ref[2N 1] 2) I 4
otros (16),
donde ref' [2N] representa los valores de la muestra de referencia suavizada.
(D) Tamaño de bloque
En la descripción anterior, el bloque objetivo es un bloque cuadrado. El procedimiento de interpolación para las muestras de referencia según la presente invención puede aplicarse a un bloque no cuadrado. Un ejemplo de un bloque objetivo 290 de un tamaño de bloque de Nx2N se muestra en la figura 12. En este caso, el número de ref[x] es 3N 1.
(E) Muestra de referencia clave
En la descripción anterior, las tres muestras de referencia clave están ubicadas en los extremos y el centro del grupo de muestras de referencia. Sin embargo, el número y la posición no se limitan a los mismos. Por ejemplo, puede cambiarse el número o la posición según el tamaño del bloque de referencia o la correlación entre el bloque de referencia y el bloque adyacente. El número y la posición de las muestras de referencia clave también pueden incluirse en el flujo de bits que va a codificarse y descodificarse. Las tres muestras de referencia clave en los extremos y el centro del grupo de muestras de referencia pueden establecerse como por defecto y, si se usan las muestras de referencia clave por defecto u otras, puede codificarse como información de instrucciones y descodificarse. En el analizador de datos 202 de la figura 2, se actualizan las muestras de referencia clave. Así como las muestras de referencia clave que van actualizarse, ref[N N/2] y ref[2N N/2] pueden añadirse en la figura 7 o pueden utilizarse en lugar de ref[2N]. Alternativamente, ref[N/2] y ref[3N N/2] pueden utilizarse en lugar de ref[0] y ref[ 4N] y el filtro 121 puede aplicarse a ref[1] hasta ref[N/2 -1 ] y ref[3N N/2] hasta ref[4N -1].
(F) Ecuaciones de criterios de determinación
Las ecuaciones de determinación utilizas en las etapas 520, 620, 625 y 640 no se limitan a las ecuaciones (6) y (7). Por ejemplo, ref[N 1] y ref[3N 1] pueden utilizarse en lugar de ref[N] y ref[3N] en la figura 7.
Lista de signos de referencia
100: dispositivo de codificación por predicción de imágenes en movimiento; 101: terminal de entrada; 102: divisor de bloques; 103: generador de señales de predicción; 104: memoria de tramas; 105: sustractor; 106: transformador; 107: cuantificador; 108: cuantificador inverso; 109: transformador inverso; 110: sumador; 111 : codificador de entropía; 112: terminal de salida; 113: memoria de bloques; 114: filtro de bucle; 200: dispositivo de descodificación por predicción de imágenes en movimiento; 201: terminal de entrada; 202: analizador de datos; 203: cuantificador inverso; 204: transformador inverso; 205: sumador; 206: terminal de salida; 207: memoria de tramas; 208: generador de señales de predicción; 209: filtro de bucle; 215: memoria de bloques.

Claims (4)

REIVINDICACIONES
1. Dispositivo de codificación por predicción de imágenes en movimiento que comprende:
medio de división en bloques (102) para dividir una imagen de entrada en una pluralidad de bloques;
medio de generación de señales de predicción (103) para generar una señal de predicción intraimagen para un bloque objetivo (210) que va a codificarse utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo entre los bloques divididos a partir del medio de división en bloques;
medio de generación de señales residuales para generar una señal residual entre la señal de predicción intraimagen del bloque objetivo y una señal de píxel del bloque objetivo;
medio de compresión de señales residuales para comprimir la señal residual generada por el medio de generación de señales residuales;
medio de restauración de señales residuales para generar una señal residual reconstruida a partir de la señal residual comprimida;
medio de codificación (111) para codificar la señal residual comprimida, y
medio de almacenamiento de bloques (113) para almacenar una señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en el que la señal de píxel del bloque objetivo se reconstruye sumando la señal de predicción intraimagen con la señal residual reconstruida, y
en el que el medio de generación de señales de predicción (103) está adaptado para obtener muestras de referencia (ref[0], ref[N], ref[2N], ref[3N], ref[4N]) a partir de los bloques previamente reconstruidos (220, 230, 240, 250, 260), almacenados en el medio de almacenamiento de bloques (113), que son adyacentes al bloque objetivo (210), en el que
el bloque objetivo tiene un tamaño de NxN,
una primera muestra de referencia clave (AL, ref[2N]) es la muestra situada en la intersección entre la primera fila superior contigua al bloque objetivo (210) y la primera columna izquierda contigua al bloque objetivo (210),
una segunda muestra de referencia clave (BL,ref[0]) es la muestra 2N-ésima por debajo de la primera muestra de referencia clave,
una tercera muestra de referencia clave (AR, ref[4N]) es la muestra 2N-ésima a la derecha de la primera muestra de referencia clave,
una cuarta muestra de referencia clave (ref[N]) es la muestra N-ésima por debajo de la primera muestra de referencia clave, and
una quinta muestra de referencia clave (ref[3N]) es la muestra N-ésima a la derecha de la primera muestra de referencia clave,
para llevar a cabo una interpolación lineal entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia interpoladas en la primera columna izquierda contigua al bloque objetivo (210), cuando la magnitud de desviación de la cuarta muestra de referencia clave (ref[N]) desde línea recta que conecta las muestras de referencia clave primera y segunda (AL, BL) es menor que un primer umbral (UMBRAL_IZQUIERDO)), de lo contrario para llevar a cabo intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia intrasuavizadas,
para llevar a cabo una interpolación lineal entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia interpoladas en la primera fila superior contigua al bloque objetivo (210), cuando la magnitud de desviación de la quinta muestra de referencia clave (ref[3N]) desde la línea recta que conecta las muestras de referencia clave primera y tercera (AL, AR) es menor que un segundo umbral (UMBRAL_SUPERIOR), de lo contrario para llevar a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia intrasuavizadas, para determinar un modo de intrapredicción, y para generar la señal de predicción intraimagen extrapolando o bien las muestras de referencia interpoladas o bien muestras intrasuavizadas basándose en el modo de intrapredicción determinado,
en el que el medio de codificación (111) está adaptado para codificar el modo intrapredicción junto con los datos de compresión de la señal residual.
2. Dispositivo de descodificación por predicción de imágenes en movimiento que comprende:
medio (203, 204) de descodificación para descodificar, a partir de datos de compresión codificados para una pluralidad de bloques divididos, un modo intrapredicción que indica un procedimiento de predicción intraimagen de un bloque objetivo (210) que va a descodificarse, y una señal residual comprimida;
medio (208) de generación de señales de predicción para generar una señal de predicción intraimagen utilizando el modo intrapredicción y muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo;
medio (203) de restauración de señal residual para restaurar una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y
medio (215) de almacenamiento de bloques para restaurar una señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en el que
el medio de generación de señales de predicción (208) está adaptado para obtener muestras de referencia (ref[0], ref[N], ref[2N], ref[3N], ref[4N]) a partir de los bloques previamente reconstruidos (220, 230, 240, 250, 260), almacenados en el medio de almacenamiento de bloques, que son adyacentes al bloque objetivo (210), en el que
el bloque objetivo (210) tiene un tamaño de NxN ,
una primera muestra de referencia clave (AL, ref[2N]) es la muestra situada en la intersección entre la primera fila superior contigua al bloque objetivo (210) y la primera columna izquierda contigua al bloque objetivo (210),,
una segunda muestra de referencia clave (BL, ref[0]) es la muestra 2N-ésima por debajo de la primera muestra de referencia clave,
una tercera muestra de referencia clave (AR, ref[4N]) es la muestra 2N-ésima a la derecha de la primera muestra de referencia clave,
una cuarta muestra de referencia clave (ref[N]) es la muestra N-ésima por debajo de la primera muestra de referencia clave, y
una quinta muestra de referencia clave (ref[3N]) es la muestra N-ésima a la derecha de la primera muestra de referencia clave,
para llevar a cabo una interpolación lineal entre la muestras de referencia clave primera y segunda (AL, BL) para generar las muestras de referencia interpoladas en la primera columna izquierda contigua al bloque objetivo (210), cuando la maginutid de desviación de la cuarta muestra de referencia clave (ref[N]) desde la línea recta que conecta las muestras de referencia clave primera y segunda (AL, BL) es menor que un primer umbral (UMBRAL_IZQUIERDO), de lo contrario para llevar a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia intrasuavizadas,
para llevar a cabo una interpolación lineal entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia interpoladas en la primera fila superior contigua al bloque objetivo (210), cuando la magnitud de desviación de la quinta muestra de referencia clave (ref[3N]) desde la línea recta que conecta las muestras de referencia clave primera y tercera (AL, AR) es menor que un segundo umbral (UMBRAL_SUPERIOR), de lo contrario para llevar a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia intrasuavizadas, y para generar la señal de predicción de intraimagen extrapolando o bien las muestras de referencia interpoladas o bien muestras intrasuavizadas basándose en el modo intrapredicción.
3. Procedimiento de codificación por predicción de imágenes en movimiento ejecutado por un dispositivo de codificación por predicción de imágenes en movimiento, comprendiendo el procedimiento de codificación por predicción de imágenes en movimiento:
una etapa de división en bloques que divide una imagen de entrada en una pluralidad de bloques;
una etapa de generación de señales de predicción que genera, utilizando muestras de referencia previamente reconstruidas ubicadas adyacentes a un bloque objetivo (210) que va a codificarse entre los bloques divididos de la etapa de división en bloques, una señal de predicción intraimagen para el bloque objetivo;
una etapa de generación de señales residuales que genera una señal residual entre la señal de predicción del bloque objetivo y una señal de píxel del bloque objetivo;
una etapa de compresión de señales residuales que comprime la señal residual generada en la etapa de generación de señales residuales;
una etapa de restauración de señales residuales que genera una señal residual reconstruida restaurando la señal residual comprimida;
una etapa de codificación que codifica la señal residual comprimida, y
una etapa de almacenamiento de bloques que restaura la señal de píxel del bloque objetivo sumando la señal de predicción con la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en el que
en la etapa de generación de señales de predicción, se obtienen muestras de referencia (ref[0], ref[N], ref[2n], ref[4N]) a partir de bloques previamente reconstruidos (220, 230, 240, 250, 260), que se almacenan y son adyacentes al bloque objetivo (210), en el que
el bloque objetivo (210) tiene un tamaño de NxN ,
una primera muestra de referencia clave (AL, ref[2N]) es la muestra situada en la intersección entre la primera fila superior contigua al bloque objetivo (210) y la primera columna izquierda contigua al bloque objetivo (210),
una segunda muestra de referencia clave (BL, ref[0]) es la muestra 2N-ésima por debajo de la primera muestra de referencia clave,
una tercera muestra de referencia clave (AR, ref[4N]) es la muestra 2N-ésima a la derecha de la primera muestra de referencia clave,
una cuarta muestra de referencia clave (ref[N]) es la muestra N-ésima por debajo de la primera muestra de referencia clave, y
una quinta muestra de referencia clave (ref[3N]) es la muestra N-ésima a la derecha de la primera muestra de referencia clave,
se lleva a cabo una interpolación lineal entre la muestras de referencia clave primera y segunda (AL, BL) para generar las muestras de referencia interpoladas en la primera columna izquierda contigua al bloque objetivo (210), cuando la magnitud de desviación de la cuarta muestra de referencia clave (ref[N]) desde la línea recta que conecta las muestras de referencia clave primera y segunda (AL, BL) es menor que un primer umbral (UMBRAL_IZQUIERDO), de lo contrario se lleva a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia intrasuavizadas,
se lleva a cabo una interpolación lineal entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia interpoladas en la primera fila superior contigua al bloque objetivo (210), cuando la magnitud de desviación de la quinta muestra de referencia clave (ref[3N]) desde la línea recta que conecta las muestras de referencia clave primera y tercera (AL, AR) es menor que un segundo umbral (UMBRAL_SUPERIOR), de lo contrario se lleva a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia intrasuavizadas,
se determina un modo intrapredicción, y la señal de predicción intraimagen se genera extrapolando o bien las muestras de referencia interpoladas o bien muestras intrasuavizadas basándose en el modo intrapredicción determinado, en la etapa de codificación, el modo intrapredicción se codifica junto con la señal residual comprimida.
4. Método de descodificación por predicción de imágenes en movimiento ejecutado mediante un dispositivo de descodificación por predicción de imágenes en movimiento, el método de descodificación por predicción de imágenes en movimiento que comprende:
una etapa de descodificación que descodifica, a partir de datos de compresión codificados para una pluralidad de bloques divididos, un modo intrapredicción que indica un método de predicción intraimagen de un bloque objetivo (210) que va a descodificarse y una señal residual comprimida;
una etapa de generación de señales de predicción que genera una señal de predicción intraimagen utilizando el modo intrapredicción y muestras de referencia previamente reconstruidas ubicadas adyacentes al bloque objetivo;
una etapa de restauración de señales residuales que restaura una señal residual reconstruida del bloque objetivo a partir de la señal residual comprimida, y
una etapa de almacenamiento de bloques que restaura una señal de píxel del bloque objetivo sumando la señal de predicción a la señal residual reconstruida, y almacenando la señal de píxel reconstruida del bloque objetivo que va a utilizarse como muestras de referencia, en el que
en la etapa de generación de señales de predicción, se obtienen muestras de referencia (ref[0]), ref[N], ref[2N], ref[3N]), ref[4N]) de bloques previamente reconstruidos (220, 230, 240, 250, 260), que se almacenan y son adyacentes al bloque objetivo (210),
el bloque objetivo (210) tiene un tamaño de NxN,
una primera muestra de referencia clave (AL, ref[2N]) es la muestra situada en la intersección entre la primera fila superior contigua al bloque objetivo (210) y la primera columna izquierda contigua al bloque objetivo (210),
una segunda muestra de referencia clave (BL,ref[0]) es la muestra 2N-ésima por debajo de la primera muestra de referencia clave,
una tercera muestra de referencia clave (AR, ref[4N]) es la muestra 2N-ésima a la derecha de la primera muestra de referencia clave,
una cuarta muestra de referencia clave (ref[N]) es la muestra N-ésima por debajo de la primera muestra de referencia clave, y
una quinta muestra de referencia clave (ref[3N]) es la muestra N-ésima a la derecha de la primera muestra de referencia clave,
se lleva a cabo una interpolación lineal entre la muestras de referencia clave primera y segunda (AL, BL) para generar las muestras de referencia interpoladas en la primera columna izquierda contigua al bloque objetivo (210), cuando la magnitud de desviación de la cuarta muestra de referencia (ref[N]) desde la línea recta que conecta las muestras de referencia clave primera y segunda (AL, BL) es menor que un primer umbral (UMBRAL_IZQUIERDO), de lo contrario se lleva a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y segunda (AL, BL) para generar muestras de referencia intrasuavizadas,
se lleva a cabo una interpolación lineal entre la muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia interpoladas en la primer fila superior contigua al bloque objetivo (210), cuando la magnitud de desviación de la quinta muestra de referencia clave (ref[3N]) desde la línea recta que conecta las muestras de referencia clave (AL, AR) es menor que un segundo umbral (UMBRAL_SUPERIOR), de lo contrario se lleva a cabo el intrasuavizado de las muestras de referencia entre las muestras de referencia clave primera y tercera (AL, AR) para generar muestras de referencia intrasuavizadas, y
se genera la señal de predicción intraimagen extrapolando o bien las muestras de referencia interpoladas o bien muestras intrasuavizadas basándose en el modo intrapredicción.
ES17152385T 2012-09-24 2013-06-17 Dispositivo de codificación por predicción de vídeo, método de codificación por predicción de vídeo, dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo Active ES2781556T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012209626A JP5798539B2 (ja) 2012-09-24 2012-09-24 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法

Publications (1)

Publication Number Publication Date
ES2781556T3 true ES2781556T3 (es) 2020-09-03

Family

ID=50340983

Family Applications (3)

Application Number Title Priority Date Filing Date
ES17152385T Active ES2781556T3 (es) 2012-09-24 2013-06-17 Dispositivo de codificación por predicción de vídeo, método de codificación por predicción de vídeo, dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo
ES19218030T Active ES2949638T3 (es) 2012-09-24 2013-06-17 Dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo
ES13839473.9T Active ES2637502T3 (es) 2012-09-24 2013-06-17 Intrapredicción basada en muestras de referencia interpoladas

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES19218030T Active ES2949638T3 (es) 2012-09-24 2013-06-17 Dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo
ES13839473.9T Active ES2637502T3 (es) 2012-09-24 2013-06-17 Intrapredicción basada en muestras de referencia interpoladas

Country Status (22)

Country Link
US (6) US9736494B2 (es)
EP (4) EP3654650B1 (es)
JP (1) JP5798539B2 (es)
KR (6) KR101764235B1 (es)
CN (6) CN107071442B (es)
AU (7) AU2013319537B2 (es)
BR (3) BR122016013354A2 (es)
CA (6) CA3195958A1 (es)
DK (1) DK3654650T3 (es)
ES (3) ES2781556T3 (es)
FI (1) FI3654650T3 (es)
HU (1) HUE062434T2 (es)
IN (1) IN2015DN03265A (es)
MX (2) MX341412B (es)
MY (2) MY161733A (es)
PH (1) PH12015500622A1 (es)
PL (3) PL3654650T3 (es)
PT (3) PT3654650T (es)
RU (7) RU2642810C1 (es)
SG (1) SG11201502234VA (es)
TW (7) TWI622287B (es)
WO (1) WO2014045651A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6504604B2 (ja) 2015-08-25 2019-04-24 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム
CN108028923B (zh) * 2015-09-10 2021-08-20 Lg电子株式会社 视频编码系统中的帧内预测方法和设备
KR20190052097A (ko) 2016-09-30 2019-05-15 엘지전자 주식회사 영상 처리 방법 및 이를 위한 장치
US10542275B2 (en) 2016-12-28 2020-01-21 Arris Enterprises Llc Video bitstream coding
WO2018124850A1 (ko) * 2017-01-02 2018-07-05 한양대학교 산학협력단 예측 블록의 중복성을 고려한 화면 내 예측 방법 및 화면 내 예측을 수행하는 영상 복호화 장치
JP7036628B2 (ja) * 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10992939B2 (en) 2017-10-23 2021-04-27 Google Llc Directional intra-prediction coding
US10225578B2 (en) 2017-05-09 2019-03-05 Google Llc Intra-prediction edge filtering
JP2020120141A (ja) * 2017-05-26 2020-08-06 シャープ株式会社 動画像符号化装置及び動画像復号装置、フィルタ装置
WO2019009506A1 (ko) * 2017-07-04 2019-01-10 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
CN107592539B (zh) * 2017-08-21 2019-10-22 北京奇艺世纪科技有限公司 一种视频编码方法和装置
US11438579B2 (en) 2018-07-02 2022-09-06 Lg Electronics Inc. Method and apparatus for processing video signal by using intra-prediction
WO2020007747A1 (en) * 2018-07-05 2020-01-09 Telefonaktiebolaget Lm Ericsson (Publ) Deblocking of intra-reference samples
US10778972B1 (en) 2019-02-27 2020-09-15 Google Llc Adaptive filter intra prediction modes in image/video compression
JP7145793B2 (ja) * 2019-03-11 2022-10-03 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
CN110035289B (zh) * 2019-04-24 2022-04-01 润电能源科学技术有限公司 一种屏幕图像的分层压缩方法、系统及相关装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
BR0304545A (pt) * 2002-01-14 2004-11-03 Nokia Corp Método de codificação das imagens em uma sequência de vìdeo digital para fornecer os dados de vìdeo codificados, codificador de vìdeo, método de decodificação dos dados indicativos de uma sequência de vìdeo digital, decodificador de vìdeo, e, sistema de decodificação de vìdeo
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040008775A1 (en) * 2002-07-12 2004-01-15 Krit Panusopone Method of managing reference frame and field buffers in adaptive frame/field encoding
CN101218829A (zh) * 2005-07-05 2008-07-09 株式会社Ntt都科摩 动态图像编码装置、动态图像编码方法、动态图像编码程序、动态图像解码装置、动态图像解码方法以及动态图像解码程序
JP2007043651A (ja) * 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
KR100977101B1 (ko) * 2005-11-30 2010-08-23 가부시끼가이샤 도시바 화상 부호화/화상 복호화 방법 및 화상 부호화/화상 복호화장치
US8767818B2 (en) * 2006-01-11 2014-07-01 Nokia Corporation Backward-compatible aggregation of pictures in scalable video coding
US8494052B2 (en) * 2006-04-07 2013-07-23 Microsoft Corporation Dynamic selection of motion estimation search ranges and extended motion vector ranges
JP2008048272A (ja) * 2006-08-18 2008-02-28 Canon Inc 再生装置及び再生方法
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
JP4650461B2 (ja) * 2007-07-13 2011-03-16 ソニー株式会社 符号化装置、符号化方法、プログラム、及び記録媒体
EP2249572A4 (en) * 2008-03-07 2012-05-23 Toshiba Kk METHOD AND DEVICE FOR DYNAMIC IMAGE CODING / DECODING
JP5680283B2 (ja) * 2008-09-19 2015-03-04 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム
JP5697301B2 (ja) * 2008-10-01 2015-04-08 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
JP5686499B2 (ja) 2009-01-22 2015-03-18 株式会社Nttドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
JP2010268259A (ja) * 2009-05-15 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム
JP5199196B2 (ja) * 2009-08-04 2013-05-15 日本電信電話株式会社 動画像復号方法,動画像復号装置および動画像復号プログラム
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
JP2011151682A (ja) * 2010-01-22 2011-08-04 Sony Corp 画像処理装置および方法
JP2011166592A (ja) * 2010-02-12 2011-08-25 Mitsubishi Electric Corp 画像符号化装置及び画像復号装置
JP5393573B2 (ja) * 2010-04-08 2014-01-22 株式会社Nttドコモ 動画像予測符号化装置、動画像予測復号装置、動画像予測符号化方法、動画像予測復号方法、動画像予測符号化プログラム、及び動画像予測復号プログラム
EP2559239A2 (en) * 2010-04-13 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction
US20110301976A1 (en) * 2010-06-03 2011-12-08 International Business Machines Corporation Medical history diagnosis system and method
US20110310976A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Joint Coding of Partition Information in Video Coding
RU2619202C1 (ru) * 2010-07-20 2017-05-12 Нтт Докомо, Инк. Устройство кодирования изображений с предсказанием, способ кодирования изображений с предсказанием, программа кодирования изображений с предсказанием, устройство декодирования изображений с предсказанием, способ декодирования изображений с предсказанием и программа декодирования изображений с предсказанием
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
RS57166B1 (sr) * 2010-08-17 2018-07-31 M&K Holdings Inc Postupak za kodiranje intra prediktivnog moda
US8923395B2 (en) * 2010-10-01 2014-12-30 Qualcomm Incorporated Video coding using intra-prediction
WO2012077719A1 (ja) * 2010-12-09 2012-06-14 シャープ株式会社 画像復号装置、および画像符号化装置
US20120163457A1 (en) 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
SG10202008690XA (en) * 2011-01-12 2020-10-29 Mitsubishi Electric Corp Moving image encoding device, moving image decoding device, moving image encoding method, and moving image decoding method
WO2012096622A1 (en) * 2011-01-14 2012-07-19 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices for intra coding of video
CN103329531A (zh) * 2011-01-21 2013-09-25 汤姆逊许可公司 基于几何的帧内预测方法和装置
CN102685505B (zh) * 2011-03-10 2014-11-05 华为技术有限公司 帧内预测的方法和预测装置
KR101383775B1 (ko) * 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치

Also Published As

Publication number Publication date
KR20150060877A (ko) 2015-06-03
DK3654650T3 (da) 2023-07-03
AU2019210516B2 (en) 2021-02-11
AU2019210532A1 (en) 2019-08-15
KR20170083167A (ko) 2017-07-17
US10477242B2 (en) 2019-11-12
US10477241B2 (en) 2019-11-12
MX2015003512A (es) 2015-07-17
CA2957095C (en) 2021-07-13
KR20160116036A (ko) 2016-10-06
US20170180750A1 (en) 2017-06-22
CA3118836C (en) 2023-06-27
US10123042B2 (en) 2018-11-06
PL3654650T3 (pl) 2023-10-02
TW201720162A (zh) 2017-06-01
CN107071442A (zh) 2017-08-18
TW201937933A (zh) 2019-09-16
BR112015006109B1 (pt) 2018-08-14
CA3118836A1 (en) 2014-03-27
ES2949638T3 (es) 2023-10-02
EP3654650B1 (en) 2023-05-31
ES2637502T3 (es) 2017-10-13
RU2701052C1 (ru) 2019-09-24
JP2014064249A (ja) 2014-04-10
CA2885802A1 (en) 2014-03-27
MX341412B (es) 2016-08-19
US20190037236A1 (en) 2019-01-31
RU2715017C1 (ru) 2020-02-21
RU2673393C1 (ru) 2018-11-26
EP2899982A1 (en) 2015-07-29
BR112015006109A8 (pt) 2018-02-06
MY178848A (en) 2020-10-21
KR20160088450A (ko) 2016-07-25
BR122016013292A2 (pt) 2018-02-06
PT2899982T (pt) 2017-08-30
EP3654650A1 (en) 2020-05-20
AU2016202132B2 (en) 2017-07-20
US9736494B2 (en) 2017-08-15
TWI666923B (zh) 2019-07-21
CN106131558B (zh) 2018-02-27
US20170180751A1 (en) 2017-06-22
AU2019210520A1 (en) 2019-08-15
RU2602978C1 (ru) 2016-11-20
HUE062434T2 (hu) 2023-11-28
KR101662655B1 (ko) 2016-10-05
CN106878733B (zh) 2020-01-07
KR101764235B1 (ko) 2017-08-03
SG11201502234VA (en) 2015-05-28
TW201701668A (zh) 2017-01-01
BR122016013354A2 (pt) 2018-02-06
AU2017248485A1 (en) 2017-11-09
AU2016202132A1 (en) 2016-04-28
CA3195958A1 (en) 2014-03-27
EP4221222A1 (en) 2023-08-02
CN106131558A (zh) 2016-11-16
CN107071442B (zh) 2020-03-27
AU2019210532B2 (en) 2021-03-04
KR20180069128A (ko) 2018-06-22
PH12015500622B1 (en) 2015-05-11
AU2019210520B2 (en) 2021-02-04
MY161733A (en) 2017-05-15
PL2899982T3 (pl) 2017-10-31
AU2013319537A1 (en) 2015-05-14
CN107087181B (zh) 2020-05-05
RU2642810C1 (ru) 2018-01-26
AU2019210530A1 (en) 2019-08-15
AU2019210516A1 (en) 2019-08-15
TWI678919B (zh) 2019-12-01
AU2017248485B2 (en) 2019-07-11
EP2899982B1 (en) 2017-08-02
JP5798539B2 (ja) 2015-10-21
CA2957095A1 (en) 2014-03-27
RU2715015C1 (ru) 2020-02-21
KR20170128635A (ko) 2017-11-22
TWI679881B (zh) 2019-12-11
KR101964171B1 (ko) 2019-04-01
KR101869830B1 (ko) 2018-06-21
CA2885802C (en) 2017-08-15
US20190037235A1 (en) 2019-01-31
FI3654650T3 (fi) 2023-06-28
TW201818726A (zh) 2018-05-16
AU2013319537B2 (en) 2016-03-03
CN104604238B (zh) 2017-03-22
BR122016013292B1 (pt) 2018-08-14
KR101755363B1 (ko) 2017-07-07
CN106131559B (zh) 2018-04-17
PT3654650T (pt) 2023-07-05
CA3118841A1 (en) 2014-03-27
WO2014045651A1 (ja) 2014-03-27
CA3118832C (en) 2023-06-20
CN106131559A (zh) 2016-11-16
PL3179722T3 (pl) 2020-07-13
CN104604238A (zh) 2015-05-06
US10382783B2 (en) 2019-08-13
TW201937932A (zh) 2019-09-16
CN106878733A (zh) 2017-06-20
TWI622287B (zh) 2018-04-21
EP2899982A4 (en) 2016-06-15
TWI577182B (zh) 2017-04-01
US20150201213A1 (en) 2015-07-16
TW201415905A (zh) 2014-04-16
IN2015DN03265A (es) 2015-10-09
EP3179722A1 (en) 2017-06-14
CA3118841C (en) 2023-01-24
MX351764B (es) 2017-10-27
PT3179722T (pt) 2020-04-02
TWI648981B (zh) 2019-01-21
RU2699675C1 (ru) 2019-09-09
RU2015115487A (ru) 2016-11-20
CN107087181A (zh) 2017-08-22
EP3179722B1 (en) 2020-02-26
US20190037237A1 (en) 2019-01-31
PH12015500622A1 (en) 2015-05-11
KR101799846B1 (ko) 2017-11-22
TWI562614B (es) 2016-12-11
US10110918B2 (en) 2018-10-23
CA3118832A1 (en) 2014-03-27
BR112015006109A2 (pt) 2017-05-16
AU2019210530B2 (en) 2021-02-18
TW201909636A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
ES2781556T3 (es) Dispositivo de codificación por predicción de vídeo, método de codificación por predicción de vídeo, dispositivo de descodificación por predicción de vídeo y método de descodificación por predicción de vídeo
JP6535780B2 (ja) 画像予測復号装置、及び、画像予測復号方法
ES2773774T3 (es) Dispositivo, método y programa de codificación bipredictiva de imágenes, y dispositivo, método y programa de decodificación bipredictiva de imágenes
JP6503014B2 (ja) 動画像符号化方法及び動画像復号化方法
KR20060059769A (ko) 영상신호의 엔코딩시에 베이스 레이어 픽처의 벡터를이용하기 위한 미세정보를 코딩하는 방법과 그 미세정보를이용하는 디코딩 방법
JP6510084B2 (ja) 動画像復号化方法及び電子装置