ES2532017T3 - Método, dispositivo y programa de ordenador para mejorar la predicción de vectores de movimiento - Google Patents

Método, dispositivo y programa de ordenador para mejorar la predicción de vectores de movimiento Download PDF

Info

Publication number
ES2532017T3
ES2532017T3 ES09819158.8T ES09819158T ES2532017T3 ES 2532017 T3 ES2532017 T3 ES 2532017T3 ES 09819158 T ES09819158 T ES 09819158T ES 2532017 T3 ES2532017 T3 ES 2532017T3
Authority
ES
Spain
Prior art keywords
prediction
region
motion vector
motion
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09819158.8T
Other languages
English (en)
Inventor
Yoshinori Suzuki
Choong Seng Boon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2532017T3 publication Critical patent/ES2532017T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un dispositivo de codificación de imágenes en movimiento (100) que comprende: medio de división de regiones (102) para dividir una imagen de entrada en una pluralidad de regiones; medio de almacenamiento (104) para almacenar una pluralidad de imágenes ya reproducidas como imágenes de referencia; medio de estimación de movimiento (113) para la búsqueda de una región que tenga una alta correlación con una región objetivo que es un objetivo de procesamiento en la pluralidad de regiones a partir de la pluralidad de imágenes de referencia almacenadas en el medio de almacenamiento y que produce un vector de movimiento de la región objetivo; medio de generación de señal de predicción (103) para producir una señal de predicción de la región objetivo en función de un número de fotograma de referencia que especifica una imagen de referencia buscada por el medio de estimación de movimiento y en que el vector de movimiento especifica una relación de posición espacial entre la región objetivo y la región buscada; medio de predicción de vector de movimiento (114) para producir un vector de movimiento de predicción a partir de uno o más vectores de movimiento codificados y producir un vector de movimiento de diferencia entre el vector de movimiento producido por el medio de estimación de movimiento y el vector de movimiento de predicción; medio de generación de señal residual (105) para producir una señal residual entre la señal de predicción de la región objetivo y una señal de píxel objetivo de la región objetivo; medio de codificación (111) para codificar la señal residual, el número de fotograma de referencia, y el vector de movimiento de diferencia producido por el medio de predicción de vector de movimiento; y medio de restauración (108, 109) para restaurar la señal residual codificada, y, a continuación, añadir la señal resultante a la señal de predicción a fin de producir una imagen de reproducción, y almacenar la imagen de reproducción en el medio de almacenamiento como imagen de referencia; caracterizado porque el medio de predicción de vector de movimiento (114) está configurado para seleccionar una región a partir de las regiones codificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que está situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción basado en una relación de posición espacial entre la región buscada y la región de plantilla.

Description

imagen1
Campo Técnico
La presente invención se refiere a un dispositivo de codificación de imágenes en movimiento, un método de codificación de imágenes en movimiento, un programa de 5


codificación de imágenes en movimiento, un dispositivo de decodificación de imágenes en movimiento, un método de decodificación de imágenes en movimiento, un programa de decodificación de imágenes en movimiento, un sistema de proceso de imágenes en
movimiento, y un método de proceso de imágenes en movimiento, y en particular se refiere a la codificación de predicción de un vector de movimiento asociado con la
10 predicción inter-fotograma.
Antecedentes de la técnica
Se utiliza una tecnología de codificación por compresión para transmitir y almacenar de manera eficiente datos de imágenes fijas y de imágenes en movimiento. Los sistemas
15 MPEG-1 a 4 y H.261 a H.264 de la UIT (Unión Internacional de Telecomunicaciones) son ampliamente utilizados para las imágenes en movimiento. En dichos sistemas de codificación, el proceso de codificación y el proceso de descodificación se llevan a cabo después de dividir una imagen que sirve como un objetivo de codificación en una pluralidad de bloques. En la codificación de predicción
20 dentro de una imagen, se produce una señal de predicción mediante el uso de una señal de imagen adyacente ya reproducida (obtenida mediante la restauración de los datos de imagen comprimidos) dentro de la misma imagen cuando se incluye un bloque objetivo, y a continuación se codifica una señal diferencial obtenida restando la señal de
imagen2
entre imágenes, en referencia a una señal de imagen ya reproducida adyacente dentro de una imagen diferente de la imagen en la que se incluye el bloque objetivo, se lleva a cabo la compensación de movimiento, y se produce una señal de predicción. La señal de 5 predicción se resta de la señal del bloque objetivo de manera que sea una señal
diferencial y se codifica la señal diferencial. Por ejemplo, la codificación de predicción intra-imagen de H.264 adopta un método en el que se produce una señal de predicción mediante extrapolación, en una dirección predeterminada, de valores de píxeles ya reproducidos adyacentes a un bloque que sirve
10 como un objetivo de codificación. La FIG. 32 es una vista esquemática para describir un método de predicción intra-imagen utilizado en ITU H.264. En la FIG. 32(A), un bloque objetivo 1802 es un bloque que es el objetivo de la codificación. Un grupo de píxeles 1801 es una región adyacente compuesta de píxeles A a M que se encuentra adyacente al límite del bloque objetivo 1802. El grupo de píxeles 1801 es una señal de imagen que
15 ya ha sido reproducida en un proceso pasado. En este caso, el grupo de píxeles 1801 que se compone de píxeles adyacentes directamente por encima del bloque objetivo 1802 se extiende hacia abajo para producir una señal de predicción. En la FIG. 32(B), los píxeles ya reproducidos (I a L) situados a la izquierda de un bloque objetivo 1804 se extienden hacia la derecha a fin de producir
20 una señal de predicción. El método específico de producción de una señal de predicción se describe en la Literatura de Patente 1, por ejemplo. Se encuentra la diferencia de la señal de píxel del bloque objetivo para cada una de las nueve señales de predicción producidas por el método ilustrado en las FIG. 32(A) a la FIG. 32(I) tal como se ha
imagen3
se toma como la señal de predicción óptima. En la predicción de codificación entre imágenes tradicional, una señal de predicción es producida por un método que busca una señal que se asemeja a la señal de píxel de un 5 bloque que sirve como un objetivo de codificación a partir de imágenes ya reproducidas. Se codifica un vector de movimiento que es la cantidad de desplazamiento espacial entre el bloque objetivo y una región que se compone de la señal buscada, y una señal residual entre la señal de píxel del bloque objetivo y la señal de predicción. La técnica de buscar el vector de movimiento para cada bloque de esta manera se denomina 10 comparación de bloques. La FIG. 2 es una vista esquemática para describir el proceso de comparación de bloques. Aquí, el procedimiento para la producción de una señal de predicción de un bloque objetivo se describe tomando como ejemplo un bloque objetivo 501 en una imagen 400 que sirve como objetivo de codificación. Una imagen 401 ya ha sido 15 reproducida. Una región 511 es una región que está en la misma posición espacial que el bloque objetivo 501. En la correspondencia de bloques, se establece un intervalo de búsqueda 811 que rodea la región 511, y se detecta una región 701 que tiene la suma más baja de las diferencias absolutas en relación con la señal de píxel del bloque objetivo 501 a partir de la señal de pixel de este intervalo de búsqueda. La señal de la
20 región 701 se convierte en una señal de predicción. La cantidad de desplazamiento de la región 511 a la región 701 se detecta como un vector de movimiento 601. En H.264, con el fin de mejorar el rendimiento de la predicción, la predicción entre imágenes se lleva a cabo con una pluralidad de imágenes ya reproducidas como imágenes de referencia. En este caso, el bloque de comparación ilustrado en la FIG. 2 se
imagen4
imagen 401, y se detecta una señal de predicción que tiene una mayor eficiencia de codificación. Además, con el fin de corresponder a los cambios de características locales en las imágenes, se prepara una pluralidad de tipos de predicción con diferentes 5 tamaños de bloque para la codificación de un vector de movimiento. Los tipos de
predicción de H.264 se describen en la Literatura de Patente 2, por ejemplo. En la codificación por compresión de datos de imágenes en movimiento, cada imagen (fotograma o campo) puede ser codificado en cualquier secuencia. Por lo tanto, hay tres técnicas en la codificación de secuencia en la predicción entre imágenes que producen
10 una señal de predicción con referencia a las imágenes reproducidas. La primera técnica es una predicción hacia delante que produce una señal de predicción con referencia a las imágenes reproducidas en el pasado en el orden de la secuencia de reproducción. La segunda técnica es una predicción hacia atrás que se refiere a las imágenes reproducidas en el futuro en el orden de la secuencia de reproducción. La tercera técnica es una
15 predicción bidireccional que lleva a cabo tanto la predicción hacia delante como la predicción hacia atrás a fin de promediar las dos señales de predicción. Los tipos de predicción entre imágenes se describen en la Literatura de Patente 3, por ejemplo.
El vector de movimiento detectado por predicción entre imágenes se codifica por predicción. En concreto, se codifica un vector de diferencia entre un vector de
20 movimiento de predicción producido a partir del vector de movimiento de un bloque adyacente y el vector de movimiento del bloque objetivo. En H.264, los vectores de movimiento de los bloques ya codificados en la parte superior directa, izquierda directa y superior derecha del bloque objetivo se establecen como candidatos, y se obtiene un
imagen5
cada componente horizontal y cada componente vertical de los vectores de movimiento. A continuación, se codifica información que especifica el vector de movimiento de diferencia y la imagen de referencia (denominada como un número de fotograma de 5 referencia, índice de referencia). No siempre es cierto que el número de fotograma de referencia asociado con el bloque (bloque objetivo de predicción) ya codificado que sirve como candidato de predicción de vector de movimiento y el número de fotograma de referencia asociado con el vector de movimiento de la objetivo de codificación sean el mismo. Los vectores de 10 movimiento con respecto a las diferentes imágenes de referencia normalmente hacen que sus valores sean grandes, debido a los diferentes intervalos del fotograma. En la Literatura de Patente 4, cuando el número del fotograma de referencia de un bloque objetivo y el número de fotograma de referencia de un bloque objetivo de predicción no son los mismos, el vector de movimiento del bloque objetivo de predicción se escala en 15 una imagen de referencia especificada con el número del fotograma de referencia del bloque objetivo, y, posteriormente, se utiliza el vector de movimiento escalado para la predicción de vectores de movimiento.
Lista de citaciones
20 Literatura de Patente Literatura de Patentes 1: Patente de Estados Unidos No. 6,765,964. Literatura de Patentes 2: Patente de Estados Unidos No. 7,003,035. Literatura de Patentes 3: Patente de Estados Unidos No. 6,259,739.
imagen6
Examinada No. 2004-336,369.
Resumen de la invención 5 Problema técnico En la predicción de vectores de movimiento descrita en la técnica relacionada que incluye la Literatura de Patente 4, si el valor del vector de movimiento del bloque objetivo de predicción es cero, el valor del vector del movimiento de predicción es cero. Además, cuando un método para producir una señal de predicción de un bloque objetivo 10 de predicción no está asociado con un vector de movimiento (por ejemplo, la predicción intra-imagen), el valor del vector de movimiento de predicción es cero. Cuando el vector de movimiento de un bloque que sirve como un candidato de la predicción de vectores de movimiento no tiene información significativa de esta forma, surge el problema de que no se puede mejorar la eficiencia de la predicción de vectores de 15 movimiento. En la Literatura de Patentes 4, dado que el proceso de escala se basa en la suposición de que una velocidad de movimiento entre fotogramas es constante, si la velocidad de movimiento entre fotogramas en la práctica no es constante, un valor del vector de movimiento diferencia se hace grande por el proceso de escala. La eficiencia de 20 codificación de la diferencia de vectores de movimiento puede verse reducida. Con el fin de resolver los problemas que se describen anteriormente, la presente invención pretende proporcionar un dispositivo de codificación de imágenes en movimiento, un dispositivo de decodificación de imágenes en movimiento, un método
imagen7
en movimiento, un programa de codificación de imágenes en movimiento, un programa de decodificación de imágenes en movimiento, un sistema de proceso de imagen en movimiento, y un método de proceso de imágenes en movimiento que pueden llevar a
5 cabo de manera eficiente una predicción del vector de movimiento incluso cuando un vector de movimiento de predicción de un bloque objetivo de predicción es cero, por ejemplo.
Solución al Problema
10 Un dispositivo de codificación de imágenes en movimiento de la presente invención incluye: medios de división de región para dividir una imagen de entrada en una pluralidad de regiones, un medio de almacenamiento para almacenar una pluralidad de imágenes ya reproducidas como imágenes de referencia, un medio de estimación de movimiento para la búsqueda de una región que tenga una alta correlación con una
15 región objetivo que es un objetivo de proceso en la pluralidad de regiones de la pluralidad de imágenes de referencia almacenadas en el medio de almacenamiento y la producción de un vector de movimiento de la región objetivo, un medio de generación de señal de predicción para producir una señal de predicción de la región objetivo basada en un número del fotograma de referencia que especifica una imagen de
20 referencia buscada por el medio de estimación de movimiento y el vector de movimiento especificando una relación de posición espacial entre la región objetivo y la región explorada, medios de predicción de vectores de movimiento para producir un vector de movimiento de predicción de uno o más vectores de movimiento codificados y la producción de un vector de diferencia de movimiento entre el vector de movimiento
E09819158 04-03-2015
producido por el medio de estimación de movimiento y el vector de movimiento de predicción, medios de generación de señal residual para producir una señal residual entre la señal de predicción de la región objetivo y una señal de píxel objetivo de la región objetivo, medios de codificación para codificar la señal residual, el número de 5 fotograma de referencia, y el vector de diferencia de movimiento producido por el medio de predicción de vector de movimiento, y medios de restauración para restaurar la señal residual codificada, y, posteriormente, la adición de la señal resultante a la señal de predicción a fin de producir una imagen de reproducción, y almacenar la imagen de la reproducción en los medios de almacenamiento como imagen de referencia. El medio 10 de predicción de vector de movimiento selecciona una región de las regiones codificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de
15 píxeles ya reproducidas y que esté situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de predicción de movimiento basado en una relación de posición espacial entre la región buscada y la región de plantilla.
El dispositivo de codificación de imágenes en movimiento de la presente invención
20 establece preferentemente la región de plantilla en una región adyacente objetivo compuesta de señales de píxeles ya reproducidas y situada adyacente a la región objetivo.
El dispositivo de codificación de imágenes en movimiento de la presente invención establece preferentemente la región de plantilla en una región adyacente objetivo
imagen8
región seleccionada mediante la predicción de vectores de movimiento. De acuerdo con la presente invención, incluso cuando el vector de movimiento de un bloque objetivo de predicción ya reproducido adyacente a una región objetivo es cero o 5 cuando se utiliza un método de predicción que no está asociado con un vector de
movimiento, la predicción de vectores de movimiento en la región objetivo se lleva a cabo de manera eficiente y la eficiencia de codificación puede ser mejorada. En el dispositivo de codificación de imágenes en movimiento de la presente invención,
el medio de generación de predicción preferentemente incluye además un medio de
10 combinación de señal de predicción para buscar una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y situada adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y procesar la señal de predicción de la región objetivo en función de la una o más regiones de predicción
15 adyacentes, y el medio de predicción del vector de predicción de movimiento preferiblemente almacena además vectores de movimiento cada uno de los cuales especifica una relación de posición espacial entre una región de predicción adyacente buscada por el medio de combinación de señal de predicción y una zona adyacente al objetivo, un vector de movimiento que se almacena para cada una de la pluralidad de
20 imágenes de referencia, y cuando una señal de predicción de la región seleccionada es producida por el medio de combinación de señales de predicción, un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados se establece preferentemente como el vector de movimiento de predicción.
imagen9
predicción objetivo es producida por comparación de plantillas, la eficiencia del proceso de comparación de plantillas se puede mejorar mediante el uso del vector de movimiento detectado en la comparación de plantillas.
Un dispositivo de decodificación de imágenes en movimiento de la presente invención incluye: medios de decodificación de datos para la decodificación de datos codificados de un vector de movimiento de diferencia, un número de fotograma de referencia, y una señal residual de una región objetivo que es un objetivo de proceso de datos comprimidos, medios de almacenamiento para almacenar una pluralidad de imágenes ya reproducidas como imágenes de referencia, medios de restauración de la señal residual para la restauración de una señal residual de reproducción a partir de los datos codificados de la señal residual, medios de predicción del vector de movimiento para producir un vector de movimiento de predicción a partir de uno o más vectores de movimiento restaurados y añadir el vector de movimiento de diferencia descodificado por el medio de descodificación de datos al vector de movimiento de predicción a fin de restablecer un vector de movimiento, medios de generación de señal de predicción para producir una señal de predicción de la región objetivo sobre la base del vector de movimiento restaurado por el medio de predicción de vector de movimiento y el número de fotograma de referencia de la región objetivo, y medios de restauración de la imagen para añadir la señal de predicción a la señal residual de reproducción a fin de restablecer una señal de píxel de la región objetivo. El medio de predicción de vector de movimiento selecciona una región a partir de regiones decodificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción sobre la base de una relación de posición espacial entre la
imagen10
5 región buscada y la región de plantilla. El dispositivo de decodificación de imágenes en movimiento de la presente invención establece preferentemente la región de plantilla en una región adyacente objetivo compuesta de señales de píxeles ya reproducidas y situada adyacente a la región objetivo. 10 El dispositivo de decodificación de imágenes en movimiento de la presente invención establece preferentemente la región de plantilla en una región adyacente objetivo
compuesta de señales de píxeles adyacentes ya reproducidas y situada adyacente a una región seleccionada por el medio de predicción de vector de movimiento. De acuerdo con la presente invención, incluso cuando el vector de movimiento de un
15 bloque objetivo de predicción ya reproducido adyacente a una región objetivo es cero o cuando se utiliza un método de predicción que no está asociado con un vector de movimiento, la predicción de vector de movimiento en la región objetivo se lleva a cabo de manera eficiente y se puede mejorar la eficiencia de codificación. Como resultado, los datos codificados de esta manera pueden ser decodificados.
20 En el dispositivo de decodificación de imágenes en movimiento de la presente invención, el medio de generación de predicción preferentemente incluye además medios de combinación de señal de predicción para buscar una o más regiones de predicción adyacentes que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y situada
imagen11
procesar la señal de predicción de la región objetivo en función de la una o más regiones de predicción adyacentes, y el medio de predicción del vector de movimiento de predicción preferentemente almacena además vectores de movimiento cada uno de los 5 cuales especifica una relación de posición espacial entre una región de predicción adyacente buscada por el medio de combinación de predicción de señal y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia, y cuando una señal de predicción de la región seleccionada es producida por el medio de combinación de señales de predicción, se
10 establece preferentemente un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados como el vector de movimiento de predicción.
De acuerdo con la presente invención, cuando una señal de predicción de una región de predicción objetivo es producida por comparación de plantillas, la eficiencia del proceso
15 de comparación de plantillas se puede mejorar mediante el uso del vector de movimiento detectado en la comparación de plantillas. La presente invención se puede describir no sólo como la invención del dispositivo de codificación de imágenes en movimiento y el dispositivo de decodificación de imágenes en movimiento tal como se ha descrito anteriormente, sino también como la invención
20 de un método de codificación de imágenes en movimiento, un método de decodificación de imágenes en movimiento, un programa de codificación de imágenes en movimiento, y un programa de decodificación de imágenes en movimiento tal como se describe a continuación. Simplemente se dividen en diferentes categorías, pero son sustancialmente la misma invención y muestran los mismos funcionamientos y efectos.
E09819158 04-03-2015
Un método de codificación de imagen en movimiento de la presente invención incluye: una fase de división en regiones que divide una imagen de entrada en una pluralidad de regiones, una fase de estimación de movimiento que busca una región que tenga una alta correlación con una región objetivo que es un objetivo de proceso en la pluralidad de regiones a partir de una pluralidad de imágenes de referencia almacenadas en medios de almacenamiento y produce un vector de movimiento de la región objetivo, una fase de generación de señal de predicción que produce una señal de predicción de la región objetivo en función de un número de fotograma de referencia que especifica una imagen de referencia buscada en la fase de estimación de movimiento y en que el vector de movimiento especifica una relación de posición espacial entre la región objetivo y la región que se busca, una fase de predicción de vector de movimiento que produce un vector de predicción de movimiento a partir de uno o más vectores de movimiento codificados y produce un vector de movimiento de diferencia entre el vector de movimiento producido en la fase de estimación de movimiento y el vector de predicción de movimiento, una fase de generación de señal residual que produce una señal residual entre la señal de predicción de la región objetivo y una señal de píxel objetivo de la región objetivo, una fase de codificación que codifica la señal residual, la referencia número de fotograma, y el vector de diferencia de movimiento producido en la fase de predicción de vector de movimiento, y una fase de restauración que restaura la señal residual codificada, y que posteriormente añade la señal resultante a la señal de predicción a fin de producir una imagen de reproducción, y almacena la imagen de reproducción en los medios de almacenamiento como imagen de referencia. La fase de predicción de vector de movimiento selecciona una región a partir de las regiones codificadas, y cuando la región seleccionada no tiene un número de fotograma de número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que esté situada alrededor de la región objetivo a partir de la imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción sobre la base de una relación de posición espacial entre la región buscada y la región de plantilla.
imagen12
En el método de codificación de imágenes en movimiento de la presente invención, la fase de generación de predicción incluye además, preferiblemente, una fase de combinación de predicción de señal que busca una o más regiones de predicción adyacentes que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y situada adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y procesa la señal de predicción de la región objetivo en función de la una o más regiones adyacentes de predicción, y la fase de predicción del vector de movimiento de predicción preferentemente almacena además vectores de movimiento cada uno de los cuales especifica una relación de posición espacial entre una región adyacente de previsión buscada en la fase de combinación de señales de predicción y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia, y cuando una señal de predicción de la región seleccionada se produce en la fase de combinación de señales de predicción, se establece preferentemente un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados como el vector de predicción de movimiento.
imagen13
incluye: una fase de decodificación de datos que decodifica los datos codificados de un vector de movimiento de diferencia, un número de fotograma de referencia, y una señal residual de una región objetivo que es un objetivo de proceso a partir de datos comprimidos, una fase de almacenamiento que almacena una pluralidad de imágenes ya reproducidas como imágenes de referencia, una fase de restauración de la señal residual que restaura una señal residual a partir de la reproducción de los datos codificados de la señal residual, una fase de predicción de vector de movimiento que produce un vector de movimiento de predicción a partir de uno o más vectores de movimiento restaurados y que añade el vector de movimiento de diferencia decodificado en la fase de decodificación de datos al vector de movimiento de predicción a fin de restablecer un vector de movimiento, una fase de generación de señal de predicción que produce una señal de predicción de la región objetivo basada en el vector de movimiento restaurado en la fase de predicción de vector de movimiento y el número de fotograma de referencia de la región objetivo, y una fase de restauración de imagen que añade la señal de predicción de la señal residual de reproducción a fin de restablecer una señal de píxel de la región objetivo, y almacenar la señal de píxel como una imagen de referencia en medios de almacenamiento. La fase de predicción de vector de movimiento selecciona una región a partir de regiones decodificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que está situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector
imagen14
buscada y la región de plantilla. En el método de decodificación de imágenes en movimiento de la presente invención, la etapa de generación de predicción incluye además, preferentemente, una fase de 5 combinación de señales de predicción que busca una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles ya reproducidos adyacentes y que esté situada adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y procesa la señal de predicción de la región objetivo en función de la una o más regiones 10 adyacentes de predicción, y la fase de predicción vector de movimiento de predicción preferentemente almacena además vectores de movimiento, cada uno de los cuales especifica una relación de posición espacial entre una región adyacente de predicción buscada en la fase de combinación de señales de predicción y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de 15 imágenes de referencia, y cuando se produce una señal de predicción de la región seleccionada en la fase de combinación de señales de predicción, se establece preferentemente un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados como vector de movimiento de predicción. 20 Un programa de codificación de imágenes en movimiento de la presente invención incluye: un módulo de división de región para dividir una imagen de entrada en una pluralidad de regiones, un módulo de estimación de movimiento para buscar una región que tenga una alta correlación con una región objetivo que es un objetivo de proceso en la pluralidad de regiones a partir de una pluralidad de imágenes de referencia
imagen15
región objetivo, un módulo de generación de señal de predicción para producir una señal de predicción de la región objetivo en función de un número de fotograma de referencia que especifica una imagen de referencia buscada por el módulo de estimación de movimiento y en que el vector de movimiento especifica una relación de posición espacial entre la región objetivo y la región buscada, un módulo de predicción de vector de movimiento para producir un vector de movimiento de predicción a partir de uno o más vectores de movimiento codificados y que produce un vector de diferencia de movimiento entre el vector de movimiento producido por el módulo de estimación de movimiento y el vector de movimiento de predicción, un módulo de generación de señal residual para producir una señal residual entre la señal de predicción de la región objetivo y una señal de píxel objetivo de la región objetivo, un módulo de codificación para codificar la señal residual, el número de fotograma de referencia, y el vector de movimiento de diferencia producido por el módulo de predicción de vector de movimiento, y un módulo de restauración para restaurar la señal residual codificada, y, posteriormente, añadir la señal resultante a la señal de predicción a fin de producir una imagen de reproducción, y almacenar la imagen de reproducción en los medios de almacenamiento como imagen de referencia. El módulo de predicción de vector de movimiento selecciona una región a partir de las regiones codificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que esté situada alrededor de la región objetivo a partir de la imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo,
imagen16
espacial entre la región buscada y la región de plantilla. En el programa de codificación de imágenes en movimiento de la presente invención, el módulo de generación de predicción incluye además, preferentemente, un módulo de 5 combinación de señales de predicción para buscar una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidos y situada adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y para procesar la señal de predicción de la región objetivo en función de la una o más regiones 10 adyacentes de predicción, y el módulo de predicción de vector de movimiento de predicción almacena además preferiblemente vectores de movimiento, cada uno de los cuales especifica una relación de posición espacial entre una región adyacente de predicción buscada por el módulo de combinación de señales de predicción y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la 15 pluralidad de imágenes de referencia, y cuando una señal de predicción de la región seleccionada es producida por el módulo de combinación de señales de predicción, se establece un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados preferentemente como vector de movimiento de predicción. 20 Un programa de decodificación de imágenes en movimiento de la presente invención incluye: un módulo de decodificación de datos para la decodificación de datos codificados de un vector de movimiento de diferencia, un número de fotograma de referencia, y una señal residual de una región objetivo que es un objetivo de proceso a partir de datos comprimidos, un módulo de almacenamiento para almacenar una
imagen17
restauración de la señal residual para la restauración de una señal residual a partir de la reproducción de los datos codificados de la señal residual, un módulo de predicción de vector de movimiento para producir un vector de movimiento de predicción a partir de uno o más vectores de movimiento restaurados y que añade el vector de movimiento de diferencia decodificado por el módulo de decodificación de datos al vector de movimiento de predicción a fin de restablecer un vector de movimiento, un módulo de generación de señal de predicción para producir una señal de predicción de la región objetivo basada en el vector de movimiento restaurado por el módulo de predicción de vector de movimiento y el número de fotograma de referencia de la región objetivo, y un módulo de restauración de la imagen para añadir la señal de predicción a la señal residual de reproducción a fin de restablecer una señal de píxel de la región objetivo, y almacenar la señal de píxel como una imagen de referencia en medios de almacenamiento. El módulo de predicción de vector de movimiento selecciona una región a partir de de regiones decodificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que esté situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción sobre la base de una relación de posición espacial entre la región buscada y la región de plantilla.
En el programa de decodificación de imágenes en movimiento de la presente invención, el módulo de generación de predicción incluye además, preferentemente, un módulo de
imagen18
predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y que esté situada adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y que 5 procesa la señal de predicción de la región objetivo en función de la una o más regiones adyacentes de predicción, y el módulo de predicción de vector de movimiento de predicción preferentemente almacena además vectores de movimiento de cada especificación de una relación de posición espacial entre una región adyacente de predicción buscada por el módulo de combinación de señales de predicción y una región 10 adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia, y cuando una señal de predicción de la región seleccionada es producida por el módulo de combinación de señales de predicción, se establece preferentemente un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento
15 almacenados como el vector de movimiento de predicción. Un sistema de proceso de imágenes de la presente invención es un sistema de proceso de imágenes que incluye el dispositivo de codificación de imágenes en movimiento descrito anteriormente y el dispositivo de decodificación de imágenes en movimiento descrito anteriormente, y estructurado de tal manera que el dispositivo de decodificación
20 de imágenes en movimiento decodifica los datos codificados por el dispositivo de codificación de imágenes en movimiento. Un método de proceso de imágenes de la presente invención es un método de proceso
de imágenes que incluye el método de codificación de imágenes en movimiento anteriormente descrito y el método de decodificación de imágenes en movimiento decodifica los datos codificados por el método de codificación de imágenes en movimiento.
imagen19
5 Efectos ventajosos de la invención De acuerdo con la presente invención, puede producirse un vector de movimiento de una región objetivo mediante el uso de una región compuesta de señales codificadas alrededor de la región objetivo. Por lo tanto, incluso cuando una región objetivo de predicción adyacente a la región objetivo no tiene un vector de movimiento que tenga 10 un valor significativo, se puede producir un vector de diferencia de movimiento que tenga un valor reducido. Además, incluso cuando la velocidad de movimiento entre fotogramas no es constante, se puede producir un vector de diferencia de movimiento que tenga un valor reducido mediante la realización de una búsqueda en una imagen de referencia especificada con un número de fotograma de referencia de la región objetivo. 15 En consecuencia, se produce el efecto de que se puede producir un vector de movimiento de predicción capaz de mejorar la eficiencia de codificación con el fin de mejorar la eficiencia de la codificación.
Breve descripción de los dibujos
20 [FIG. 1] La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes en movimiento 100 de acuerdo con la presente forma de realización.
imagen20
comparación de bloques. La FIG. 2 (A) ilustra una imagen de referencia mientras que la FIG. 2 (B) ilustra una imagen objetivo de codificación. [FIG. 3] La FIG. 3 es un diagrama de bloques que ilustra un predictor de vector de
5 movimiento de la FIG. 1. [FIG. 4] La FIG. 4 es una vista esquemática para describir una relación entre un bloque objetivo y un bloque objetivo de predicción.
[FIG. 5] La FIG. 5 es un diagrama de bloques que ilustra un buscador de vector de movimiento de predicción de la FIG. 3. 10 [FIG. 6] La FIG. 6 es un diagrama de bloques para describir un comparador de
plantillas de la FIG. 5. [FIG. 7] La FIG. 7 es un diagrama de bloques para describir el proceso de escalado de un vector de movimiento.
[FIG. 8] La FIG. 8 es un primer ejemplo de una vista esquemática en relación con
15 el proceso de comparación de plantillas en el proceso de generación de vectores de movimiento de predicción. La FIG. 8 (A) ilustra una imagen de referencia mientras que la FIG. 8 (B) muestra una imagen objetivo de codificación.
[FIG. 9] La FIG. 9 es un segundo ejemplo de la vista esquemática en relación con el proceso de comparación de plantillas en el proceso de generación de vectores de 20 movimiento de predicción. La FIG. 9 (A) ilustra una imagen de referencia
mientras que la FIG. 9 (B) muestra una imagen objetivo de codificación. [FIG. 10] La FIG. 10 es un tercer ejemplo de la vista esquemática en relación con el proceso de comparación de plantillas en el proceso de generación de vectores de mientras que la FIG. 10 (B) muestra una imagen objetivo de codificación. [FIG. 11] La FIG. 11 es un cuarto ejemplo de la vista esquemática en relación con el proceso de comparación de plantillas en el proceso de generación de vectores de
imagen21
5 movimiento de predicción. La FIG. 11 (A) ilustra una imagen de referencia, mientras que la FIG. 11 (B) ilustra una imagen objetivo de codificación. [FIG. 12] La FIG. 12 es un ejemplo alternativo de la vista esquemática para
describir la relación entre el bloque objetivo y el bloque objetivo de predicción. [FIG. 13] La FIG. 13 es una vista esquemática para describir el proceso de
10 extensión de vector de movimiento en una dirección temporal en el proceso de generación de vectores de movimiento de predicción. [FIG. 14] La FIG. 14 es un diagrama de bloques que ilustra un dispositivo de
decodificación de imágenes en movimiento 300 de acuerdo con la presente forma de realización. 15 [FIG. 15] La FIG. 15 es un diagrama de bloques que ilustra un predictor de vector
de movimiento de la FIG. 14. [FIG. 16] La FIG. 16 es un diagrama de flujo que ilustra los procedimientos de un método de codificación de imagen en movimiento de acuerdo con la presente forma de realización.
20 [FIG. 17] La FIG. 17 es un diagrama de flujo para describir los procedimientos de un método de predicción de vector de movimiento incluidos en el método de codificación de imágenes en movimiento de la FIG. 16.
imagen22
proceso de búsqueda de vectores de movimiento con comparación de plantillas. [FIG. 19] La FIG. 19 es un diagrama de flujo para describir el procedimiento del proceso de comparación de plantillas. 5 [FIG. 20] La FIG. 20 es un diagrama de flujo que ilustra los procedimientos de un
método de decodificación de imágenes en movimiento de acuerdo con la presente realización. [FIG. 21] La FIG. 21 es un diagrama de flujo para describir los procedimientos de
un método de predicción de vector de movimiento incluidos en el método de
10 decodificación de imágenes en movimiento de la FIG. 20. [FIG. 22] La FIG. 22 es un diagrama de bloques que ilustra los módulos de un programa capaz de ejecutar el método de codificación de imágenes en movimiento de acuerdo con la presente realización.
[FIG. 23] La FIG. 23 es un diagrama de bloques que ilustra un módulo de
15 predicción de vectores de movimiento incluido en los módulos de la FIG. 22. [FIG. 24] La FIG. 24 es un diagrama de bloques que ilustra un módulo de búsqueda del vector de movimiento de predicción incluido en los módulos de la FIG. 23.
[FIG. 25] La FIG. 25 es un diagrama de bloques para describir un módulo de
20 adaptación de plantilla incluido en los módulos de la FIG. 24. [FIG. 26] La FIG. 26 es un diagrama de bloques que ilustra los módulos de un programa capaz de ejecutar el método de decodificación de imágenes en movimiento de acuerdo con la presente realización.
imagen23
predicción de vectores de movimiento incluidos en los módulos de la FIG. 26. [FIG. 28] La FIG. 28 es un diagrama que ilustra una configuración de hardware de un ordenador para ejecutar un programa almacenado en un medio de grabación.
5 [FIG. 29] La FIG. 29 es una vista en perspectiva del ordenador para ejecutar el programa almacenado en el medio de grabación. [FIG. 30] La FIG. 30 es un diagrama de flujo para describir los procedimientos de
proceso de comparación de plantillas llevados a cabo por un generador de señal de predicción.
10 [FIG. 31] La FIG. 31 es un diagrama de flujo para describir el proceso de determinación de vector de movimiento de predicción sin comparación de plantillas en un buscador de vectores de movimiento de predicción.
[FIG. 32] La FIG. 32 es una vista esquemática para describir un método de predicción intra-imagen de la técnica anterior.
15
Lista de Signos de Referencia
10 soporte de grabación 12 dispositivo de lectura 14 memoria de trabajo
20 16 memoria 18 pantalla 20 ratón
imagen24
24 dispositivo de comunicación 30 ordenador 40 señal de datos de ordenador
5 100 dispositivo de codificación de imágenes en movimiento 101 terminal de entrada 102 divisor de bloques 103 generador de señal de predicción 104 memoria de fotograma
10 105 sustractor 106 transformador 107 cuantificador 108 cuantificador inverso 109 transformador inverso
15 110 sumador 111 codificador de entropía 112 terminal de salida 113 estimación de señal de predicción 114 predictor de vector de movimiento
20 201 memoria 203 buscador de vector de movimiento de predicción 204 unidad de diferencia 231 determinador
imagen25
5 232 conmutador 234 comparador de plantillas 240 determinador de región de búsqueda 241 unidad de adquisición de región adyacente objetivo 242 unidad de adquisición de región adyacente de predicción
10 243 selector de región de predicción candidata 301 terminal de entrada 302 decodificador de entropía 303 cuantificador inverso 304 transformador inverso
15 305 sumador 306 terminal de salida 307 predictor de vector de movimiento 312 sumador
20 La presente realización se describe a continuación en detalle con referencia a los dibujos adjuntos. En la descripción de los dibujos, los elementos que son iguales o equivalentes están etiquetados con los mismos números de referencia, y se ha omitido la descripción
imagen26
5 duplicada de los mismos. La FIG. 1 es un diagrama de bloques que ilustra un dispositivo de codificación de imágenes en movimiento 100 de acuerdo con el movimiento del proceso de predicción de vector de la presente realización. El dispositivo de codificación de imágenes en movimiento 100 incluye un terminal de entrada 101, un bloque divisor 102 (medio de 10 división de regiones), un generador de señal de predicción 103, una memoria de fotogramas 104 (medio de almacenamiento), un sustractor 105, un transformador 106, un cuantificador 107, una cuantificador inverso 108, un transformador inverso 109, un sumador 110, un codificador de entropía 111, un terminal de salida 112, un estimador de señal de predicción (medio de estimación de movimiento) 113, y un predictor de 15 vector de movimiento (medio de predicción de movimiento de vector) 114. El transformador 106, el cuantificador 107, y el codificador de entropía funcionan como
medios de codificación. El cuantificador inverso 108, el transformador inverso 109, y el sumador 110 funcionan como medios de restauración. El terminal de entrada 101 es un terminal en el cual se introduce una señal de una
20 imagen en movimiento compuesta de una pluralidad de imágenes. El divisor de bloques 102 divide una imagen que está representada por la entrada de señal desde el terminal de entrada 101 y es el objetivo de la codificación en una pluralidad de regiones. En la presente realización, el divisor de bloques 102 divide la para que tenga un tamaño o forma de bloque diferentes.
imagen27
El estimador de señal de predicción 113 detecta la información lateral, como por ejemplo un vector de movimiento, necesaria para producir una señal de predicción de
5 una región objetivo (un bloque objetivo) que es el objetivo del proceso de codificación. El proceso específico del estimador de señal de predicción 113 se describe más adelante.
El predictor de vector de movimiento 114 resta un vector de movimiento de predicción del vector de movimiento incluido en la información lateral y produce un vector de
10 movimiento de diferencia. El vector de movimiento de diferencia se envía al codificador de entropía 111 como información lateral. El proceso específico del predictor de vector de movimiento 114 se describe más adelante.
El generador de señal de predicción 103 produce una señal de predicción del bloque objetivo basándose en la entrada de información lateral a través de una línea L113 y de
15 una imagen de referencia que está almacenada en la memoria de fotogramas 104 y que obtiene a través de una línea L104, y envía la señal de predicción al sustractor 105.
El sustractor 105 es una unidad que resta, a partir del bloque objetivo que se obtiene por división con el divisor de bloques 102 y se introduce a través de una línea L102, la señal de predicción que es producida por el generador de señal de predicción 103 y se
20 introduce a través de una línea L103, y produce una señal residual. El sustractor 105 envía la señal residual obtenida por la resta al transformador 106 a través de una línea L105.
El transformador 106 es una unidad que realiza una transformación de coseno discreta
de la señal residual obtenida por la resta. El cuantificador 107 es una unidad que 30
imagen28
discreto por el transformador 106. El codificador de entropía 111 codifica el coeficiente de transformación cuantificado por el cuantificador 107, así como la información lateral de un método de predicción, y envía la información codificada a través de una línea 5 L111. El terminal de salida 112 envía la información introducida desde el codificador de
entropía 111 hacia el exterior. El cuantificador inverso 108 cuantifica de forma inversa el coeficiente de transformación cuantificado. El transformador inverso 109 restaura la señal residual mediante un proceso de transformación por coseno discreta inversa. El sumador 110
10 suma la señal residual restaurada a la señal de predicción enviada desde la línea L103, reproduce la señal del bloque objetivo, y almacena la señal reproducida en la memoria de fotogramas 104. En la presente realización, se utilizan el transformador 106 y el transformador inverso 109. Se puede utilizar otro proceso de transformación como alternativa a estos transformadores. Además, el transformador 106 y el transformador
15 inverso 109 no son indispensables. De esta manera, se restaura la señal de pixel comprimido del bloque objetivo y se almacena en la memoria de fotogramas 104 como una imagen de referencia con el fin de llevar a cabo la predicción intra-imagen o predicción entre imágenes con respecto a un bloque objetivo posterior.
A continuación, se describen el estimador de señal de predicción 113 y el predictor de
20 vector de movimiento 114. El estimador de señal de predicción 113 lleva a cabo un proceso con el fin de determinar el método de predicción para producir una señal de predicción similar a la señal de imagen del bloque objetivo que es el objetivo de codificación de los parámetros de proceso y de predicción. El método de predicción se clasifica generalmente en
imagen29
métodos de predicción para producir señales de predicción candidatas del bloque objetivo y seleccionar una señal de predicción que se determina que tiene la eficiencia de codificación más alta.
5 Se utiliza un método de predicción intra-imagen, por ejemplo, tal como se muestra en la FIG. 32 (A), para extender hacia abajo el grupo de píxeles 1801, es decir, píxeles adyacentes directamente por encima del bloque objetivo 1802 y en el grupo de píxeles 1801 compuesto de píxeles de A a M adyacente al bloque objetivo 1802 para producir una señal de predicción. El grupo de píxeles 1801 es una señal de imagen que ya ha sido
10 reproducida en procesos anteriores. En la FIG. 32 (B), los píxeles ya reproducidos (I a L) situados a la izquierda del bloque objetivo 1804 se extienden hacia la derecha a fin de producir una señal de predicción. El método específico de producción de una señal de predicción se describe en la Literatura de Patentes 1, por ejemplo. De esta manera, se pueden producir nueve señales de predicción candidatas producidas por los métodos
15 ilustrados en las FIG. 32 (A) a 32 (I). Se utiliza un método de predicción inter-imagen para buscar una señal de predicción candidato semejante a un bloque objetivo que es el objetivo del proceso de codificación a partir de una señal ya reproducida almacenada en la memoria de fotogramas 104, y extraer información de movimiento necesaria para adquirir la señal de predicción
20 candidata buscada a partir de señales ya reproducidas. Esta técnica se denomina comparación de bloques. La FIG. 2 es una vista esquemática para describir el proceso de comparación de bloques. Aquí, el proceso para la producción de una señal de predicción de un bloque objetivo se describe tomando como ejemplo un bloque objetivo 501 en una imagen 400
imagen30
511 es una región que está en la misma posición espacial que el bloque objetivo 501. En la comparación de bloques, se establece un intervalo de búsqueda 811 alrededor de la región 511, y se detecta una región 701 que tiene la suma más baja de las diferencias 5 absolutas en relación con la señal de píxel del bloque objetivo 501 a partir de la señal de pixel de este intervalo de búsqueda. La señal de la región 701 se convierte en una señal de predicción candidata. La cantidad de desplazamiento de la región 511 a la región 701 se detecta como un vector de movimiento 601. Además, con el fin de mejorar el rendimiento de la predicción, la predicción inter-imagen se realiza con una pluralidad de
10 imágenes ya reproducidas como imágenes de referencia. Específicamente, el bloque de adaptación ilustrado en la FIG. 2 se lleva a cabo con respecto a una pluralidad de imágenes de referencia, incluyendo la imagen 401, y la señal de predicción que se determina que tiene la mayor eficiencia de codificación se detecta como una señal de predicción candidato.
15 El estimador de señal de predicción 113 encuentra las diferencias entre cada una de estas señales de predicción candidatas y la señal de píxel del bloque objetivo y determina la señal de predicción candidata que tiene el valor de diferencia más bajo como una señal de predicción óptima. En este caso, se puede calcular una cantidad de código necesaria para codificar la información lateral utilizada para producir la señal de
20 predicción, se puede convertir, y se puede añadir al valor de la diferencia descrita anteriormente. La información lateral incluye, en el caso de una predicción entre imágenes, un número de fotograma de referencia que especifica un vector de movimiento y una imagen de referencia además del modo de predicción basado en la cual se ha seleccionado la señal de predicción candidata. La información lateral que las movimiento 114.
imagen31
[Descripción del predictor de vector de movimiento]
5 La FIG. 3 ilustra un diagrama de bloques del predictor de vector de movimiento 114 que lleva a cabo el proceso de predicción de vector de movimiento de la presente realización. El predictor de vector de movimiento 114 incluye una memoria 201 que almacena información lateral de entrada, un selector de bloque objetivo de predicción 202, un buscador de vector de movimiento de predicción 203, una unidad de diferencia
10 204, y un separador 206.
La información lateral de entrada, es decir, el modo de predicción, el vector de movimiento, y el número de fotograma de referencia, se almacena en la memoria 201 a través de L113, y se envía al separador 206, al selector de bloque objetivo de predicción 202, y a la unidad de diferencia 204.
15 El selector de bloque objetivo de predicción 202 selecciona un bloque (un bloque objetivo de predicción) utilizado para la predicción del vector de movimiento a partir de un bloque ya reproducido adyacente al bloque objetivo. El proceso del selector de bloque objetivo de predicción 202 se describe mediante el uso de la FIG. 4. En el presente documento se considera una técnica que selecciona un bloque objetivo de
20 predicción utilizado para la predicción de vectores de movimiento a partir de dos bloques adyacentes 502 y 504 adyacentes al bloque objetivo 501 en una imagen objetivo de codificación. Como método de selección de bloque, por ejemplo, se encuentran los valores de diferencia entre los respectivos componentes del vector de movimiento (MV) del bloque objetivo y los vectores de movimiento de dos bloques
34 que la del otro. Se incluye información para identificar el bloque seleccionado (por ejemplo, información que representa una relación de posición con el bloque objetivo) en la información lateral como información de selección del vector de predicción y se codifica. Cuando los números de fotogramas de referencia de los vectores de movimiento de los dos bloques adyacentes son los mismos, no es necesario codificar la información de selección del vector de predicción. En el presente documento se supone que el bloque adyacente 502 se selecciona como un bloque objetivo de predicción.
imagen32
La información lateral del bloque adyacente seleccionado se introduce en el buscador de vector de movimiento de predicción 203 a través de L202. Al mismo tiempo, el separador 206 extrae el número de fotograma de referencia a partir de la información lateral del bloque objetivo e introduce el número de fotograma de referencia en el buscador de vector de movimiento de predicción 203 a través de L206. El buscador de vector de movimiento de predicción 203 compara el número de fotograma de referencia del bloque objetivo 501 con el número de fotograma de referencia de la secuencia objetivo de predicción 502. Cuando los números de fotograma de referencia son los mismos, el buscador de vector de movimiento de predicción 203 emite el vector de movimiento (MVa) del bloque objetivo de predicción 502 como vector de predicción de movimiento. Cuando los números de fotograma de referencia son diferentes, el buscador de vector de movimiento de predicción 203 adquiere una imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo 501 a través de L104. Mediante la utilización de la imagen de referencia, el buscador de vector de movimiento de predicción 203 procesa el vector de movimiento (MVa) del bloque objetivo de predicción 502 mediante un proceso de escalado y similares, y posteriormente emite el vector de movimiento procesado a la unidad de diferencia 203
imagen33
movimiento se describe más adelante. La unidad de diferencia 204 encuentra las diferencias entre los respectivos componentes del vector de movimiento del bloque objetivo 501 y los componentes respectivos de la 5 entrada de vector de movimiento de predicción a través de L203, y calcula un vector de movimiento de diferencia. Además, la unidad de diferencia 204 emite el modo de predicción, el número de fotograma de referencia (el número de fotograma de referencia del bloque objetivo 501), el vector de movimiento de diferencia, y la información de selección de vector de movimiento de predicción al codificador de entropía 111 como 10 información lateral. La FIG. 5 ilustra un diagrama de bloques de una estructura interna del buscador de vector de movimiento de predicción 203. El buscador de vector de movimiento de predicción incluye un determinador 231, un conmutador 232, y un comparador de plantillas 233. 15 En primer lugar, el determinador 231 recibe, a través de L206 y L202, el número de fotograma de referencia del bloque objetivo 501 y el número de fotograma de referencia del bloque objetivo de predicción 502 que se introducen, y los compara. Cuando los dos números de fotograma de referencia son los mismos, el determinador 231 envía una señal de control al conmutador 232 a través de L231, y emite el modo de predicción, el 20 número de fotograma de referencia, el vector de movimiento, y la información de selección del vector de movimiento de predicción que son introducidos a través de L202 en la unidad de diferencia 204 a través de L203. Por otro lado, cuando los dos números de fotograma de referencia son diferentes, el determinador 231 envía una señal de control al conmutador 232 a través de L231, y emite el modo de predicción, el número
imagen34
vector de movimiento de predicción que se introducen a través de L202 en el comparador de plantillas 233 a través de L232.
El comparador de plantillas 233 busca una región de la señal que se asemeje a una
5 región de plantilla (los detalles se describen más adelante) compuesta de señales de píxeles ya reproducidas y situadas junto al bloque objetivo de la imagen de referencia especificado con el número de fotograma de referencia de bloque objetivo 501 mediante el uso de comparación de plantillas (a través de L201). El comparador de plantillas 233 calcula una cantidad de desplazamiento espacial entre la región de la señal detectada y
10 la región de plantilla con el fin de establecer la cantidad de desplazamiento como un vector de movimiento de predicción.
A continuación, se describe el proceso de comparación de plantillas en el comparador de plantillas 233 mediante la utilización de las FIG. 6 a 8.
La FIG. 6 ilustra un diagrama de bloques de una estructura interna del comparador de
15 plantillas 233. El comparador de plantillas 233 incluye un determinador de región de búsqueda 240, una unidad de adquisición de región objetivo 241, una unidad de adquisición de región adyacente de predicción 242, y un selector de región de predicción candidata 243.
En el comparador de plantillas de la presente realización, después de configurar una
20 región de búsqueda para la comparación de plantillas basada en el vector de movimiento del bloque objetivo de predicción (FIG. 7), se lleva a cabo la búsqueda en la región de búsqueda para detectar la región de señal semejante a la región de la plantilla (FIG. 8).
En el proceso de establecimiento en una región de búsqueda en el determinador de
región de búsqueda 240, primero, se escala el vector de movimiento del bloque objetivo 37
imagen35
referencia del bloque objetivo 501 sometiéndolo a un proceso de escalado en una dirección temporal. A continuación, la región de búsqueda se sitúa alrededor del vector de movimiento reducido que sirve como centro de búsqueda. La descripción se hace más específicamente.
El modo de predicción, el número de fotograma de referencia, y el vector de movimiento del bloque objetivo de predicción 502, y el número de fotograma de referencia del bloque objetivo 501 se introducen en el determinador de región de búsqueda 240 a través de L232 y L206, respectivamente. En primer lugar, el determinador de región de búsqueda 240, escala un vector de movimiento 602 (MVa) del bloque objetivo de predicción 502 en la imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo, y calcula un vector de movimiento escalado 602S (MVa Escalado). A continuación, tal como se ilustra en la FIG. 8, se determina un centro de búsqueda 602B y una región de búsqueda 602R. Específicamente, el determinador de región de búsqueda 240 determina el centro de búsqueda 602B en la posición que se mueve desde el píxel (el vértice superior izquierdo del bloque 511) que se encuentra en la misma posición espacial que el vértice superior izquierdo del bloque objetivo 501 en la imagen 401 (la imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo 501) por el tamaño del vector de movimiento escalado 602S, y establece la región de búsqueda 602R alrededor del centro de búsqueda 602B. El tamaño (intervalo de búsqueda) de la región de búsqueda se puede determinar de antemano o se puede codificar sobre la base de una secuencia o sobre la base de una imagen. La transmisión del intervalo de búsqueda tiene un efecto de reducción de los costos necesarios para la búsqueda. El valor del componente horizontal o vertical del vector de movimiento escalado 602S puede ser redondeado a un valor entero. La información relativa a la región de búsqueda determinada 602R se envía a la unidad de adquisición de la región adyacente de predicción 424 a través de L240.
imagen36
5 Aquí, la descripción de un método para escalar un vector de movimiento se agrega utilizando la FIG. 7. La FIG. 7 (A) es un ejemplo en el que tanto el número de fotograma de referencia del bloque objetivo 501 como el número de fotograma de referencia del bloque objetivo de predicción 502 especifica temporalmente las imágenes anteriores con respecto a la imagen 400 que es el objetivo de codificación. En este
10 ejemplo, el tiempo de la imagen 400 que es el objetivo de la codificación se representa como t, el tiempo de la imagen 401 especificado con el número de fotograma de referencia del bloque objetivo 501 se representa como t -1, y el tiempo de la imagen 402 especificado con el número de fotograma de referencia del bloque objetivo de predicción 502 se representa como t -2. En la FIG. 7, se ilustra una región de predicción
15 701 del bloque 501 y el vector de movimiento (MV) 601, y se ilustra una región de predicción 702 del bloque 502 y el vector de movimiento (MVA) 602. En el caso de que el tiempo transcurrido entre la imagen 400 y la imagen 401 sea t1, y el tiempo transcurrido entre la imagen 400 y la imagen 402 sea t2, los vectores de movimiento 602S (MVa escalado) obtenidos por la escala del vector de movimiento 602 (MVa) en
20 la imagen 401 se pueden calcular mediante la fórmula: MVa escalado = (t2 × MVax /
t1, t2 × MVay / t1). Aquí, MVa = (MVax, MVay). La FIG. 7 (B) es un ejemplo en el que el número de fotograma de referencia del bloque objetivo de predicción 502 especifica una imagen temporalmente futura con respecto a la imagen 400 que es el objetivo de codificación. En este ejemplo, el tiempo de la
imagen37
de predicción 502 se representa como t + 1, y el tiempo transcurrido entre la imagen 400 y la imagen 404 se representa como t4 (más y menos del código son distintos de t1 y t2). El vector de movimiento 602S (MVa escalado) obtenido mediante escalado del 5 vector de movimiento 602 (MVa) en la imagen 401 puede calcularse mediante la
fórmula: MVa Escalado = (t4 × Mvax / t1, t4 × MVay / t1). Tal como se ha mencionado anteriormente, la región de búsqueda 602R para la comparación de plantillas se establece en la imagen de referencia (401) especificada con el número de fotograma de referencia del bloque objetivo 501 sobre la base del vector
10 de movimiento escalado 602S (FIG. 8). La región de búsqueda se determina por parte del determinador de región de búsqueda 240 de esta manera, y después de ello, la unidad de adquisición de la región adyacente objetivo 241, tal como se ilustra en la FIG. 8, adquiere una región adyacente objetivo 501T (una región de plantilla) que ya ha sido reproducida y adyacente al bloque
15 objetivo 501 de la memoria de fotogramas 104 a través de L104. La región de plantilla adquirida se envía a la unidad de adquisición de región adyacente de predicción 242 y al selector de región de predicción candidata 243 a través de L241. Mientras que, en la presente realización, 501T que es el grupo de píxeles ya reproducido (región que tiene una forma de caracteres de L invertida) adyacente al bloque objetivo 501 es la región
20 adyacente objetivo, la región adyacente objetivo puede estar compuesta por los píxeles ya reproducidos alrededor del bloque objetivo y la forma y el número de píxeles se pueden establecer arbitrariamente siempre que se determinen de antemano. En este caso, la forma y el tamaño (el número de píxeles) de la plantilla se pueden determinar
imagen38
codificados. Además, la unidad de adquisición de región adyacente de predicción 242 adquiere secuencialmente el grupo de píxeles que tiene la misma forma que la región objetivo 5 adyacente 501T en la región de búsqueda a partir de la región de búsqueda 602R en la
imagen de referencia 401 a través de L104. Los grupos de píxeles adquiridos se envían al selector de región de predicción candidata 243 a través de L242. Además, el selector de región de predicción candidata 243 obtiene secuencialmente la
suma de las diferencias absolutas (SAD) entre la región adyacente objetivo 501T
10 introducida a través de L241 y los grupos de píxeles cada uno de los cuales tiene la misma forma que la región objetivo adyacente 501T y se introducen a través de L242, y detecta una región 501M (región adyacente de predicción), que tiene la SAD más baja. Por último, el selector de región de predicción candidata 243 calcula una cantidad de desplazamiento espacial 602P entre el bloque 511 en la imagen 401 (situado en la
15 misma posición espacial que el bloque objetivo 501) y la región adyacente de predicción buscada 501M como un vector de movimiento de predicción, y envía el vector de movimiento de predicción a la unidad de diferencia 204 a través de L203. La precisión de los píxeles en la región de búsqueda 602R puede ser sobre la base de un píxel entero. La búsqueda también puede llevarse a cabo con una precisión de fracción
20 decimal de pixel mediante la preparación de píxeles que tengan fracciones de precisión
decimal, como por ejemplo un medio píxel y un cuarto de píxel. De esta manera, el vector de movimiento de predicción 602P del bloque objetivo 501 se produce mediante la realización de una búsqueda en la imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo basándose en adyacente objetivo 501T adyacente al bloque objetivo.
imagen39
[El caso de que en que los números de fotograma de referencia de un bloque objetivo y
5 un bloque objetivo de predicción son los mismos] Mientras que, en el ejemplo descrito anteriormente, la región de búsqueda para la comparación de plantillas se determina escalando el vector de movimiento 602 del bloque objetivo de predicción 502 en la imagen de referencia especificada con el número de fotograma de referencia, el método de determinación de una región de
10 búsqueda no se limita a esta técnica. Por ejemplo, el centro de búsqueda puede determinarse sobre la base del vector de movimiento 602 sin escalar el vector de movimiento. Además, sin utilizar el vector de movimiento del bloque objetivo de predicción, el píxel que se encuentra en la misma posición espacial (el vértice superior izquierdo del bloque 511) que el vértice superior izquierdo del bloque objetivo 501 y en
15 la imagen de referencia 401 se puede establecer como el centro de búsqueda. En otras palabras, mientras que el proceso de escalado tiene un efecto de reducción de la región de búsqueda, el proceso de escalado no se requiere necesariamente para obtener el efecto de la presente realización. Además, un codificador puede determinar y codificar el método de determinación de un centro de búsqueda, y transmitir explícitamente el
20 método a un decodificador. Por consiguiente, la codificación del método de determinación de un centro de búsqueda y un intervalo de búsqueda puede reducir de manera eficiente los costes necesarios para la búsqueda de un vector de movimiento de predicción.
imagen40
lleva a cabo cuando los números de fotograma de referencia del bloque objetivo 501 y el bloque objetivo de predicción 502 son diferentes, la realización de comparación de plantillas resulta eficaz incluso si los números de fotograma de referencia de dos 5 bloques son los mismos. En otras palabras, se produce el efecto de reducción del tamaño de un vector de movimiento de diferencia y de reducción de una cantidad de códigos de un vector de movimiento de diferencia. En este caso, el proceso de escalado en el vector de movimiento no es necesario, ya que el vector de movimiento del bloque objetivo de predicción 502 es el vector de movimiento con respecto a la imagen de 10 referencia especificada con el número de fotograma de referencia del bloque objetivo
501.
[Predicción de vectores de movimiento; el caso en que el modo de predicción de un bloque objetivo de predicción es la predicción intra-imagen]
15 Como ejemplo diferente, se considera un caso en que un bloque objetivo de predicción del vector de movimiento de predicción es un bloque intra (se produce una señal de predicción mediante predicción intra-imagen), es decir, cuando el selector de bloque objetivo de predicción 202 de la FIG. 3 selecciona el bloque 504 de la FIG. 4 como el bloque objetivo de predicción de la predicción de vector de movimiento. La señal de
20 predicción del bloque 504 se produce por predicción intra-imagen. La información lateral del bloque objetivo de predicción 504 no incluye el vector de movimiento ni el número de fotograma de referencia. El selector de bloque objetivo de predicción 202 de la FIG. 3, el determinador 231 de la FIG. 5, y el determinador de la región de búsqueda 240 de la FIG. 6 pueden identificar esta información a partir del modo de predicción predicción del bloque objetivo de predicción 504 es la predicción intra-imagen y la información lateral no incluye el vector de movimiento ni el número de fotograma de referencia). Un método de determinación de un centro de búsqueda en este ejemplo
imagen41
5 distinto se ilustra en la FIG. 9 y la FIG. 10. En la FIG. 9, se considera que cada componente del vector de movimiento del bloque objetivo de predicción 504 (ver la Fig. 4) es cero. En este caso, dado que el valor se mantiene sin cambios incluso si se escala el vector de movimiento, el píxel que se encuentra en la misma posición espacial (el vértice superior izquierdo del bloque 511)
10 que el vértice superior izquierdo del bloque objetivo 501 y en la imagen de referencia 401 se establece como un centro de búsqueda 604P. En la FIG. 10, se considera un método en el que se determina un centro de búsqueda por
comparación de plantillas utilizando el vector de movimiento del bloque ya codificado adyacente al bloque objetivo de predicción 504. En el presente documento se supone 15 que el número de fotograma de referencia de un bloque 505 adyacente al bloque objetivo de predicción 504 es el mismo que el número de fotograma de referencia del bloque objetivo 501. En este caso, el determinador de la región de búsqueda 240 adquiere el modo de predicción del bloque objetivo de predicción 504 a través de L232, y adquiere el modo de predicción, el vector de movimiento, y el número de fotograma 20 de referencia del bloque 505 a través de L201 (En la FIG. 3, la información lateral del bloque 505 se introduce en el buscador de vector de movimiento de predicción 203 de la memoria 201 a través de L201, y posteriormente, en la FIG. 5, la información que los incluye es introducida en el comparador de plantillas 233 a través de L201). El determinador de la región de búsqueda 240, tal como se ilustra en la FIG. 10, establece movimiento 605 del bloque 505. Específicamente, el determinador de la región de búsqueda 240 establece el centro de búsqueda 605B en la posición que se mueve desde el píxel (el vértice superior izquierdo del bloque 511) que se encuentra en la misma 5 posición espacial que el vértice superior izquierdo del bloque objetivo 501 en la imagen 401 (la imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo 501) por el tamaño del vector de movimiento 605, y establece la región de búsqueda 604R alrededor de la misma. A continuación, el determinador de la región de búsqueda 240 detecta la región adyacente de predicción 501M similar a la región 10 objetivo adyacente 501T que es la región de plantilla mediante el proceso de comparación de plantillas que se ilustra en la FIG. 6, y produce un vector de movimiento de predicción 604P. En el ejemplo de la FIG. 10, los números de fotograma de referencia del bloque 505 y del bloque objetivo 501 son los mismos en interés de la simplicidad de la explicación. Sin embargo, los números de fotograma de referencia
imagen42
15 pueden ser distintos. En este caso, el vector de movimiento 505 puede ser sometido a un proceso de escalado y se puede determinar un centro de búsqueda para la comparación de plantillas sobre la base del vector de movimiento escalado.
Este ejemplo se puede aplicar para el caso en que una señal de predicción de un bloque objetivo de predicción es producida por un método de predicción que no incluye un
20 vector de movimiento. Por ejemplo, este ejemplo se puede aplicar a un método de predicción llamado bloque de salto en el que una señal de predicción en un bloque objetivo es producida sobre la base de procesos de predicción predeterminados o un vector de movimiento de predicción producido de forma automática.
imagen43
bloque objetivo de predicción es una plantilla (región adyacente objetivo)] Mientras que, en la descripción anterior, se forma una plantilla (región objetivo adyacente) para la coincidencia de plantilla con las señales adyacentes del bloque 5 objetivo 501 ya reproducidas, se puede determinar una señal adyacente de un bloque objetivo de predicción como plantilla. La descripción se hace con la FIG. 11 como ejemplo. En la FIG. 11, se supone que el selector de bloque objetivo de predicción 202 selecciona el bloque 502 como un bloque objetivo de predicción para la predicción de vectores de movimiento. También se considera que la señal de predicción del bloque
10 objetivo de predicción es producida por un método de predicción que no incluye un vector de movimiento. Cuando el número de fotograma de referencia del bloque 505 adyacente al bloque
objetivo de predicción 502 y el número de fotograma de referencia del bloque objetivo 501 son los mismos, el determinador de la región de búsqueda 240 adquiere el modo de 15 predicción del bloque objetivo de predicción 502 a través de L232 y adquiere el modo de predicción, el vector de movimiento, y el número de fotograma de referencia del bloque 505 a través de L201 (en la FIG. 3, la información lateral del bloque 505 se introduce en el buscador de vector de movimiento de predicción 203 de la memoria 201 a través de L201, y posteriormente, en la FIG. 5, la información que los incluye se 20 introduce en el comparador de plantillas 233 a través de L201). El determinador de la región de búsqueda 240, tal como se ilustra en la FIG. 11, establece el centro de búsqueda 605B y la región de búsqueda 602R sobre la base del vector de movimiento 605 del bloque 505. Específicamente, el determinador de la región de búsqueda 240 establece el centro de búsqueda 605B en la posición que se mueve desde el píxel (el
imagen44
espacial que el vértice superior izquierdo del bloque objetivo 502 en la imagen 401 (la imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo 501) por el tamaño del vector de movimiento 605, y establece la región de
5 búsqueda 602R alrededor de la misma. La información relativa a la región de búsqueda 602R determinada se envía a la unidad de adquisición de región adyacente de predicción 424 a través de L204.
A continuación, la unidad de adquisición de región objetivo 241 adquiere una región objetivo 502T adyacente (región de plantilla) que ya se ha producido y que es adyacente
10 al bloque objetivo de predicción 502 a partir de la memoria de fotogramas 104 a través de L104 mediante un método predeterminado. La señal de píxel de la región de plantilla adquirida se envía a la unidad de adquisición de la región adyacente de predicción 242 y al selector de región de predicción candidata 243 a través de L241.
Además, la unidad de adquisición de región adyacente de predicción 242 adquiere
15 secuencialmente el grupo de píxeles que tienen la misma forma que la región objetivo adyacente 502T en la región de búsqueda a partir de la región de búsqueda 602R en la imagen de referencia 401 a través de L104. Los grupos de píxeles adquiridos se envían al selector de región de predicción candidata 243 a través de L242. Además, el selector de región de predicción candidata 243 obtiene secuencialmente la suma de las
20 diferencias absolutas (SAD) entre los píxeles correspondientes de la región adyacente objetivo 502T través de L241 y los grupos de píxeles en que cada uno tiene la misma forma que la región adyacente objetivo 502T y que se introducen a través de L242, y detecta una región 502M que tiene la SAD más baja. Por último, el selector de región de predicción candidata 243 calcula la cantidad de desplazamiento espacial 602P entre el objetivo de predicción 502) y la región adyacente de predicción buscada 502M como un vector de movimiento de predicción, y envía el vector de movimiento de predicción a la unidad de diferencia 204 a través de L203.
imagen45
5 En el ejemplo de la FIG. 11, los números de los fotogramas de referencia del bloque 505 y 501 del bloque objetivo son los mismos en interés de la simplicidad de la explicación. Sin embargo, los números de los fotogramas de referencia pueden ser diferentes. En este caso, el vector de movimiento 505 puede ser sometido a un proceso de escalado y se puede determinar un centro de búsqueda de comparación de plantillas
10 sobre la base del vector de movimiento escalado. Cuando el bloque 502 tiene el vector de movimiento y el número de fotograma de referencia, se determina una región de búsqueda para la comparación de plantillas utilizando el vector de movimiento y el número de fotograma de referencia del bloque 502, no del bloque 505.
15 [Predicción de vectores de movimiento; el caso en que una señal de predicción de un
bloque objetivo de predicción es producida por comparación de plantillas] A continuación, se considera un caso en el que una señal de predicción de un bloque objetivo de predicción es producida por comparación de plantillas como un ejemplo diferente del caso en que la señal adyacente del bloque objetivo de predicción del vector
20 de movimiento se determina como la plantilla (región adyacente objetivo) tal como se ilustra en la FIG. 11. Un método para producir una señal de predicción mediante el uso de comparación de plantillas está incluido en la Literatura de Patente 5, por ejemplo.
Literatura de Patente 5: Publicación de Solicitud de Patente Japonesa No Examinada No. 2007-300380.
imagen46
señal de predicción 113 y el generador de señal de predicción 103, la comparación de plantillas para un bloque objetivo de predicción ya se ha llevado a cabo en todas las imágenes de referencia, y se puede producir un vector de predicción de movimiento 5 utilizando el resultado de la búsqueda. La descripción se realiza específicamente con
referencia a la FIG. 30 y la FIG. 31. Cuando el modo de predicción seleccionado por el estimador de señal de predicción 113 de la FIG. 2 es un método de predicción con comparación de plantillas, el generador de señal de predicción 103 lleva a cabo el proceso ilustrado en la FIG. 30. En este caso, el
10 generador de señal de predicción 103 funciona como medio de combinación de señales
de predicción. En primer lugar, en el paso 152, se busca una pluralidad de imágenes de referencia por comparación de plantillas utilizando la región adyacente objetivo 501T adyacente al bloque objetivo 501. Posteriormente, en el paso 153, se detectan las regiones N que
15 tienen el SAD más bajo con respecto a la región objetivo adyacente 501T. Se promedian las señales de predicción candidato N para producir una señal de predicción del bloque objetivo 501. En el paso 154, se extraen las regiones respectivas que tienen el SAD más bajo con respecto a la región objetivo adyacente 501T buscando en cada una de las imágenes de referencia. Se almacena una cantidad de desplazamiento espacial entre la
20 región objetivo 501T y la región detectada en la memoria 201 de la FIG. 3 como un vector de movimiento correspondiente a cada una de las imágenes de referencia (cada número de fotograma de referencia). En este caso, es necesario añadir una ruta de datos desde el generador de señal de predicción 103 a la memoria 201 del predictor de vector de movimiento 114 en la FIG. 1.
imagen47
proceso ilustrado en la FIG. 31. En primer lugar, el buscador de vector de movimiento de predicción 203 obtiene el modo de predicción del bloque objetivo de predicción a través de L202 a través del 5 determinador 231 (paso 232), y determina si el modo de predicción es el modo de predicción con comparación de plantillas o no (paso 233). Si el modo de predicción no es el modo de predicción con comparación de plantillas, el buscador de vector de movimiento de predicción 203 selecciona el vector de movimiento del bloque objetivo de predicción como un vector de movimiento de predicción (paso 261). A este respecto, 10 en lugar del paso 261, el buscador de vector de movimiento de predicción 203 puede producir un vector de predicción de movimiento en el paso 205 descrito más adelante (que se describe en la Fig. 20), es decir, por "comparación de plantillas basada en un vector de movimiento de un bloque adyacente a un bloque objetivo", tal como se ilustra desde la FIG. 4 hasta la FIG. 11. 15 En el caso del modo de predicción con comparación de plantillas, el determinador 231 adquiere el número de fotograma de referencia del bloque objetivo (paso 235). Posteriormente, el comparador de plantillas 233 adquiere los vectores de movimiento que se detectan en la comparación de plantillas (llevada a cabo en la FIG. 30) que se lleva a cabo en el proceso de generación de señal de predicción del bloque objetivo de 20 predicción de la memoria 201 a través de L201 (paso 262). Por último, se detecta el vector de movimiento correspondiente al número de fotograma de referencia adquirido en el paso 235 del bloque objetivo a partir de los vectores de movimiento adquiridos del bloque objetivo de predicción, y se establece como un vector de movimiento de predicción del bloque objetivo (paso 263).
imagen48
comparación de plantillas de esta manera, los costes del proceso de comparación de plantillas se pueden reducir mediante el uso de la información de movimiento detectada en la comparación de plantillas.
5 [Diferentes ejemplos de procesos de selección de bloque objetivo de predicción] Tipos de bloque objetivo de predicción. En las descripciones anteriores, el bloque candidato para el bloque objetivo de
predicción no se limita al bloque 502 y el bloque 504. Por ejemplo, tal como se ilustra
10 en la FIG. 12, los bloques 502, 504, 505, y 507 adyacentes al bloque objetivo 501 en la imagen 400 pueden convertirse en candidatos, y, además, el bloque 511 que es un bloque en la imagen 401 y que está ubicado en la misma posición espacial que el bloque objetivo 501 puede estar incluido entre los candidatos. Además, los bloques 512, 513, 514, 515, 516, 517, 518, y 519 adyacentes al bloque 511 también se pueden incluir entre
15 los candidatos. Bloque objetivo aplicable al proceso de comparación de plantillas A través de las descripciones anteriores, se describe la técnica en la que el selector de
bloque objetivo de predicción 202 selecciona un bloque objetivo de predicción, y sobre la base del vector de movimiento del bloque objetivo de predicción seleccionado, se 20 produce un vector de predicción de movimiento del bloque objetivo por comparación de plantillas. Como un método diferente, los vectores de movimiento de una pluralidad de bloques ya codificados adyacentes al bloque objetivo pueden ser sometidos a un proceso de comparación de plantillas ilustrado en las FIG. 4 a la FIG. 11, y a
imagen49
objetivo. En este caso, en la FIG. 3, el buscador de vector de movimiento de predicción 203 está estructurado entre la memoria 201 y el selector de bloque objetivo de predicción 202. En el método, si se fija la región adyacente objetivo (plantilla) que se
5 utiliza para el proceso de comparación de plantillas, la selección de un bloque objetivo de predicción eventualmente lleva a cabo un proceso que selecciona un centro de búsqueda de comparación de plantillas.
Por otro lado, puede conmutarse si la comparación de plantillas se lleva a cabo o no, en función del modo de predicción o de la posición de un bloque adyacente, o se puede
10 conmutar la forma o posición (una señal adyacente de un bloque objetivo o una señal adyacente de un bloque adyacente) de una región adyacente objetivo (plantilla) que se utiliza para el proceso de comparación de plantillas. Además de éstos, la posición de una plantilla puede ser conmutada en base a la correlación entre un bloque adyacente y su señal adyacente.
15 Métodos de selección de un bloque objetivo de predicción. El método de selección de un bloque objetivo de predicción tampoco se limita al método en el que un dispositivo de codificación selecciona un bloque objetivo de predicción y explícitamente notifica a un dispositivo de descodificación como
20 información de selección del vector de movimiento de predicción. Utilizando el vector de movimiento producido por comparación de plantillas sobre la base de los vectores de movimiento de una pluralidad de bloques adyacentes adyacentes al bloque objetivo, el vector de movimiento escalado del bloque adyacente, o el vector de movimiento del bloque adyacente, se puede producir un vector de predicción de movimiento por
imagen50
vector de movimiento de predicción. Con una técnica predeterminada, se puede seleccionar un bloque objetivo de predicción automáticamente a partir de los vectores de movimiento de una pluralidad de bloques 5 adyacentes. Por ejemplo, se pueden seleccionar los valores de la media de los vectores
de movimiento de los bloques 502, 504, y 507 para cada componente de los vectores de movimiento. Se puede combinar la selección automática de un vector de movimiento y la
codificación de información de selección de vector de movimiento de predicción. Por
10 ejemplo, se establece una pluralidad de combinaciones de tres bloques a partir de 13 bloques adyacentes ilustrados en la FIG. 12, y se selecciona un bloque de cada combinación de predicción valor de la media. A continuación, se selecciona una combinación entre la pluralidad de combinaciones, y su información seleccionada se codifica como información de selección del vector de movimiento de predicción. En
15 este caso, el buscador de vector de movimiento de predicción 203 determina una región de búsqueda para la comparación de plantillas basada en el vector de movimiento seleccionado.
Además de esto, tal como se ilustra en la FIG. 13, un vector de movimiento se puede extender sobre la base de un valor de la media de vectores de movimiento 601H (el 20 número de fotograma de referencia especifica la imagen de referencia 401) producido con los vectores de movimiento de los bloques 502, 504, y 507 por el valor de predicción de la media. En otras palabras, también se considera un método en el que se añade un vector de movimiento 601F en una posición del bloque 701 en la imagen 401 especificado con el vector de movimiento 601H. En este caso, se determina una región
imagen51
producido con 601H + 601F. Además, se puede determinar una región de búsqueda para la coincidencia de plantilla basándose en el vector de movimiento producido con 601H
+ 611 mediante la adición de un vector de movimiento 611 del bloque 511 al valor de la
5 media de vectores de movimiento 601H. De esta manera, con el predictor de vector de movimiento 114 de la presente realización, se puede corregir un vector de predicción de movimiento a un vector de movimiento con respecto una imagen de referencia especificada con un número de fotograma de referencia de un bloque objetivo mediante el uso de comparación de
10 plantillas. Como resultado, se produce un efecto de que un valor de vector de movimiento de diferencia se reduce y mejora la eficiencia de codificación de un vector de diferencia de movimiento.
A continuación, se describe un dispositivo de decodificación de imágenes en movimiento 300 de acuerdo con el proceso de predicción de vector de movimiento de la 15 presente realización. La FIG. 14 es un diagrama de bloques que ilustra el dispositivo de decodificación de imágenes en movimiento 300 de acuerdo con el proceso de predicción de vector de movimiento de la presente realización. El dispositivo de decodificación de imágenes en movimiento 300 incluye un terminal de entrada 301, un descodificador de entropía 302, un cuantificador inverso 303, un transformador inverso 304, un sumador
20 305, un terminal de salida 306, la memoria de fotogramas 104, el generador de señal de predicción 103, y un predictor de vector de movimiento 307. Pueden realizarse medios de descodificación con el cuantificador inverso 303 y el transformador inverso 304 mediante el uso de cualquier unidad distinta de estas unidades.
imagen52
compresión por parte del dispositivo de codificación de imagen en movimiento descrito anteriormente. Los datos comprimidos incluyen información de la señal residual e información lateral obtenida mediante la predicción y la codificación de un bloque 5 objetivo que es uno de una pluralidad de bloques divididos a partir de una imagen. Aquí, la información lateral incluye un modo de predicción que identifica la predicción intra-imagen, la predicción entre imágenes, o similares, un vector de movimiento de diferencia, un número de fotograma de referencia, e información de selección del vector de movimiento de predicción. Además de éstos, también pueden estar incluidos la
10 información relativa al tamaño de una región de búsqueda, un método de determinación de un centro de búsqueda, la forma o la posición de una plantilla en la comparación de plantillas.
El descodificador de entropía 302 decodifica mediante entropía la entrada de datos comprimidos al terminal de entrada 301 para extraer la información de señal residual y
15 la información lateral del bloque objetivo. El cuantificador inverso 303 recibe la información de la señal residual del bloque objetivo a través de una línea de L302a, y cuantifica de forma inversa la información. El transformador inverso 304 realiza una transformación por coseno discreto de los datos cuantificados inversamente con el fin de restaurar la señal residual del bloque objetivo.
20 El predictor de vector de movimiento 307 recibe la información lateral desde el descodificador de entropía 302 a través de una línea L302b. El predictor de vector de movimiento 307 produce un vector de movimiento de predicción basado en la información de selección del vector de movimiento de predicción incluido en la información lateral. A continuación, el predictor de vector de movimiento 307 añade el reproducir el vector de movimiento del bloque objetivo. El vector de movimiento reproducido se introduce en el generador de señal de predicción 103 junto con el modo de predicción y el número de fotograma de referencia a través de L307. El proceso
imagen53
5 específico del predictor de vector de movimiento 307 se describe más adelante. El modo de predicción, el número de fotograma de referencia, y el vector de movimiento se introducen en el generador de señal de predicción 103 a través de L307. El generador de señal de predicción 103 adquiere una imagen de referencia de la memoria de fotogramas 104 basándose en la información que los incluye y produce una
10 señal de predicción. El generador de señal de predicción 103 envía la señal de predicción producida al sumador 305 a través de la línea L103. El sumador 305 suma la señal de predicción producida por el generador de señal de
predicción 103 a la señal residual restaurada por el cuantificador inverso 303 y el transformador inverso 304 para producir una señal de reproducción de píxel del bloque
15 objetivo, y envía la señal de pixel de reproducción al terminal de salida 306 y la memoria de fotogramas 104 a través de una línea L305. El terminal de salida 306 envía la señal al exterior (por ejemplo, una pantalla).
La memoria de fotogramas 104 almacena la salida de imagen de reproducción desde el sumador 305 como imagen de reproducción de referencia para el proceso de
20 decodificación posterior. La FIG. 15 ilustra un diagrama de bloques del predictor de vector de movimiento 307 que lleva a cabo el proceso de predicción del vector de movimiento de la presente realización. El predictor de vector de movimiento 307 incluye la memoria 201 que almacena información lateral de entrada, el selector de bloque objetivo de predicción separador 206.
imagen54
El funcionamiento del predictor de vector de movimiento 307 es básicamente el mismo que el predictor de vector de movimiento 114 de la FIG. 3. El predictor de vector de
5 movimiento 307 difiere del predictor de vector de movimiento 114 de la FIG. 3 en que el vector de movimiento incluido en la información lateral de entrada se sustituye con el vector de diferencia de movimiento y la unidad de diferencia 204 se sustituye con el sumador 312.
En otras palabras, la información lateral de entrada, es decir, el modo de predicción, el
10 vector de movimiento de diferencia, y el número de fotograma de referencia, se almacena en la memoria 201 a través de L302b, y se envía al separador 206, al selector de bloque objetivo de predicción 202, y al sumador 312.
El separador 206 extrae el número de fotograma de referencia de la información lateral del bloque objetivo e introduce el número de fotograma de referencia en el buscador de
15 vector de movimiento de predicción 203 a través de L206.
El selector de bloque objetivo de predicción 202 selecciona un bloque (un bloque objetivo de predicción) utilizado para la predicción del vector de movimiento a partir de un bloque ya reproducido adyacente al bloque objetivo.
El buscador de vector de movimiento de predicción 203 compara el número de
20 fotograma de referencia del bloque objetivo 501 con el número de fotograma de referencia del bloque objetivo de predicción 502. Cuando los números de fotograma de referencia son los mismos, el buscador de vector de movimiento de predicción 203 envía el vector de movimiento (MVa) del bloque objetivo de predicción 502 como un vector de movimiento de predicción. Cuando los números de fotograma de referencia
57 imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo 501 a través de L104. Mediante el uso de la imagen de referencia, el buscador de vector de movimiento de predicción 203 procesa el vector de movimiento (MVa) del
imagen55
5 bloque objetivo de predicción 502 mediante un proceso de escalado y similares, y posteriormente envía el vector de movimiento procesado al sumador 312 como un vector de movimiento de predicción.
El sumador 312 añade el vector de diferencia de movimiento introducido a través de L302a a la entrada del vector de movimiento de predicción a través de L203 con el fin
10 de reproducir el vector de movimiento del bloque objetivo. El vector de movimiento reproducido es enviado al generador de señal de predicción 103 junto con el modo de predicción y el número de fotograma de referencia a través de L307. El vector de movimiento reproducido también se envía a la memoria 201 a través de L312, y es sustituido con el vector de diferencia de movimiento introducido a través de L302b.
15 El funcionamiento de la memoria 201, el selector de bloque objetivo de predicción 202, el buscador de vector de movimiento de predicción 203, y el separador 206 son los mismos que el contenido descrito en la "Descripción de predictor de vector de movimiento 114", y la breve descripción general es tal como se describe anteriormente. Por lo tanto, las descripciones detalladas de la misma se omiten. "El caso en que los
20 números de fotograma de referencia de un bloque objetivo y de un bloque objetivo de predicción son los mismos", "predicción de vector de movimiento; el caso en el que el modo de predicción de un bloque objetivo de predicción es la predicción intra-imagen", "predicción de vector de movimiento; el caso en el que una señal adyacente de un bloque objetivo de predicción es una plantilla (región adyacente objetivo)","predicción predicción objetivo se produce por comparación de plantillas", y una modificación descrita en el "ejemplo diferente de proceso de selección de bloque objetivo de predicción" son todos ellos aplicables. Sin embargo, cuando se produce una señal de
imagen56
5 predicción de un bloque de predicción objetivo por comparación de plantillas, se necesita una ruta de datos desde el generador de señal de predicción 103 a la memoria 201 del predictor de vector de movimiento 307.
La FIG. 16 es un diagrama de flujo que ilustra los procedimientos de un método de codificación de imagen en movimiento en el dispositivo de codificación de imágenes en 10 movimiento 100 de acuerdo con el proceso de predicción del vector de movimiento de la presente realización. En primer lugar, el estimador de señal de predicción 113 determina información lateral, como por ejemplo un vector de movimiento, necesaria para producir una señal de predicción de un bloque objetivo que es el objetivo del proceso de codificación, y en base a la información lateral, el generador de señal de
15 predicción 103 produce la señal de predicción (paso 102). La información lateral incluye un modo de predicción que especifica la predicción intra-imagen (FIG. 32) o predicción entre imágenes (FIG. 2), un vector de movimiento, y un número de fotograma de referencia.
El predictor de vector de movimiento 114 resta un vector de movimiento de predicción
20 del vector de movimiento incluido en la información lateral y produce un vector de movimiento de diferencia. El vector de movimiento de diferencia es codificado por el codificador de entropía 111 como parte de la información lateral (paso 103). El detalle del paso 103 se describe más adelante.
imagen57
fin de producir una señal residual. La señal residual producida se comprime a un coeficiente de transformación cuantificada por parte del transformador 106 y el cuantificador 107, y es codificada por el codificador de entropía 111 (paso 104). A 5 continuación, la señal residual codificada y la información lateral se envían a través de
la terminal de salida 112 (paso 105). Después de o en paralelo con estos procesos, la señal residual codificada (coeficiente de transformación cuantificada) es decodificada por el cuantificador inverso 108 y el transformador inverso 109. A continuación, el sumador 110 suma la señal de predicción
10 a la señal residual descodificada a fin de reproducir la señal del bloque objetivo, y la señal reproducida se almacena en la memoria de fotogramas 104 como una imagen de referencia (paso 106). Si no se han completado los procesos de todos los bloques objetivo, el flujo vuelve al paso 102 para procesar un bloque objetivo posterior. Si se han completado los procesos de todos los bloques objetivo, el proceso finaliza (paso
15 107 y paso 108). La FIG. 17 es un diagrama de flujo que ilustra los procedimientos detallados de la producción de un vector de movimiento de predicción y un método de codificación de información lateral en el paso 103 que es realizado por el predictor de vector de movimiento 114.
20 La memoria 201 almacena la información lateral de entrada, es decir, el modo de
predicción, el vector de movimiento, y el número de fotograma de referencia (paso 202). A continuación, el selector de bloque candidato de predicción 202 determina si es
necesaria la codificación del vector de movimiento o no basándose en el modo de
imagen58
movimiento (predicción intra-imagen, omitir predicción, o predicción por comparación de plantillas), el flujo avanza al paso 207, y si es necesaria la codificación del vector de movimiento, el flujo prosigue al paso 204 (paso 203). Posteriormente, el selector de 5 bloque de predicción candidato 202 selecciona un bloque objetivo de predicción utilizado para la predicción de vectores de movimiento (paso 204). La descripción del método de selección de un bloque objetivo de predicción se omite en el presente documento puesto que ya se ilustra en la FIG. 3 y la FIG. 4. La información de bloque seleccionado se añade en la información lateral como información de selección del
10 vector de predicción. El buscador de vector de movimiento de predicción 203 procesa el vector de movimiento del bloque objetivo de predicción a fin de producir un vector de movimiento de predicción (paso 205). El método de proceso del vector de movimiento se describe más adelante. 15 La unidad de diferencia 204 encuentra las diferencias entre los respectivos componentes
del vector de movimiento del bloque objetivo y el vector de movimiento de predicción para calcular un vector de movimiento de diferencia (paso 206). La información lateral producida (el modo de predicción, el número de fotograma de
referencia, el vector de movimiento de diferencia, y la información de selección del 20 vector de movimiento de predicción) es codificada por el codificador de entropía 111
(paso 207). La FIG. 18 es un diagrama de flujo que ilustra los procedimientos detallados de un método de proceso de vector de movimiento (método de búsqueda de un vector de
imagen59
imagen60
buscador de vector de movimiento de predicción 203. En primer lugar, el buscador de vector de movimiento de predicción 203 adquiere el modo de predicción del bloque objetivo de predicción (paso 232). A continuación, el 5 buscador de vector de movimiento de predicción 203 determina si el bloque objetivo de
predicción tiene el vector de movimiento basado en el modo de predicción (paso 233) o no. Si el bloque objetivo de predicción no tiene el vector de movimiento, el separador 206
adquiere el número de fotograma de referencia del bloque objetivo y el buscador de
10 vector de movimiento de predicción 203 adquiere la información lateral que incluye el vector de movimiento de un bloque adyacente al bloque objetivo de predicción de la memoria 201, y el flujo prosigue hasta el paso 237 (paso 235).
Si el bloque objetivo de predicción tiene el vector de movimiento, el determinador 231 adquiere los números de fotograma de referencia del bloque objetivo y el bloque 15 objetivo de predicción (paso 234), y además determina si son iguales o no (paso 236). El conmutador 232 es controlado de una manera tal que, si los dos números de fotograma de referencia son los mismos, el conmutador 232 termina el proceso después de establecer el vector de movimiento del bloque objetivo de predicción como un vector de movimiento de predicción (paso 238), si no son el mismo, el flujo avanza al paso
20 237. El buscador de vector de movimiento de predicción 203 lleva a cabo la comparación de plantillas sobre la base de la información obtenida en el paso 234 o el paso 235 (paso 237).
imagen61
imagen62
método de comparación de plantilla en el paso 237 que es realizado por el comparador de plantilla 233. Primero, el determinador de la región de búsqueda 240 escala el vector de movimiento
5 del bloque objetivo de predicción o un bloque adyacente al bloque objetivo de predicción en la imagen de referencia especificada con el número de fotograma de referencia del bloque objetivo, y determina un centro de búsqueda y una región de búsqueda. La descripción del método de escalado de un vector de movimiento se omite en el presente documento puesto que ya se ilustra en la FIG. 7.
10 La unidad de adquisición de la región adyacente objetivo 241 adquiere una región adyacente objetivo (región de plantilla) adyacente al bloque objetivo o el bloque objetivo de predicción a partir de la memoria de fotogramas 104.
La región adyacente de predicción 242 y el selector de región de predicción candidato 243 buscan una región que tenga una alta correlación con la región adyacente objetivo a 15 partir de la región de búsqueda. A continuación, se establece la cantidad de desplazamiento espacial entre la región de señal detectada y la región de plantilla como un vector de movimiento de predicción. Dado que los detalles del método de determinación de una región de búsqueda para la comparación de plantillas y el método de detección de una región de señal similar a la región de plantilla ya se han descrito 20 utilizando las FIG. 8 a la FIG. 11, aquí se omiten las descripciones de los mismos. También resultan aplicables diferentes ejemplos de "el caso en que una señal de predicción de un bloque de predicción objetivo se produce por comparación de plantillas" descritos en la FIG. 30 y la FIG. 31. Por otra parte, si el paso 261 en la FIG. 31 se sustituye con S205, "el caso en que una señal de predicción de un bloque de
imagen63
imagen64
utilizado en el paso 205. "El ejemplo distinto de proceso de selección de bloque objetivo de predicción" descrito utilizando la FIG. 12 y la FIG. 13 es aplicable al método de codificación de imagen en movimiento.
5 De esta manera, con el método de predicción de vector de movimiento de la presente realización, se puede corregir un vector de predicción de movimiento a un vector de movimiento con respecto una imagen de referencia especificada con un número de fotograma de referencia de un bloque objetivo mediante el uso de comparación de plantillas. Como resultado, se produce el efecto de que se reduce un valor de vector de
10 movimiento de diferencia y mejora la eficiencia de codificación de un vector de
diferencia de movimiento. A continuación, mediante el uso de la FIG. 20, se describe un método de decodificación de imágenes en movimiento en el decodificador de imagen en movimiento 300 de acuerdo con el proceso de predicción de vector de movimiento de la presente
15 realización. Primero, los datos comprimidos se introducen a través del terminal de entrada 301 (paso 302). A continuación, el decodificador de entropía 302 lleva a cabo la decodificación de entropía de los datos comprimidos a fin de extraer un coeficiente de transformación cuantificada y la información lateral (paso 303).
El predictor de vector de movimiento 307 produce un vector de movimiento de
20 predicción y añade el vector de movimiento de predicción a un vector de diferencia de movimiento incluido en la información lateral, con el fin de decodificar un vector de movimiento (paso 304). El detalle del paso 304 se describe más adelante.
imagen65
imagen66
de predicción, un número de fotograma de referencia), el generador de señal de predicción 103 produce una señal de predicción (paso 305). Mientras, el coeficiente de transformación cuantificada es cuantificado inversamente
5 por el cuantificador inverso 303 mediante el uso de un parámetro cuantificado, y a continuación el transformador inverso 304 lleva a cabo un proceso de transformación inversa para producir una señal residual de reproducción (paso 306). A continuación, se añaden la señal de predicción producida y la señal residual de reproducción a fin de producir una señal de reproducción. Esta señal de reproducción se almacena en la
10 memoria de fotogramas 104 para reproducir un bloque objetivo posterior (paso 307). Si hay datos comprimidos posteriores, este proceso se repite (paso 308), de modo que una vez que todos los datos han sido procesados a fondo, el flujo termina (paso S309). El flujo puede volver al paso S302, si es necesario aportar datos comprimidos.
La FIG. 21 es un diagrama de flujo que ilustra los procedimientos detallados de la
15 producción de un vector de movimiento de predicción y un método de decodificación de un vector de movimiento en el paso 304 que son realizados por el predictor de vector de movimiento 307.
La memoria 201 almacena la información lateral de entrada, es decir, el modo de predicción, el vector de movimiento de diferencia, el número de fotograma de
20 referencia, y la información de selección del vector de movimiento de predicción (paso 202). A continuación, el selector de bloque de predicción candidato 202 determina si es necesaria la reproducción del vector de movimiento o no basándose en el modo de predicción del bloque objetivo. Si la reproducción del vector de movimiento no es
imagen67
imagen68
de plantillas), el flujo avanza al paso 316, si es necesaria la producción del vector de movimiento, el flujo prosigue al paso 314 (paso 313). Posteriormente, el selector de bloque de predicción candidato 202 selecciona un bloque objetivo de predicción 5 utilizado para la predicción del vector de movimiento sobre la base de la información de selección del vector de movimiento de predicción reproducido (paso 314). La descripción del método de selección de un bloque objetivo de predicción se omite en el presente documento puesto que ya se ilustra en la FIG. 3 y la FIG. 4. La información de bloque seleccionado se añade a la información lateral como información de selección
10 del vector de predicción. El buscador de vector de movimiento de predicción 203 procesa el vector de movimiento del bloque objetivo de predicción a fin de producir un vector de movimiento de predicción (paso 205). Dado que el método de proceso de un vector de movimiento ya se describe mediante el uso de la FIG. 18, la FIG. 19 y las FIG. 8 a la 15 FIG. 11, se omite su descripción en el presente documento. Aquí, "el caso en que una señal de predicción de un bloque de predicción objetivo es producida por comparación de plantillas" descrito en la FIG. 30 y la FIG. 31, y "el ejemplo diferente de proceso de selección de bloque objetivo de predicción" que se describen utilizando la FIG. 12 y la FIG. 13 también son aplicables al método de decodificación de imágenes en 20 movimiento. El sumador 204 encuentra las diferencias entre los respectivos componentes del vector de diferencia del bloque objetivo y el vector de movimiento de predicción para reproducir un vector de movimiento (paso 315).
imagen69
imagen70
información lateral (el modo de predicción, el número de fotograma de referencia) (paso 317). El método de codificación de imágenes en movimiento y el método de decodificación
5 de imágenes en movimiento de acuerdo con la presente realización se pueden proporcionar como un programa almacenado en un medio de grabación. Los ejemplos del soporte de grabación incluyen medios de grabación que incluyen discos flexibles (marca registrada), CD-ROM, DVD y ROM y memorias de semiconductores.
La FIG. 22 es un diagrama de bloques que ilustra los módulos de un programa capaz de
10 ejecutar el método de codificación de imágenes en movimiento. Un programa de codificación de imágenes en movimiento P100 incluye un módulo de división de bloques P101, un módulo de estimación de señal de predicción P 102, un módulo de generación de señal de predicción P103, un módulo de predicción de vector de movimiento P104, un módulo de almacenamiento P105, un módulo de sustracción
15 P106, un módulo de transformación P107, un módulo de cuantificación P108, un módulo de cuantificación inversa P109, un módulo de transformación inversa P110, un módulo de adición P111, y un módulo de codificación por entropía P112. El módulo de predicción de vector de movimiento P104 incluye, tal como se ilustra en la FIG. 23, un módulo de selección de bloque candidato de predicción P201, un módulo de búsqueda
20 de vector de movimiento de predicción P202, un módulo de diferencia P203, y un módulo de almacenamiento de vector de movimiento P204. Además, tal como se ilustra en la FIG. 24, el módulo de búsqueda de vector de movimiento de predicción P202 incluye un módulo de determinación P231, un módulo de conmutación 232, y un módulo de comparación de plantillas P233. Tal como se ilustra en la FIG. 25, el módulo
imagen71
imagen72
búsqueda P241, un módulo de adquisición de región de predicción 243, y un módulo de selección de región de predicción candidato. Las funciones realizadas mediante la ejecución de cada módulo descrito anteriormente
5 son las mismas que las funciones del dispositivo de codificación de imágenes en movimiento 100 que se ha descrito anteriormente. En otras palabras, las funciones de los respectivos módulos del programa de codificación de imágenes en movimiento P100 son las mismas que las funciones del divisor de bloque 102, el dispositivo de estimación de señal de predicción 113, el generador de señal de predicción 103, el predictor de
10 vector de movimiento 114, la memoria de fotogramas 104, el sustractor 105, el transformador 106, el cuantificador 107, el cuantificador inverso 108, el transformador inverso 109, el sumador 110, el codificador de entropía 111, el selector de bloque de predicción candidato 202, el buscador de vector de movimiento de predicción 203, la unidad de diferencia 204, la memoria 210, el determinador 231, el conmutador 232, el
15 comparador de plantillas 233, el determinador de la región de búsqueda 240, la unidad de adquisición de región adyacente objetivo 241, la unidad de adquisición de región adyacente de predicción 242, y el selector de región de predicción candidato 243 .
La FIG. 26 es un diagrama de bloques que ilustra los módulos de un programa capaz de ejecutar el método de decodificación de imágenes en movimiento. Un programa de 20 decodificación de imágenes en movimiento P300 incluye un módulo de descodificación de entropía P302, un módulo de cuantificación inversa P303, un módulo de transformación inversa P304, un módulo de adición P305, el módulo de generación de señal de predicción 103, un módulo de predicción de vector de movimiento P306, y el módulo de almacenamiento P105. Además, tal como se ilustra en la FIG. 27, el módulo
imagen73
bloque de predicción candidato P201, el módulo de búsqueda de vector de movimiento de predicción P202, un módulo de adición P311, y el módulo de almacenamiento de vectores de movimiento P204.
5 Las funciones realizadas mediante la ejecución de cada módulo descrito anteriormente son las mismas que las de los componentes incluidos en el dispositivo de decodificación de imágenes en movimiento 300 que se ha descrito anteriormente. En otras palabras, las funciones de los respectivos módulos del programa de decodificación de imágenes en movimiento P300 son las mismas que las funciones del descodificador de entropía 302,
10 el cuantificador inverso 303, el transformador inverso 304, el sumador 305, el generador de señal de predicción 103, el predictor de vector de movimiento 307, la memoria de fotogramas 104, el selector de bloque de predicción candidato 202, el buscador de vector de movimiento de predicción 203, el sumador 312, y la memoria 201.
El programa de codificación de imágenes en movimiento P100 o el programa de
15 decodificación de imágenes en movimiento P300 que están estructurados de esta manera se almacenan en un medio de grabación 10 y se ejecutan mediante un ordenador que se describe más adelante.
La FIG. 28 es un diagrama que ilustra una configuración de hardware de un ordenador para ejecutar el programa grabado en el medio de grabación. La FIG. 29 es una vista en
20 perspectiva del ordenador para ejecutar el programa almacenado en el medio de grabación. En este sentido, quien ejecuta un programa almacenado en un medio de grabación no se limita al ordenador. Se pueden utilizar reproductores de DVD, decodificadores, teléfonos móviles, y similares que incluyen una CPU y el software para el proceso y control.
imagen74
imagen75
como una unidad de disquete, un dispositivo de la unidad de CD-ROM, y un dispositivo de unidad de DVD, una memoria de trabajo (RAM) 14, que incluye un sistema operativo residente, una memoria 16 que almacena un programa almacenado en el 5 medio de grabación 10, un dispositivo de visualización 18 tal como una pantalla, un ratón 20 y un teclado 22 los cuales son dispositivos de entrada, un dispositivo de comunicación 24 que transmite y recibe datos y similares, y una CPU 26 que controla la ejecución del programa. Tras la inserción del medio de grabación 10 en el dispositivo de lectura 12, el ordenador 30 se hace accesible a los programas de codificación y
10 decodificación de imágenes en movimiento almacenadas en el medio de grabación 10 desde el dispositivo de lectura 12. Con los programas de codificación y decodificación de imagen en movimiento, el ordenador 30 puede funcionar como dispositivo de codificación de imágenes en movimiento o dispositivo de decodificación de imágenes en movimiento de acuerdo con la presente realización.
15 Tal como se ilustra en la FIG. 29, el programa de codificación de imágenes en movimiento y el programa de decodificación de imágenes en movimiento se pueden proporcionar a través de una red como una señal de datos de ordenador 40 superpuesta sobre una onda transportadora. En este caso, el ordenador 30 almacena el programa de codificación de imágenes en movimiento o el programa de decodificación de imágenes
20 en movimiento que es recibido por el dispositivo de comunicación 24 en la memoria 16, y puede ejecutar el programa de codificación de imágenes en movimiento o el programa de decodificación de imágenes en movimiento.
imagen76
imagen77
de imágenes en movimiento 100 y el dispositivo de decodificación de imágenes en movimiento 300 de la presente realización. En el dispositivo de codificación de imágenes en movimiento 100 de la presente
5 realización, la memoria de fotogramas 104 almacena una pluralidad de imágenes ya reproducidas que han sido codificadas como imágenes de referencia, el divisor de bloque de 102 divide una imagen de entrada en una pluralidad de regiones, el estimador de señal de predicción 113 busca una región que tenga una alta correlación con una región objetivo que es el objetivo de proceso en la pluralidad de regiones divididas de la
10 pluralidad de imágenes de referencia almacenadas en la memoria de fotogramas 104 y
produce un vector de movimiento. El generador de señal de predicción 103 produce una señal de predicción de la región objetivo en función de un número de fotograma de referencia que especifica la imagen de referencia buscada por el estimador de señal de predicción 113 y el vector de
15 movimiento especificando la relación de posición espacial entre la región objetivo que es el objetivo de proceso y la región explorada por el estimador de señal de predicción
113. El predictor de vector de movimiento 114 produce un vector de movimiento de predicción a partir de uno o más vectores de movimiento ya codificados y produce un
20 vector de movimiento de diferencia entre el vector de movimiento producido por el estimador de señal de predicción 113 y el vector de movimiento de predicción. El sustractor 105 produce una señal residual entre la señal de predicción de la región
objetivo y una señal de píxel objetivo de la región objetivo, y una unidad de proceso de codificación compuesta por el transformador 106, el cuantificador 107 y el codificador
imagen78
imagen79
vector de movimiento de diferencia producido por el predictor de vector de movimiento
114. Mientras, una unidad de proceso de restauración compuesta por el cuantificador inverso 5 108 y el transformador inverso 109 restaura la señal residual codificada por la unidad de proceso de codificación, y a continuación añade la señal restaurada a la señal de predicción producida por el generador de señal de predicción 103 a fin de producir una imagen de reproducción y almacena la imagen de reproducción en la memoria de fotogramas 104 como una imagen de referencia. 10 El funcionamiento del predictor de vector de movimiento 114 se describe adicionalmente a continuación con referencia a la FIG. 8. El predictor de vector de movimiento 114 descrito anteriormente selecciona una región (por ejemplo, el bloque objetivo de predicción 502 de la FIG. 4) a partir de regiones ya codificadas, cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número 15 de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla (por ejemplo, la región objetivo adyacente 501T adyacente al bloque objetivo 501), compuesta de señales de píxeles ya reproducidas situadas alrededor de la región objetivo (el bloque objetivo 501) a partir de una imagen de 20 referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce un vector de predicción de movimiento (el vector de movimiento 602P), basado en la relación de posición espacial entre la región explorada (la región
adyacente de predicción 501M) y la región de plantilla (región adyacente objetivo 501T).
imagen80
imagen81
las señales de píxel ya reproducidas y situada adyacente a la región objetivo como la región de la plantilla, la región adyacente objetivo 502T compuesta de señales de píxeles adyacentes ya reproducidas y situada adyacente a una región (del bloque 5 objetivo de predicción 502) seleccionada por el predictor de vector de movimiento 114,
puede ser configurada como la región de plantilla, tal como se ilustra en la FIG. 11. De acuerdo con esta invención, se busca una región que tenga una alta correlación con una región de plantilla compuesta de señales de píxeles ya reproducidas situadas alrededor de una región objetivo a partir de una imagen de referencia especificada con
10 un número de fotograma de referencia asociado con la región objetivo, y se puede producir un vector de movimiento de predicción basado en una relación de posición espacial entre la región buscada y la región de plantilla. Por consiguiente, incluso cuando el vector de movimiento del bloque objetivo de predicción ya reproducido adyacente a la región objetivo es cero o cuando se utiliza un método de predicción que
15 no tiene el vector de movimiento, la predicción de vector de movimiento en la región objetivo se lleva a cabo de manera eficiente y se puede mejorar la eficiencia de codificación.
En el dispositivo de codificación de imágenes en movimiento 100 de la presente forma de realización, el generador de señal de predicción 103 funciona como medio de
20 combinación de señales de predicción. El generador de señal de predicción 103 busca una o más regiones adyacentes de predicción (la región adyacente de predicción 501M) que tenga una alta correlación con una región adyacente objetivo (la región adyacente objetivo 501T) compuestas de señales de píxeles adyacentes ya reproducidos y situados adyacentes a una región objetivo (bloque objetivo 501) a partir de una pluralidad de función de las una o más regiones adyacentes de predicción. Por ejemplo, el generador de señal de predicción 103 detecta regiones adyacentes de predicción N y procesa una señal de predicción promediando las señales de predicción candidatas N.
imagen82
imagen83
5 Además, el predictor de vector de movimiento de predicción 114 almacena los vectores de movimiento que especifican la relación de posición espacial entre la región adyacente de predicción (la región adyacente de predicción 501M) buscada por el generador de señal de predicción 103 y la región adyacente objetivo (la región adyacente de predicción 501T), en que se almacena un vector de movimiento para cada
10 una de la pluralidad de imágenes de referencia. Cuando la señal de predicción de la región seleccionada es producida por el generador de señal de predicción 103, el vector de movimiento correspondiente al número de fotograma de referencia de la región objetivo en los vectores de movimiento almacenados se establece como un vector de movimiento de predicción.
15 De acuerdo con la presente invención, cuando una señal de predicción de una región objetivo de predicción es producida por comparación de plantillas, la eficiencia del proceso de comparación de plantillas se puede mejorar mediante el uso de un vector de movimiento detectado en la comparación de plantillas.
En el dispositivo de decodificación de imágenes en movimiento 300 de la presente
20 realización, el decodificador de entropía 302 descodifica los datos codificados de un vector de movimiento de diferencia, un número de fotograma de referencia y una señal residual de una región objetivo que es el objetivo de proceso a partir de datos comprimidos introducidos a través del terminal de entrada 301.
imagen84
imagen85
de reproducción a partir de los datos codificados de la señal residual, y el sumador 305 añade una señal de predicción producida por el generador de señal de predicción 103 a la señal residual de reproducción restaurada a fin de restablecer una señal de píxel de la 5 región objetivo, y almacena la señal de píxel restaurada en la memoria de fotogramas
104. La memoria de fotogramas 104 almacena una pluralidad de imágenes ya
reproducidas como imágenes de referencia. Mientras, el predictor de vector de movimiento 307 produce un vector de movimiento de predicción a partir de uno o más vectores de movimiento ya restaurados y añade el
10 vector de movimiento de predicción al vector de movimiento de diferencia decodificado por el decodificador de entropía 302 a fin de restablecer un vector de movimiento. El generador de señal de predicción 103 produce una señal de predicción de la región objetivo basada en el vector de movimiento restaurado por el predictor de vector de movimiento 307 y el número de fotograma de referencia de la región objetivo.
15 Más en particular, el predictor de vector de movimiento 307 selecciona una región (por ejemplo, el bloque objetivo de predicción 502 de la FIG. 4) a partir de regiones ya codificadas, cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una
20 región que tenga una alta correlación con una región de plantilla (por ejemplo, la región adyacente objetivo 501T adyacente al bloque objetivo 501), compuesta de señales de píxeles ya reproducidas situadas alrededor de la región objetivo (bloque objetivo 501) a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce un vector de movimiento de
imagen86
imagen87
entre la región explorada (la región adyacente de predicción 501M) y la región de plantilla (región adyacente objetivo 501T). De acuerdo con esta invención, se busca una región que tenga una alta correlación con
5 una región de plantilla compuesta de señales de píxeles ya reproducidas situadas alrededor de una región objetivo a partir de una imagen de referencia especificada con un número de fotograma de referencia asociado con la región objetivo, y se puede producir un vector de predicción de movimiento basado en una relación de posición espacial entre la región buscada y la región de plantilla. Por lo tanto, incluso cuando el
10 vector de movimiento del bloque objetivo de predicción ya reproducido adyacente a la región objetivo es cero o cuando se utiliza un método de predicción que no tiene el vector de movimiento, la predicción de vector de movimiento en la región objetivo se lleva a cabo de manera eficiente y se puede mejorar la eficiencia de codificación. Como resultado, los datos codificados de esta manera pueden ser decodificados.
15 En este sentido, además de establecer la región adyacente objetivo 501T compuesta de las señales de píxel ya reproducidas y situada adyacente a la región objetivo como la región de la plantilla, la región adyacente objetivo 502T compuesta de señales de píxeles adyacentes ya reproducidos y situada adyacente a una región (del bloque objetivo de predicción 502) seleccionada por el predictor de vector de movimiento 114
20 puede ser configurada como la región de plantilla, tal como se ilustra en la FIG. 11. En el dispositivo de decodificación de imágenes en movimiento 300 de la presente forma de realización, el generador de señal de predicción 103 funciona como medio de combinación de señales de predicción. El generador de señal de predicción 103 busca una o más regiones adyacentes de predicción (la región adyacente de predicción 501M)
imagen88
imagen89
objetivo 501T) compuestas de señales de píxeles adyacentes y situados adyacentes a una región objetivo (bloque objetivo 501) a partir de una pluralidad de imágenes de referencia, y procesa una señal de predicción de la región objetivo en función de las una
5 o más regiones adyacentes de predicción. Por ejemplo, el dispositivo de decodificación de imágenes en movimiento 300 detecta regiones adyacentes de predicción N y produce una señal de predicción promediando las señales de predicción candidatas N.
El predictor de vector de movimiento de predicción 307, además, almacena vectores de movimiento que especifican la relación de posición espacial entre la región adyacente
10 de predicción (la región adyacente de predicción 501M) buscada por el generador de señal de predicción 103 y la región adyacente objetivo (la región adyacente de predicción 501T), en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia.
Cuando la señal de predicción de la región seleccionada es producida por el generador
15 de señal de predicción 103, el vector de movimiento correspondiente al número de fotograma de referencia de la región objetivo en los vectores de movimiento almacenados se establece como un vector de movimiento de predicción.
De acuerdo con esta invención, cuando una señal de predicción de una región objetivo de predicción es producida por comparación de plantillas, la eficiencia del proceso de
20 comparación de plantillas se puede mejorar mediante el uso de un vector de movimiento detectado en la comparación de plantillas. Además, se puede estructurar un sistema de proceso de imagen que incluya el dispositivo de codificación de imágenes en movimiento 100 y el dispositivo de decodificación de imágenes en movimiento 300 de la presente realización. En este caso,
imagen90
imagen91
codificación de imágenes en movimiento 100 pueden ser decodificados por el dispositivo de decodificación de imágenes en movimiento 300. El dispositivo de codificación de imágenes en movimiento 100 y el dispositivo de decodificación de imágenes en movimiento 300 pueden estar estructurados como un sistema de proceso de imágenes en que se conectan entre sí a través de una red o pueden estar incluidos en un dispositivo (por ejemplo, un ordenador, un terminal móvil, y similares).

Claims (13)

  1. imagen1
    1. Un dispositivo de codificación de imágenes en movimiento (100) que comprende: medio de división de regiones (102) para dividir una imagen de entrada en una pluralidad de regiones;
    5 medio de almacenamiento (104) para almacenar una pluralidad de imágenes ya reproducidas como imágenes de referencia; medio de estimación de movimiento (113) para la búsqueda de una región que
    tenga una alta correlación con una región objetivo que es un objetivo de procesamiento en la pluralidad de regiones a partir de la pluralidad de imágenes de 10 referencia almacenadas en el medio de almacenamiento y que produce un vector
    de movimiento de la región objetivo; medio de generación de señal de predicción (103) para producir una señal de predicción de la región objetivo en función de un número de fotograma de referencia que especifica una imagen de referencia buscada por el medio de
    15 estimación de movimiento y en que el vector de movimiento especifica una
    relación de posición espacial entre la región objetivo y la región buscada; medio de predicción de vector de movimiento (114) para producir un vector de movimiento de predicción a partir de uno o más vectores de movimiento codificados y producir un vector de movimiento de diferencia entre el vector de
    20 movimiento producido por el medio de estimación de movimiento y el vector de movimiento de predicción;
    imagen2
    imagen3
    la señal de predicción de la región objetivo y una señal de píxel objetivo de la región objetivo; medio de codificación (111) para codificar la señal residual, el número de 5 fotograma de referencia, y el vector de movimiento de diferencia producido por el
    medio de predicción de vector de movimiento; y medio de restauración (108, 109) para restaurar la señal residual codificada, y, a continuación, añadir la señal resultante a la señal de predicción a fin de producir una imagen de reproducción, y almacenar la imagen de reproducción en el medio
    10 de almacenamiento como imagen de referencia; caracterizado porque el medio de predicción de vector de movimiento (114) está configurado para seleccionar una región a partir de las regiones codificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de 15 referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que está situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de 20 predicción basado en una relación de posición espacial entre la región buscada y la región de plantilla.
  2. 2.
    El dispositivo de codificación de imágenes en movimiento de acuerdo con la reivindicación 1, en el que la región de plantilla se establece en una región adyacente
    región objetivo.
  3. 3.
    El dispositivo de codificación de imágenes en movimiento de acuerdo con la
    imagen4
    5 reivindicación 1, en el que la región de plantilla se establece en una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y situada adyacente a una región seleccionada por el medio de predicción de vector de movimiento.
    10 4. El dispositivo de codificación de imágenes en movimiento de acuerdo con cualquiera de las reivindicaciones 1 a 3, en el que el medio de generación de predicción incluye además un medio de combinación de señales de predicción para buscar una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxel adyacentes ya reproducidas y situadas
    15 adyacentes a la región objetivo a partir de una pluralidad de imágenes de referencia y procesar la señal de predicción de la región objetivo en función de las una o más regiones adyacentes de predicción,
    el medio de predicción del vector de movimiento de predicción almacena además vectores de movimiento cada uno de los cuales especifica una relación de posición
    20 espacial entre una región adyacente de predicción buscada por el medio de combinación de señal de predicción y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia, y
    imagen5
    combinación de señal de predicción, se establece un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados como vector de predicción de movimiento.
    5 5. Un dispositivo de decodificación de imágenes en movimiento que comprende: medio de decodificación de datos (302) para la decodificación de datos codificados de un vector de movimiento de diferencia, un número de fotograma de referencia, y una señal residual de una región objetivo que es un objetivo de proceso a partir de datos comprimidos;
    10 medio de almacenamiento (104) para almacenar una pluralidad de imágenes ya reproducidas como imágenes de referencia; medios de restauración de señal residual (303, 304) para restaurar una señal
    residual de reproducción a partir de los datos codificados de la señal residual; medios de predicción de vector de movimiento (307) para producir un vector de 15 movimiento de predicción a partir de uno o más vectores de movimiento restaurados y añadir el vector de movimiento de diferencia descodificado por el
    medio de descodificación de datos al vector de movimiento de predicción a fin de restablecer un vector de movimiento; medio de generación de señal de predicción (103) para producir una señal de
    20 predicción de la región objetivo basada en el vector de movimiento restaurado por el medio de predicción de vector de movimiento y el número de fotograma de referencia de la región objetivo; y
    imagen6
    señal residual de reproducción a fin de restablecer una señal de píxel de la región objetivo; caracterizado porque el medio de predicción de vector de movimiento (307) está configurado para
    5 seleccionar una región a partir de regiones decodificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de
    10 píxeles ya reproducidas y que está situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción basado en una relación de posición espacial entre la región buscada y la región de plantilla.
    15
  4. 6. El dispositivo de decodificación de imágenes en movimiento de acuerdo con la reivindicación 5, en que la región de plantilla se establece en una región adyacente objetivo compuesta de señales de píxeles ya reproducidas y situada adyacente a una región objetivo.
    20
  5. 7. El dispositivo de decodificación de imágenes en movimiento de acuerdo con la reivindicación 5, en que la región de plantilla se establece en una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y que está situada movimiento.
    imagen7
    imagen8
  6. 8. El dispositivo de decodificación de imágenes en movimiento de acuerdo con cualquiera de las reivindicaciones 5 a 7, en que el medio de generación de predicción 5 incluye además un medio de combinación de señal de predicción para buscar una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas producidas y situada adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y procesar la señal de predicción de la región objetivo en
    10 función de las una o más regiones adyacentes de predicción, el medio de predicción del vector de movimiento de predicción almacena además vectores de movimiento, cada uno de los cuales especifica una relación de posición espacial entre una región adyacente de predicción buscada por el medio de combinación de señales de predicción y una región adyacente objetivo, en que se almacena un vector 15 de movimiento para cada una de la pluralidad de imágenes de referencia, y cuando una señal de predicción de la región seleccionada es producida por el medio de combinación de señales de predicción, un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados se establece como el vector de movimiento de predicción. 20
  7. 9. Un método de codificación de imágenes en movimiento, que comprende:
    una fase de división de región que divide una imagen introducida en una pluralidad de regiones;
    imagen9
    imagen10
    alta correlación con una región objetivo que es un objetivo de proceso en la pluralidad de regiones a partir de una pluralidad de imágenes de referencia almacenadas en medios de almacenamiento y que produce un vector de
    5 movimiento de la región objetivo; una fase de generación de señal de predicción (S102) que produce una señal de predicción de la región objetivo en función de un número de fotograma de referencia que especifica una imagen de referencia buscada en la fase de estimación de movimiento y en que el vector de movimiento especifica una 10 relación de posición espacial entre la región objetivo y la región buscada; una fase de predicción de vector de movimiento (S103) que produce un vector de movimiento de predicción a partir de uno o más vectores de movimiento codificados y que produce un vector de diferencia de movimiento entre el vector de movimiento producido en la fase de estimación de movimiento y el vector de 15 predicción de movimiento; una fase de generación de señal residual (S104) que produce una señal residual
    entre la señal de predicción de la región objetivo y una señal de píxel objetivo de la región objetivo; una fase de codificación (S104) que codifica la señal residual, el número de
    20 fotograma de referencia, y el vector de movimiento de diferencia producido en la
    fase de predicción de vector de movimiento; y una fase de restauración (S106) que restaura la señal residual codificada, y, posteriormente, añade la señal resultante a la señal de predicción a fin de producir
    imagen11
    imagen12
    de almacenamiento como imagen de referencia; caracterizada porque
    la fase de predicción de vector de movimiento (S103) selecciona una región a partir de las regiones codificadas, y cuando la región seleccionada no tiene un 5 número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de píxeles ya reproducidas y que esté situada alrededor de la región objetivo a partir de la
    10 imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción basado en una relación de posición espacial entre la región buscada y la región de plantilla.
    15 10. El método de codificación de imágenes en movimiento de acuerdo con la reivindicación 9, en que la fase de generación de predicción incluye además una fase de combinación de señales de predicción que busca una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo compuesta de señales de píxeles adyacentes ya reproducidas y localizada adyacente a la
    20 región objetivo a partir de una pluralidad de imágenes de referencia y que procesa la señal de predicción de la región objetivo en función de las una o más regiones adyacentes de predicción,
    la fase de predicción de vector de movimiento de predicción almacena además vectores de movimiento cada uno de los cuales especifica una relación de posición espacial entre
    imagen13
    imagen14
    predicción y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia, y cuando se produce una señal de predicción de la región seleccionada en la fase de
    5 combinación de señales de predicción, se establece un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados como vector de movimiento de predicción.
  8. 11. Un método de decodificación de imágenes en movimiento, que comprende: 10 una fase de decodificación de datos (S307) que decodifica los datos codificados de un vector de movimiento de diferencia, un número de fotograma de referencia, y
    una señal residual de una región objetivo que es un objetivo de proceso a partir de datos comprimidos; una fase de almacenamiento (S303) que almacena una pluralidad de imágenes ya
    15 reproducidas como imágenes de referencia;
    una fase de restauración de la señal residual (S303) que restaura una señal residual de reproducción a partir de los datos codificados de la señal residual; una fase de predicción de vector de movimiento (S304) que produce un vector de
    movimiento de predicción a partir de uno o más vectores de movimiento
    20 restaurados y que añade el vector de movimiento de diferencia decodificado en la fase de decodificación de datos al vector de movimiento de predicción a fin de restablecer un vector de movimiento; predicción de la región objetivo basada en el vector de movimiento restaurado en la fase de predicción de vector de movimiento y el número de fotograma de referencia de la región objetivo; y
    imagen15
    imagen16
    5 una fase de restauración de imagen (S307) que añade la señal de predicción a la señal residual de reproducción a fin de restablecer una señal de píxel de la región objetivo, y que almacena la señal de píxel como una imagen de referencia en el medio de almacenamiento;
    caracterizada porque la fase de predicción de vectores de movimiento (S304)
    10 selecciona una región a partir de regiones decodificadas, y cuando la región seleccionada no tiene un número de fotograma de referencia o cuando el número de fotograma de referencia de la región objetivo y el número de fotograma de referencia de la región seleccionada son diferentes, busca una región que tenga una alta correlación con una región de plantilla que se compone de señales de
    15 píxeles ya reproducidas y que está situada alrededor de la región objetivo a partir de una imagen de referencia especificada con el número de fotograma de referencia asociado con la región objetivo, y produce el vector de movimiento de predicción basado en una relación de posición espacial entre la región buscada y la región de plantilla.
    20
  9. 12. El método de decodificación de imágenes en movimiento de acuerdo con la reivindicación 11, en que la fase de generación de predicción incluye además una fase de combinación de señales de predicción que busca una o más regiones adyacentes de predicción que tengan una alta correlación con una región adyacente objetivo adyacente a la región objetivo a partir de una pluralidad de imágenes de referencia y que procesa la señal de predicción de la región objetivo en función de las una o más regiones adyacentes de predicción,
    imagen17
    imagen18
    5 la fase de predicción de vector de movimiento de predicción almacena además vectores de movimiento cada uno de los cuales especifica una relación de posición espacial entre una región de predicción adyacente buscada en la fase de combinación de señales de predicción y una región adyacente objetivo, en que se almacena un vector de movimiento para cada una de la pluralidad de imágenes de referencia, y
    10 cuando se produce una señal de predicción de la región seleccionada en la fase de combinación de señales de predicción, se establece un vector de movimiento correspondiente a un número de fotograma de referencia de una región objetivo en los vectores de movimiento almacenados como el vector de predicción de movimiento.
    15 13. Un programa de codificación de imágenes en movimiento que comprende un código de software adaptado para realizar el método de la reivindicación 9 cuando se ejecuta en una máquina.
  10. 14. El programa de codificación de imágenes en movimiento de acuerdo con la
    20 reivindicación 13, que comprende un código de software que también está adaptado para realizar el método de la reivindicación 10 cuando se ejecuta en la máquina.
    imagen19
    imagen20
    código de software adaptado para realizar el método de la reivindicación 11 cuando se ejecuta en una máquina.
  11. 16. El programa de decodificación de imágenes en movimiento de acuerdo con la
    5 reivindicación 15, que comprende un código de software que también está adaptado para realizar el método de la reivindicación 12 cuando se ejecuta en una máquina
  12. 17. Un sistema de procesamiento de imagen en movimiento que comprende: el dispositivo de codificación de imágenes en movimiento de acuerdo con 10 cualquiera de las reivindicaciones 1 a 4; y
    el dispositivo de decodificación de imágenes en movimiento de acuerdo con cualquiera de las reivindicaciones 5 a 8; en que el dispositivo de decodificación de imágenes en movimiento decodifica los datos
    codificados por el dispositivo de codificación de imágenes en movimiento. 15
  13. 18. Un método de procesamiento de imágenes en movimiento, que comprende:
    el método de codificación de imágenes en movimiento de acuerdo con la reivindicación 9; y el método de decodificación de imágenes en movimiento de acuerdo con la
    20 reivindicación 11; en que el método de decodificación de imágenes en movimiento decodifica los datos codificados por el método de codificación de imágenes en movimiento.
ES09819158.8T 2008-10-09 2009-10-05 Método, dispositivo y programa de ordenador para mejorar la predicción de vectores de movimiento Active ES2532017T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008263080A JP5401071B2 (ja) 2008-10-09 2008-10-09 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
JP2008263080 2008-10-09
PCT/JP2009/067334 WO2010041624A1 (ja) 2008-10-09 2009-10-05 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法

Publications (1)

Publication Number Publication Date
ES2532017T3 true ES2532017T3 (es) 2015-03-23

Family

ID=42100574

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09819158.8T Active ES2532017T3 (es) 2008-10-09 2009-10-05 Método, dispositivo y programa de ordenador para mejorar la predicción de vectores de movimiento

Country Status (7)

Country Link
US (1) US9351014B2 (es)
EP (1) EP2337358B1 (es)
JP (1) JP5401071B2 (es)
CN (1) CN102177716B (es)
ES (1) ES2532017T3 (es)
TW (1) TWI508532B (es)
WO (1) WO2010041624A1 (es)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US8879632B2 (en) * 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
JP2011259204A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号装置およびその方法とプログラム
CN103141091A (zh) * 2010-06-21 2013-06-05 汤姆逊许可公司 图像数据编码/解码的方法及其设备
KR101836981B1 (ko) * 2010-07-09 2018-03-09 한국전자통신연구원 템플릿 매칭을 이용한 영상 부호화 방법 및 장치, 그리고 복호화 방법 및 장치
CA2813377C (en) * 2010-10-06 2017-08-29 Ntt Docomo, Inc. Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
US8787459B2 (en) * 2010-11-09 2014-07-22 Sony Computer Entertainment Inc. Video coding methods and apparatus
AU2011353904B2 (en) * 2011-01-07 2015-09-10 Ntt Docomo, Inc. Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and, predictive decoding method, predictive decoding device, and predictive decoding program of motion vector
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
JP2012151796A (ja) * 2011-01-21 2012-08-09 Sony Corp 画像処理装置と画像処理方法およびプログラム
JP2012209705A (ja) * 2011-03-29 2012-10-25 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2012209706A (ja) * 2011-03-29 2012-10-25 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
GB2491589B (en) 2011-06-06 2015-12-16 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of image
HUE063217T2 (hu) * 2011-06-27 2024-01-28 Samsung Electronics Co Ltd Eljárás mozgásinformáció dekódolásához és kódolásához, berendezés mozgásinformáció kódolásához és számítógéppel olvasható eszköz
JP5729817B2 (ja) 2011-06-29 2015-06-03 日本電信電話株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム及び動画像復号プログラム
CN107071403B (zh) * 2011-06-30 2019-09-24 Jvc建伍株式会社 图像编码装置、图像编码方法、图像解码装置及图像解码方法
TWI679876B (zh) * 2011-10-31 2019-12-11 日商Jvc建伍股份有限公司 動態影像解碼裝置及動態影像解碼方法
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
JP5485969B2 (ja) * 2011-11-07 2014-05-07 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
KR20130050403A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 복원 블록 생성 방법
EP3654651B1 (en) * 2011-12-16 2021-04-21 JVC Kenwood Corporation Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
JP5849681B2 (ja) * 2011-12-16 2016-02-03 富士通株式会社 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム、及び復号プログラム
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
WO2013099285A1 (ja) * 2011-12-28 2013-07-04 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
JPWO2013108689A1 (ja) 2012-01-19 2015-05-11 ソニー株式会社 画像処理装置および方法
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
CN104363451B (zh) 2014-10-27 2019-01-25 华为技术有限公司 图像预测方法及相关装置
CN111556323B (zh) * 2016-02-06 2022-05-13 华为技术有限公司 图像编解码方法及装置
EP3239929B1 (en) * 2016-04-27 2019-06-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
WO2018124855A1 (ko) 2017-01-02 2018-07-05 한양대학교 산학협력단 화면 간 예측을 이용한 영상 복호화 방법 및 장치
CN111201795B (zh) * 2017-10-09 2022-07-26 华为技术有限公司 存储访问窗口和用于运动矢量修正的填充
JP7248013B2 (ja) * 2018-03-30 2023-03-29 株式会社ソシオネクスト 復号方法、復号装置、符号化装置及びプログラム
CN110662033B (zh) * 2018-06-28 2021-11-23 杭州海康威视数字技术股份有限公司 一种解码、编码方法及其设备
JP2023086507A (ja) * 2021-12-10 2023-06-22 キオクシア株式会社 情報処理装置および方法
CN115529459B (zh) * 2022-10-10 2024-02-02 格兰菲智能科技有限公司 中心点搜索方法、装置、计算机设备、存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259739B1 (en) 1996-11-26 2001-07-10 Matsushita Electric Industrial Co., Ltd. Moving picture variable bit rate coding apparatus, moving picture variable bit rate coding method, and recording medium for moving picture variable bit rate coding program
US6289052B1 (en) * 1999-06-07 2001-09-11 Lucent Technologies Inc. Methods and apparatus for motion estimation using causal templates
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
CN1513268B (zh) * 2001-09-14 2010-12-22 株式会社Ntt都科摩 编码方法、译码方法、编码装置、译码装置和图象处理系统
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP4213646B2 (ja) * 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP4879558B2 (ja) * 2005-11-02 2012-02-22 パナソニック株式会社 動きベクトル検出装置
JP2007300380A (ja) 2006-04-28 2007-11-15 Ntt Docomo Inc 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4994767B2 (ja) * 2006-10-03 2012-08-08 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
CN103747263B (zh) * 2006-04-28 2017-03-01 株式会社Ntt都科摩 图像预测编码装置和方法以及图像预测解码装置和方法
WO2008056934A1 (en) * 2006-11-07 2008-05-15 Samsung Electronics Co., Ltd. Method of and apparatus for video encoding and decoding based on motion estimation

Also Published As

Publication number Publication date
JP5401071B2 (ja) 2014-01-29
EP2337358A1 (en) 2011-06-22
CN102177716B (zh) 2013-08-14
EP2337358A4 (en) 2013-05-29
CN102177716A (zh) 2011-09-07
TWI508532B (zh) 2015-11-11
US9351014B2 (en) 2016-05-24
TW201036451A (en) 2010-10-01
WO2010041624A1 (ja) 2010-04-15
JP2010093646A (ja) 2010-04-22
US20110228853A1 (en) 2011-09-22
EP2337358B1 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
ES2532017T3 (es) Método, dispositivo y programa de ordenador para mejorar la predicción de vectores de movimiento
US10728573B2 (en) Motion compensated boundary pixel padding
TWI717586B (zh) 於視訊解碼器中導出運動向量資訊
US11252436B2 (en) Video picture inter prediction method and apparatus, and codec
US10142654B2 (en) Method for encoding/decoding video by oblong intra prediction
RU2697806C9 (ru) Устройство декодирования движущегося изображения и способ декодирования движущегося изображения
ES2929824T3 (es) Método de decodificación bipredictiva de imágenes
JP4536325B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100743849B1 (ko) 화상 부호화 장치, 화상 부호화 방법, 화상 부호화프로그램, 화상 복호 장치, 화상 복호 방법, 및 화상 복호프로그램
BR112013006499B1 (pt) Dispositivo de decodificação de imagem em movimento
TW201933874A (zh) 使用局部照明補償之視訊寫碼
TW201742465A (zh) 用於視訊寫碼之仿射運動預測
ES2662879T3 (es) Dispositivo de codificación predictiva de vídeo, método de codificación predictiva de vídeo, programa de codificación predictiva de vídeo, dispositivo de descodificación predictiva de vídeo, método de descodificación predictiva de vídeo y programa de descodificación predictiva de vídeo
TW201817238A (zh) 用於視訊寫碼之適應性運動向量精準度
WO2019154424A1 (zh) 视频解码方法、视频解码器以及电子设备
CN110868602B (zh) 视频编码器、视频解码器及相应方法
JP6503014B2 (ja) 動画像符号化方法及び動画像復号化方法
JP2010193401A (ja) 画像符号化方法及び画像符号化装置
WO2019000443A1 (zh) 一种帧间预测的方法及装置
TWI831358B (zh) 用於仿射預測或運動補償的共享預加載區域的方法和裝置
CN111355958B (zh) 视频解码方法及装置
JP6510084B2 (ja) 動画像復号化方法及び電子装置
JPWO2011099242A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2016106494A (ja) 動画像符号化方法及び動画像復号化方法
WO2019237287A1 (zh) 视频图像的帧间预测方法、装置及编解码器