ES2491095T3 - Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento - Google Patents

Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento Download PDF

Info

Publication number
ES2491095T3
ES2491095T3 ES10182789.7T ES10182789T ES2491095T3 ES 2491095 T3 ES2491095 T3 ES 2491095T3 ES 10182789 T ES10182789 T ES 10182789T ES 2491095 T3 ES2491095 T3 ES 2491095T3
Authority
ES
Spain
Prior art keywords
image
motion vector
images
block
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES10182789.7T
Other languages
English (en)
Inventor
Satoshi Kondo
Shinya Kadono
Makoto Hagai
Kiyofumi Abe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Application granted granted Critical
Publication of ES2491095T3 publication Critical patent/ES2491095T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

Un método de codificación para codificar una imagen, comprendiendo dicho método de codificación: una etapa de codificación para la determinación de un vector de movimiento para el bloque actual a codificar, en base a un vector de movimiento de un bloque localizado conjuntamente que es un bloque incluido dentro de una imagen codificada anteriormente y localizado conjuntamente con el bloque actual, y codificar el bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo usando el vector de movimiento para el bloque actual y una imagen de referencia que corresponde al vector de movimiento para el bloque actual, en el que dicha etapa de codificación está caracterizada por en el caso donde el bloque localizado conjuntamente se haya codificado usando un vector de movimiento y una imagen de referencia hacia atrás que corresponde al vector de movimiento, generar dos vectores de movimiento a usar para la codificación del bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo, escalando, usando una diferencia entre la información que indica el orden de representación de las imágenes, usado el vector de movimiento para codificar el bloque localizado conjuntamente; y codificar el bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo usando los dos vectores de movimiento generados para el bloque actual y dos imágenes de referencia que corresponden respectivamente a los dos vectores de movimiento generados.

Description

imagen1
DESCRIPCIÓN
Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
5 Campo técnico
La presente invención se refiere a métodos de codificación de imágenes en movimiento y métodos de decodificación de imágenes en movimiento, y en particular a métodos para la realización de la codificación de predicción entre imágenes y la decodificación de predicción entre imágenes de una imagen actual usando imágenes procesadas anteriormente como imágenes de referencia.
Técnica anterior
El documento "Adaptive frame/field for JVT Video Coding" ITU-T JVT -B071, de L. Wang y otros presenta los
15 resultados de simulación por ordenador para experimentos centrales A (codificación de trama), B (codificación de campo) y E (codificación adaptativa del nivel de imágenes) definidas en el documento de P.Borgwardt "Core experiment on interface video coding" de ITU-T VCEG-059, del 2 de enero de 2002 para la codificación de video de interfaz. Las simulaciones se realizaron para diversas secuencias de video de interfaz, incluyendo las seis secuencias comunes para comprobación de la interfaz. La ventaja de la codificación adaptativa sobre la codificación de trama o de campo es obvia. Se recomienda que la codificación adaptativa se adopte en JVT.
En la codificación de imágenes en movimiento, en general se comprimen cantidad de datos usando las redundancias espacial y temporal que existen dentro de una imagen en movimiento. Hablando en general, la transformación de frecuencia se usa como un método que usa las redundancias espaciales, y la codificación de
25 predicción entre imágenes se usa como un método de utilización de las redundancias temporales. En la codificación de predicción entre imágenes, para la codificación de una imagen actual, las imágenes codificadas anteriormente antes o después de la imagen actual en el orden de representación se usan como imágenes de referencia. La cantidad de movimiento de la imagen actual se estima a partir de la imagen de referencia, y la diferencia entre los datos de imagen obtenidos por compensación del movimiento se calcula en base a la cantidad de movimiento y los datos de imagen de la imagen actual, de modo que se eliminan las redundancias temporales. Las redundancias espaciales se eliminen además a partir de este valor diferencial de modo que se comprime la cantidad de datos de la imagen actual.
En el método de codificación de imágenes en movimiento llamado H.264 que se ha desarrollado para la
35 normalización, una imagen que se codifica sin usar la predicción entre imágenes pero usando la codificación intra imagen se denomina como una imagen I, una imagen que se codifica usando la predicción entre imágenes con referencia a una imagen procesada anteriormente que está antes o después que la imagen actual en el orden de representación se denomina como una imagen P, y una imagen que se codifica usando una predicción entre imágenes con referencia a dos imágenes procesadas anteriormente que están antes o después de la imagen actual en el orden de representación se denominan como una imagen B (Véase el documento ISO / IEC 14496-2 "Information technology -Coding of audio-visual objects -Part2: Visual" páginas 218 -219).
La Fig. 1A es un diagrama que muestra la relación entre imágenes respectivas y las imágenes de referencia correspondientes en el método de codificación de imágenes en movimiento mencionado anteriormente, y la Fig. 1B
45 es un diagrama que muestra la secuencia de imágenes en el flujo de bits generado por la codificación.
La imagen I1 es una imagen I, las imágenes P5, P9 y P13 son imágenes P y las imágenes B2, B3, B4, B7, B8, B10, B11 y B12 son imágenes B. Como se muestra por las flechas, las imágenes P, P5, P9 y P13 se codifican usando la predicción entre imágenes a partir de la imagen I I1 y las imágenes P, P5 y P9 respectivamente como imágenes de referencia.
Como se muestra por las flechas, las imágenes B, B2, B3 y B4 se codifican usando la predicción entre imágenes a partir de la imagen I I1 y la imagen P P5 respectivamente como imágenes de referencia. Del mismo modo, las imágenes B B6, B7 y B8 se codifican usando las imágenes P P5 y P9 respectivamente como imágenes de
55 referencia, y las imágenes B, B10, B11, y B12 se codifican usando las imágenes P P9 y P13 respectivamente como imágenes de referencia.
En la codificación mencionada anteriormente, las imágenes de referencia se codifican antes de las imágenes que se refieren a las imágenes de referencia. Por lo tanto, el flujo de bits se genera por la codificación anterior en la secuencia como se muestra en la Fig. 1B.
También, en el método de codificación de imágenes en movimiento H.264, se puede seleccionar un modo de codificación llamado el modo directo. Un método de predicción entre imágenes en el modo directo se explicará con referencia a la Fig. 2. La Fig. 2 es una ilustración que muestra los vectores de movimiento en el modo directo, y que 65 muestra en particular el caso de codificación de un bloque a en la imagen B6 en el modo directo. En este caso, se usa un vector de movimiento c usado para la codificación de un bloque b en la imagen P9. El bloque b está
imagen2
localizado conjuntamente con el bloque a y la imagen P9 es una imagen de referencia hacia atrás de la imagen B6. El vector de movimiento c es un vector usado para la codificación del bloque b y se refiere a la imagen P5. El bloque a se codifica usando la bi-predicción en base a los bloques de referencia obtenidos a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás P9 usando vectores paralelos al vector de
5 movimiento c. En otras palabras, los vectores de movimiento usados para la codificación del bloque a son el vector de movimiento d para la imagen P5 y el vector de movimiento e para la imagen P9.
Sin embargo, cuando se codifican imágenes B usando la predicción entre imágenes con referencia a imágenes I y P, la distancia temporal entre la imagen B actual y la imagen de referencia puede ser larga, lo que causa una reducción de la eficacia de codificación. En particular cuando muchas imágenes B están localizadas entre una imagen I y una imagen P adyacentes o dos imágenes P próximas entre sí, la eficacia de la codificación se reduce significativamente.
La presente invención se ha concebido para resolver el problema mencionado anteriormente, y es un objeto de la
15 presente invención proporcionar un método de codificación de imágenes en movimiento y un método de decodificación de imágenes en movimiento para evitar la reducción de eficacia de la codificación de imágenes B si muchas imágenes B están localizadas entre una imagen I y una imagen P o entre dos imágenes P. Además, es otro objeto proporcionar un método de codificación de imágenes en movimiento y un método de decodificación de imágenes en movimiento para mejorar la eficacia de codificación en el modo directo.
Revelación de la invención
Para conseguir el objeto mencionado anteriormente, el método de codificación de imágenes de la presente invención es un método de codificación de imágenes en movimiento, como se define en la reivindicación 1.
25 La presente invención se puede realizar como tal método de codificación de imágenes en movimiento como se ha mencionado anteriormente, pero también como un aparato de codificación de imágenes en movimiento, que incluye las etapas características del método de codificación de imágenes en movimiento, como se define en la reivindicación 4. Además, la presente invención se puede realizar como un flujo de bits obtenido por el método de codificación de imágenes en movimiento de modo que los distribuye a través de un medio de grabación tal como un CD-ROM o un medio de transmisión tal como la Internet.
Breve descripción de los dibujos
35 La Fig. 1 es un diagrama esquemático que muestra las relaciones de predicción entre imágenes y su secuencia en el método convencional de codificación de imágenes en movimiento, y la Fig. 1A muestra las relaciones entre las imágenes respectivas y las imágenes de referencia correspondientes y la Fig. 1B muestra la secuencia de imágenes en un flujo de bits generado por la codificación. La Fig. 2 es un diagrama esquemático que muestra vectores de movimiento en el modo directo en el método convencional de codificación de imágenes en movimiento. La Fig. 3 es un diagrama de bloques que muestra la estructura de una primera realización de un aparato de codificación de imágenes en movimiento que usa un método de codificación de imágenes en movimiento de acuerdo con la presente invención. La Fig. 4 es una ilustración de los números de imagen y los índices relativos en las realizaciones de la presente
45 invención. La Fig. 5 es una ilustración conceptual de un formato de datos codificados de imágenes en movimiento en el aparato de codificación de imágenes en movimiento en las realizaciones de la presente invención. La Fig. 6 es una ilustración que muestra la secuencia de imágenes en una memoria de reordenamiento en las realizaciones de la presente invención; y la Fig. 6A muestra la secuencia en el orden de entrada y la Fig. 6B muestra la secuencia reordenada. La Fig. 7 es un diagrama esquemático que muestra vectores de movimiento en el modo directo en las realizaciones de la presente invención, y la Fig. 7A muestra un caso donde el bloque actual a es la imagen B7, la Fig. 7B muestra los ejemplos primero y segundo en un caso donde el bloque actual a es la imagen B6, la Fig. 7C muestra un tercer ejemplo en un caso donde el bloque actual a es una imagen B6, y la Fig. 7D muestra un cuarto
55 ejemplo en un caso donde el bloque actual a es una imagen B6. La Fig. 8 es un diagrama esquemático que muestra vectores de movimiento en el modo directo en las realizaciones de la presente invención y la Fig. 8A muestra un quinto ejemplo en un caso donde el bloque actual a es una imagen B6, la Fig. 8B muestra un sexto ejemplo en un caso donde un bloque actual a es una imagen B6, la Fig. 8C muestra un séptimo ejemplo en un caso donde un bloque actual a es una imagen B6 y la Fig. 8D muestra un caso donde un bloque actual a es una imagen B8. La Fig. 9 es un diagrama esquemático que muestra las relaciones de predicción entre las imágenes respectivas y su secuencia en las realizaciones de la presente invención y la Fig. 9A muestra las relaciones de predicción entre las imágenes respectivas indicadas en el orden de representación, y la Fig. 9B muestra la secuencia de las imágenes reordenadas en el orden de codificación (en un flujo de bits).
65 La Fig. 10 es un diagrama esquemático que muestra las relaciones de predicción entre las imágenes respectivas y su secuencia en las realizaciones de la presente invención y la Fig. 10A muestra las relaciones de predicción entre las imágenes respectivas indicadas en el orden de representación, y la Fig.10B muestra la secuencia de las imágenes reordenadas en el orden de codificación (en un flujo de bits). La Fig. 11 es un diagrama esquemático que muestra las relaciones de predicción entre las imágenes respectivas y su secuencia en las realizaciones de la presente invención y la Fig. 11A muestra las relaciones de predicción
imagen3
5 entre las imágenes respectivas indicadas en el orden de representación, y la Fig.11B muestra la secuencia de las imágenes reordenadas en el orden de codificación (en un flujo de bits). La Fig. 12 es un diagrama esquemático que muestra jerárquicamente la estructura de predicción de imágenes como se muestra en la Fig. 6 en las realizaciones de la presente invención. La Fig. 13 es un diagrama esquemático que muestra jerárquicamente la estructura de predicción de imágenes como se muestra en la Fig. 9 en las realizaciones de la presente invención. La Fig. 14 es un diagrama esquemático que muestra jerárquicamente la estructura de predicción de imágenes como se muestra en la Fig. 10 en las realizaciones de la presente invención. La Fig. 15 es un diagrama esquemático que muestra jerárquicamente la estructura de predicción de imágenes como se muestra en la Fig. 11 en las realizaciones de la presente invención.
15 La Fig. 16 es un diagrama de bloques que muestra la estructura de una realización de un aparato de decodificación de imágenes en movimiento que usa un método de decodificación de imágenes en movimiento de acuerdo con la presente invención. La Fig. 17 es una ilustración de un medio de grabación para el almacenamiento de un programa para la realización del método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento en las realizaciones primera y segunda por un sistema de ordenador y la Fig. 17A muestra un ejemplo de un formato físico de un disco flexible como un cuerpo de un medio de grabación, la Fig. 17B muestra la vista de una sección transversal y una vista frontal de la apariencia del disco flexible y el propio disco flexible, la Fig. 17C muestra una estructura para la grabación y reproducción del programa sobre el disco flexible FD. La Fig. 18 es un diagrama de bloques que muestra la configuración global de un sistema de suministro de
25 contenidos para la realización de un servicio de distribución de contenidos. La Fig. 19 es un esquema que muestra un ejemplo de un teléfono móvil. La Fig. 20 es un diagrama de bloques que muestra la estructura interna del teléfono móvil. La Fig. 21 es un diagrama de bloques que muestra la configuración global de un sistema de difusión digital.
Mejor modo de realización de la invención
Las realizaciones de la presente invención se explicarán a continuación con referencia a las figuras
(Primera realización)
35 La Fig. 3 es un diagrama de bloques que muestra la estructura de una realización del aparato de codificación de imágenes en movimiento que usa el método de codificación de imágenes en movimiento de acuerdo con la presente invención.
Como se muestra en la Fig. 3, el aparato de codificación de imágenes en movimiento incluye una memoria de reordenamiento 101, una unidad de cálculo de diferencias 102, una unidad de codificación de errores residuales 103, una unidad de generación del flujo de bits 104, una unidad de decodificación de errores residuales 105, una unidad de adición 106, una memoria de imágenes de referencia 107, una unidad de estimación de vectores de movimiento 108, una unidad de selección de modos 109, una unidad de control de codificación 110, los
45 conmutadores 111 -115 y una unidad de almacenamiento de vectores de movimiento 116.
La memoria de reordenamiento 101 almacena las imágenes en movimiento introducidas sobre una base de imagen por imagen en el orden de representación. La unidad de control de codificación 110 reordena las imágenes almacenadas en la memoria de reordenamiento 101 en el orden de codificación. La unidad de control de codificación 110 también controla la operación de la unidad de almacenamiento de vectores de movimiento 116 para el almacenamiento de los vectores de movimiento.
Usando los datos de imagen codificados y decodificados anteriormente como una imagen de referencia, la unidad de estimación de vectores de movimiento 108 estima un vector de movimiento indicando una posición que se predice
55 de forma óptima en el área de búsqueda en la imagen de referencia. La unidad de selección de modo 109 determina un modo para la codificación de macrobloques que usa el vector de movimiento estimado por la unidad de estimación de vectores de movimiento 108, y genera los datos de imagen predictivos en base al modo de codificación. La unidad de cálculo de diferencias 102 calcula la diferencia entre los datos de imagen leídos desde la memoria de reordenamiento 101 y los datos de imagen predictivos introducidos por la unidad de selección de modo 109 y genera los datos de imagen de errores residuales.
La unidad de codificación de errores residuales 103 realiza el procesamiento de codificación tal como la transformada de frecuencia y la cuantificación sobre los datos de imagen de errores residuales introducidos para la generación de datos codificados. La unidad de generación del flujo de bits 104 realiza la codificación de longitud 65 variable o similar sobre los datos codificados introducidos y además añade la información de los vectores de movimiento, la información del modo de codificación y otra información relevante introducida por la unidad de
imagen4
selección de modo 109 para los datos codificados de modo que se genera un flujo de bits.
La unidad de decodificación de errores residuales 105 realiza el procesamiento de decodificación tal como la cuantificación inversa y la transformada de frecuencia inversa sobre los datos codificados introducidos para la 5 generación de los datos de imagen diferenciales decodificados. La unidad de adición 106 suma los datos de imagen diferenciales decodificados introducidos por la unidad de decodificación de errores residuales 105 y los datos de imagen predictivos introducidos por la unidad de selección de modo 109 para la generación de los datos de imagen decodificados. La memoria de imágenes de referencia 107 almacena los datos de imagen decodificados generados.
La Fig. 4 es una ilustración de imágenes y los índices relativos. Los índices relativos se usan para identificar de forma unívoca las imágenes de referencia almacenadas en la memoria de imágenes de referencia 107 y están asociados con las imágenes respectivas como se muestra en la Fig. 4. Los índices relativos también se usan para indicar las imágenes de referencia que se usarán para la codificación de los bloques usando la predicción entre imágenes.
15 La fig. 5 es una ilustración conceptual del formato de datos codificados de imágenes en movimiento usado por el aparato de codificación de imágenes en movimiento. Los datos codificados de "Imagen" para una imagen incluyen los datos codificados de cabecera "Cabecera" incluidos en la cabecera de la imagen, los datos codificados de bloque "Bloque1" para el modo directo, los datos codificados de bloque "Bloque2" para la predicción entre imágenes distinta que el modo directo, y similares. Los datos codificados de bloque "Bloque2" para la predicción entre imágenes distinta del modo directo tiene un primer índice relativo "RIdx1" y un segundo índice relativo "RIdx2" para indicar dos imágenes de referencia usadas para la predicción entre imágenes, un primer vector de movimiento "MV1" y un segundo vector de movimiento "MV2" en este orden. Por otra parte, los datos codificados de bloque "Bloque1" para el modo directo no tienen los índices relativos primero y segundo "RIdx1" y "RIdx2" y los vectores de movimiento
25 primero y segundo "MV1 y "MV2". El índice que se usará, el primer índice relativo "RIdx1" o el segundo índice relativo "RIdx2", se puede determinar por el tipo de predicción "PredType". También, el primer índice relativo "RIdx1" indica una primera imagen de referencia, y el segundo índice relativo "RIdx2" indica una segunda imagen de referencia. En otras palabras, si una imagen es una primera imagen de referencia o una segunda imagen de referencia se determina en base a dónde están localizados en el flujo de bits.
Obsérvese que una imagen P se codifica por la predicción entre imágenes con la referencia uni-predictiva usando una imagen codificada anteriormente que está localizada antes o después en el orden de representación que una primera imagen de referencia, y una imagen B se codifica por la predicción entre imágenes con la referencia bipredictiva usando imágenes codificadas anteriormente que están localizadas antes o después en el orden de
35 representación como una primera imagen de referencia y una segunda imagen de referencia. En la primera realización, la primera imagen de referencia se explica como una imagen de referencia hacia delante y la segunda imagen de referencia se explica como una imagen de referencia hacia atrás. Además, los vectores de movimiento primero y segundo para las imágenes de referencia primera y segunda se explican como un vector de movimiento hacia delante y un vector de movimiento hacia atrás respectivamente.
A continuación, se explicará cómo asignar los índices relativos primeros y segundos con referencia a la Fig. 4A.
Como los índices relativos primeros, en la información que indican el orden de representación, los valores aumentados en 1 desde 0 se asignan en primer lugar a las imágenes de referencia anteriores a la imagen actual
45 desde la imagen más próxima a la imagen actual. Después de que los valores aumentados por 1 desde 0 se asignan a todas las imágenes de referencia anteriores a la imagen actual, a continuación los valores posteriores se asignan a las imágenes de referencia posteriores a la imagen actual desde la imagen más próxima a la imagen actual.
Como los segundos índices relativos, en la información que indican el orden de representación, los valores aumentados en 1 desde 0 se asignan a las imágenes de referencia posteriores a la imagen actual desde la imagen más próxima a la imagen actual. Después de que los valores aumentados por 1 desde 0 se asignan a todas las imágenes de referencia anteriores a la imagen actual, a continuación los valores posteriores se asignan a las imágenes de referencia anteriores a la imagen actual desde la imagen más próxima a la imagen actual.
55 Por ejemplo, en la Fig. 4A, cuando el primer índice relativo "RIdx1" es 0 y el segundo índice relativo "RIdx2" es 1 la imagen de referencia hacia delante es la imagen B Nº 6 y la imagen de referencia hacia atrás es la imagen P Nº 9. En este caso, los números de imagen 6 y 9 indican el orden de representación.
Los índices relativos en un bloque se representan por palabras de código de longitud variable y los códigos con longitudes más cortas se asignan a los índices de valores más pequeños. Como la imagen que está más cerca de la imagen actual se selecciona usualmente como una imagen de referencia para la predicción entre imágenes, la eficacia de la codificación se mejora asignando valores de índices relativos en orden de proximidad a la imagen actual.
65 La asignación de las imágenes de referencia a los índices relativos se puede cambiar arbitrariamente si se indica explícitamente usando una señal de control de la memoria temporal en los datos codificados (RPSL en la Cabecera como se muestra en la Fig. 5). Esto posibilita cambiar la imagen de referencia con el segundo índice relativo "0" para una imagen de referencia arbitraria en la memoria de imágenes de referencia 107. Como se muestra en la Fig. 4B, la asignación de índices de referencia a las imágenes se puede cambiar, por ejemplo.
imagen5
5 A continuación se explicará la operación del aparato de codificación de imágenes en movimiento estructurado como se explicará más adelante.
La Fig. 6 es una ilustración que muestra la secuencia de imágenes en la memoria de reordenamiento 101, y la Fig. 6A muestra la secuencia en el orden de entrada y la Fig. 6B muestra la secuencia reordenada. En este caso, las
10 líneas verticales muestran las imágenes y los números indicados en la parte inferior derecha de las imágenes muestran los tipos de imágenes (I, P y B) indicando con las primera letras alfabéticas y los números de imagen el orden de representación con los números siguientes.
Como se muestra en la Fig. 6A, se introduce una imagen en movimiento en la memoria de reordenamiento 101
15 sobre la base de imagen por imagen en el orden de representación, por ejemplo. Cuando se introducen las imágenes a la memoria de reordenamiento 101, la unidad de control de codificación 110 reordena las imágenes introducidas a la memoria de reordenamiento 101 en el orden de codificación. Las imágenes se reordenan en base a las relaciones de referencia en la codificación de predicción entre imágenes y más específicamente, las imágenes se reordenan de modo que las imágenes usadas como imágenes de referencia se codifican antes que las imágenes
20 que usan las imágenes de referencia.
En este punto, se asume que una imagen P se refiere a una imagen I o P vecina procesada anteriormente que está localizada antes o después de la imagen P actual en el orden de representación, y una imagen B se refiere a dos imágenes vecinas procesadas anteriormente que están localizadas antes o después de la imagen B actual en el
25 orden de representación.
Las imágenes se codifican en el siguiente orden. En primer lugar se codifica una imagen B en el centro de las imágenes B (3 imágenes B en la Fig. 6A por ejemplo) localizadas entre dos imágenes P y a continuación se codifica la otra imagen B más próxima a la imagen P anterior. Por ejemplo, las imágenes B6, B7, B8 y P9 se codifican en el
30 orden P9, B7, B6 y B8.
En este caso, en la Fig. 6A, la imagen apuntada por la flecha se refiere a la imagen en el origen de la flecha. Específicamente la imagen B B7 se refiere a las imágenes P P5 y P9, B6 se refiere a P5 y B7, y B8 se refiere a B7 y P9 respectivamente. La unidad de control de codificación 110 reordena las imágenes en el orden de codificación,
35 como se muestra en la Fig. 6B.
A continuación se leen las imágenes reordenadas en la memoria de reordenamiento 101 en una unidad para cada compensación de movimiento. En este punto, la unidad de compensación del movimiento se denomina como un macrobloque que es de un tamaño de 16 (horizontal) x 16 (vertical) pixel. La codificación de las imágenes P9, B7, B6
40 y B8 mostradas en la Fig. 6A se explicarán a continuación en este orden.
(Codificación de la imagen P9)
La imagen P P9 se codifica usando la predicción entre imágenes con referencia a una imagen procesada
45 anteriormente localizada antes o después de P9 en el orden de representación. En la codificación de P9, la imagen P5 es la imagen de referencia, como se ha mencionado anteriormente. P5 ya se ha codificado y la imagen decodificada de la misma se almacena en la memoria de imágenes de referencia 107. En la codificación de las imágenes P, la unidad de control de codificación 110 controla los conmutadores 113, 114 y 115 de modo que están activados. Los macrobloques en la imagen P9 leídos desde la memoria de reordenamiento 101 se introducen de
50 este modo a la unidad de estimación de vectores de movimiento 108, la unidad de selección de modo 109 y la unidad de cálculo de diferencias 102 en este orden.
La unidad de estimación de vectores de movimiento 108 estima un vector de movimiento de un macrobloque en la imagen P9, usando los datos de imagen decodificados de la imagen P5 almacenada en la memoria de imágenes de
55 referencia 107 como una imagen de referencia, y saca el vector de movimiento estimado a la unidad de selección de modo 109.
La unidad de selección de modo 109 determina el modo para la codificación del macrobloque en la imagen P9 usando el vector de movimiento estimado por la unidad de estimación de vectores de movimiento 108. En este
60 punto, el modo de codificación indica el método de codificación de macrobloques. En cuanto a las imágenes P, determina cualquiera de los métodos de codificación, la codificación intra imagen, la codificación de predicción entre imágenes usando un vector de movimiento y la codificación de predicción entre imágenes sin usar un vector de movimiento (cuando el movimiento se maneja como "0"). Para la determinación de un modo de codificación, se selecciona un método de modo que se reduce un error de codificación con una pequeña cantidad de bits.
65 La unidad de selección de modo 109 saca el modo de codificación determinado a la unidad de generación del flujo de bits 104. Si el modo de codificación determinado por la unidad de selección de modo 109 es la codificación de predicción entre imágenes, el vector de movimiento que se usará para la codificación de predicción entre imágenes se saca a la unidad de generación del flujo de bits 104 y además se almacena en la unidad de almacenamiento de
imagen6
5 vectores de movimiento 116.
La unidad de selección de modo 109 genera los datos de imagen predictivos en base al modo de codificación determinado para su generación para la unidad de cálculo de diferencias 102 y la unidad de adicción 106. Sin embargo, cuando se selecciona la codificación intra imagen, la unidad de selección de modo 109 no saca los datos de imagen predictivos. Además, cuando se selecciona la codificación intra imagen, la unidad de selección de modo 109 controla los conmutadores 111 y 112 para conectar al lado "a" y al lado "c" respetivamente, y cuando se selecciona la codificación de predicción entre imágenes, los controla para conectar al lado "b" y el lado "d" respectivamente. Más adelante se explicará el caso donde la unidad de selección de modo 109 selecciona la codificación de predicción entre imágenes.
15 La unidad de cálculo de diferencias 102 recibe los datos de imagen del macrobloque en la imagen P9 leída desde la memoria de reordenamiento 101 y los datos de imagen predictivos sacados desde la unidad de selección de modo
109. La unidad de cálculo de diferencias 102 calcula la diferencia entre los datos de imagen del macrobloque en la imagen P9 y los datos de la imagen predictivos y genera los datos de imagen de errores residuales para sacarlos a la unidad de codificación de errores residuales 103.
La unidad de codificación de errores residuales 103 realiza el procesamiento de codificación tal como la transformada de frecuencia y la cuantificación sobre los datos de imagen de errores residuales introducidos y de este modo genera los datos codificados para su salida a la unidad de generación del flujo de bits 104 y la unidad de
25 decodificación de errores residuales 105. En este punto, el procesamiento de codificación tal como la transformada de frecuencia y la cuantificación se realizan en cada bloque de 8 (horizontal) x 8 (vertical) pixel o 4 (horizontal) x 4 (vertical) pixel, por ejemplo.
La unidad de generación del flujo de bits 104 realiza la codificación de longitud variable o similar sobre los datos codificados introducidos, y además añade información tal como los vectores de movimiento y el modo de codificación, la información de cabecera y así sucesivamente a los datos codificados para generar y sacar el flujo de bits.
Por otra parte, la unidad de decodificación de errores residuales 105 realiza el procesamiento de decodificación tal
35 como una cuantificación inversa y la transformada de frecuencia inversa sobre los datos codificados introducidos y genera los datos de imagen diferencial decodificados para sacar a la unidad de adición 106. La unidad de adición 106 suma los datos de imagen diferencial decodificados y los datos de imagen predictivos introducidos por la unidad de selección de modo 109 para la generación de los datos de imagen decodificados, y los almacena en la memoria de imágenes de referencia 107.
Esta es la terminación de la codificación de un macrobloque en la imagen P9. De acuerdo con el mismo procesamiento, se codifican los macrobloques restantes de la imagen P9. Y después de que se codifican todos los macrobloques de la imagen P9, se codifica la imagen B7.
45 (Codificación de la imagen B7)
La imagen B7 se refiere a la imagen P5 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atrás. Como la imagen B7 se usa como una imagen de referencia para la codificación de otras imágenes, la unidad de control de codificación 110 controla los conmutadores 113, 114 y 115 de modo que están activos, lo que causa que los macrobloques en la imagen B7 se lean desde la memoria de reordenamiento 101 para introducirse en la unidad de estimación de vectores de movimiento 108, la unidad de selección de modo 109 y la unidad de cálculo de diferencias 102.
Usando los datos de imagen decodificados de la imagen P5 y los datos de imagen decodificados de la imagen P9
55 que están almacenados en la memoria de imágenes de referencia 107 como una imagen de referencia hacia delante y una imagen de referencia hacia atrás respectivamente, la unidad de estimación de vectores de movimiento 108 estima un vector de movimiento hacia delante y un vector de movimiento hacia atrás del macrobloque en la imagen B7. Y la unidad de estimación de vectores de movimiento 108 saca los vectores de movimiento estimados a la unidad de selección de modo 109.
La unidad de selección de modo 109 determina el modo de codificación para el macrobloque en la imagen B7 usando los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 108. En este punto, se asume que un modo de codificación para las imágenes B se puede seleccionar de entre la codificación intra imagen, la codificación de predicción entre imágenes usando un vector de movimiento hacia delante, la
65 codificación de predicción entre imágenes usando un vector de movimiento hacia atrás, la codificación de predicción entre imágenes usando vectores de movimiento bi-predictivos y el modo directo.
imagen7
La operación de codificación del modo directo se explicará con referencia a la Fig. 7A. La Fig. 7A es una ilustración que muestra vectores de movimiento en el modo directo, y específicamente muestra el caso donde se codifica el bloque a en la imagen B7 en el modo directo. En este caso, se usa el vector de movimiento c, que se ha usado para la codificación del bloque b en la imagen P9. El bloque b está situado conjuntamente con el bloque a, y la imagen P9
5 es una imagen de referencia hacia atrás de la imagen B7. El vector de movimiento c se almacena en la unidad de almacenamiento de vectores de movimiento 116. El bloque a es bi-predictivo a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás P9 usando vectores obtenidos usando el vector de movimiento c. Por ejemplo, como un método de utilización del vector de movimiento c, hay un método de generación de vectores de movimiento paralelos al vector de movimiento c. En este caso, el vector de movimiento d y el vector de movimiento e se usan para la imagen P5 y la imagen P9 respectivamente para la codificación del bloque a.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atrás e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atrás P9 para la imagen actual B7 y la imagen P5 a la que se refiere el bloque en la imagen de referencia hacia atrás P9 es TRD, y la
15 distancia temporal entre la imagen actual B7 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la ecuación 1 y la ecuación 2. Obsérvese que la distancia temporal entre las imágenes se puede determinar en base a la información que indica el orden de representación (posición) determinado para las imágenes respectivas o la diferencia especificada por la información.
MVF = MV x TRF / TRD …..Ecuación 1
MVB = (TRF -TRD) x MV / TRD …Ecuación 2
25 donde MVF MVB representan respectivamente las componentes horizontales y las componentes verticales de los vectores de movimiento, y los signos más y menos indican direcciones de los vectores de movimiento.
También, en cuanto a la selección del modo de codificación, generalmente se selecciona un método para la reducción de los errores de codificación con una cantidad más pequeña de bits. La unidad de selección de modo 109 saca el modo de codificación determinado a la unidad de generación del flujo de bits 104. Si el modo de codificación determinado por la unidad de selección de modo 109 es la codificación de predicción entre imágenes, los vectores de movimiento usados para la codificación de predicción entre imágenes se sacan a la unidad de generación del flujo de bits 104 y además se almacenan en la unidad de almacenamiento de vectores de movimiento
116. Cuando se selecciona el modo directo, los vectores de movimiento que se calculan de acuerdo con la ecuación
35 1 y la ecuación 2 y se usan para el modo directo se almacenan en la unidad de almacenamiento de vectores de movimiento 116.
La unidad de selección de modo 109 también genera datos de imagen predictivos en base al modo de codificación determinado para sacar a la unidad de cálculo de diferencias 102 y la unidad de adicción 106, aunque no saca los datos de imagen predictivos si selecciona la codificación intra imagen. Además, cuando se selecciona la codificación intra imagen, la unidad de selección de modo 109 controla los conmutadores 111 y 112 para conectar al lado "a" y el lado "c" respectivamente, y cuando se selecciona la codificación de predicción entre imágenes o el modo directo, controla los conmutadores 111 y 112 para conectar al lado "b" y el lado "d" respectivamente. A continuación se explicará el caso donde la unidad de selección de modo 109 selecciona la codificación de predicción entre imágenes
45 o el modo directo.
La unidad de cálculo de diferencias 102 recibe los datos de imagen del macrobloque de la imagen B7 leídos desde la memoria de reordenamiento 101 y los datos de imagen predictivos sacados desde la unidad de selección de modo 109. La unidad de cálculo de diferencias 102 calcula la diferencia entre los datos de imagen del macrobloque de la imagen B7 y los datos de imagen predictivos, y genera los datos de imagen de errores residuales para su salida a la unidad de codificación de errores residuales 103.
La unidad de codificación de errores residuales 103 realiza el procesamiento de codificación tal como la transformada de frecuencia y la cuantificación sobre los datos de imagen de errores residuales introducidos y de
55 este modo genera los datos codificados para su salida a la unidad de generación del flujo de bits 104 y la unidad de decodificación de errores residuales 105.
La unidad de generación del flujo de bits 104 realiza la codificación de longitud variable o similar sobre los datos codificados introducidos y además añade información tal como los vectores de movimiento y el modo de codificación y así sucesivamente a esos datos para la generación y salida de un flujo de bits.
Por otra parte, la unidad de decodificación de errores residuales 105 realiza el procesamiento de decodificación tal como la cuantificación inversa y la transformada de frecuencia inversa sobre los datos codificados introducidos y genera los datos de imagen diferenciales decodificados para su salida a la unidad de adición 106. La unidad de 65 adición 106 suma los datos de imagen diferenciales decodificados y los datos de imagen predictivos introducidos por la unidad de selección de modo 109 para la generación de los datos de imagen decodificados y los almacena en la
imagen8
memoria de imágenes de referencia 107.
Esta es la terminación de la codificación de un macrobloque en la imagen B7. De acuerdo con el mismo procesamiento, se codifican los macrobloques restantes en la imagen B7. Y después de que se codifican todos los 5 macrobloques de la imagen B7, se codifica la imagen B6.
(Codificación de la imagen B6)
Como la imagen B6 es una imagen B, B6 se codifica usando la predicción entre imágenes con referencia a dos imágenes procesadas anteriormente localizadas antes o después de B6 en el orden de representación. La imagen B B5 se refiere a la imagen P5 como una imagen de referencia hacia delante y la imagen B7 como imagen de referencia hacia atrás, como se ha descrito anteriormente. Como la imagen B6 no se usa como imagen de referencia para la codificación de otras imágenes, la unidad de control de codificación 110 controla el conmutador 113 para que esté activado y los conmutadores 114 y 115 para que estén desactivados, lo que causa que el macrobloque de la
15 imagen B6 leído desde la memoria de reordenamiento 101 se introduzca en la unidad de estimación de vectores de movimiento 108, la unidad de selección de modo 109 y la unidad de cálculo de diferencias 102.
Usando los datos de imagen decodificados de la imagen P5 y los datos de imagen decodificados de la imagen B7 que están almacenados en la memoria de imágenes de referencia 107 como una imagen de referencia hacia delante y una imagen de referencia hacia atrás respectivamente, la unidad de estimación de vectores de movimiento 108 estima el vector de movimiento hacia delante y el vector de movimiento hacia atrás para el macrobloque en la imagen B6. Y la unidad de estimación de vectores de movimiento 108 saca los vectores de movimiento estimados a la unidad de selección de modo 109.
25 La unidad de selección de modo 109 determina el modo de codificación para el macrobloque en la imagen B6 usando los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 108.
En este punto, se explicará el primer ejemplo de operación de codificación del modo directo para el macrobloque en la imagen B6 con referencia a la Fig. 7B. La Fig. 7B es una ilustración que muestra los vectores de movimiento en el modo directo y que muestra específicamente el caso donde el bloque a en la imagen B6 está codificado en el modo directo. En este caso, se usa un vector de movimiento c que se ha usado para la codificación de un bloque b en la imagen B7. El bloque b está localizado conjuntamente con el bloque a, y la imagen B7 es una imagen de referencia hacia atrás de la imagen B6. En este punto, se asume que el bloque b está codificado solo por referencia hacia delante o por referencia bi-predictiva y el vector de movimiento hacia delante del bloque b es el vector de
35 movimiento c. También se asume que el vector de movimiento c está almacenado en la unidad de almacenamiento de vectores de movimiento 116. El bloque a es bi-predictivo a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás B7 usando vectores de movimiento generados usando el vector de movimiento c. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento c, como es el caso de la imagen mencionada anteriormente B7, el vector de movimiento d y el vector de movimiento e se usan para la imagen P5 y la imagen B7 respectivamente para la codificación del bloque a.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atrás e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atrás B7 para la imagen actual B6 y la imagen P5 a la que se refiere el bloque b en la imagen de referencia hacia atrás B7 es TRD, y la
45 distancia temporal entre la imagen actual B6 y la imagen P5 de referencia hacia delante es TRF respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la ecuación 1 y la ecuación 2 mencionadas anteriormente. Obsérvese que la distancia temporal entre las imágenes se puede determinar en base a la información que indica el orden de representación de las imágenes o la diferencia especificada por la información, por ejemplo.
Como se ha descrito anteriormente, en el modo directo, escalando el vector de movimiento hacia delante de una imagen B de referencia hacia atrás, no hay necesidad de transmitir la información del vector de movimiento, y la eficiencia de la predicción del movimiento se puede mejorar. En consecuencia la eficiencia de la codificación se puede mejorar. Además, usando las imágenes de referencia temporalmente más próximas disponibles en el orden
55 de representación como una imagen de referencia hacia delante y una imagen de referencia hacia atrás, la eficiencia de la codificación se puede aumentar.
A continuación, se explicará el segundo ejemplo del modo directo con referencia a la Fig. 7B. En este caso, se usa el vector de movimiento que se ha usado para la codificación del bloque b en la imagen B7. El bloque b está localizado conjuntamente con el bloque a, y la imagen B7 es una imagen de referencia hacia atrás para la imagen B6. En este punto se asume que el bloque se ha codificado en el modo directo y el vector de movimiento hacia delante que se ha usado sustancialmente para la codificación del bloque b es el vector de movimiento c. Específicamente, el vector de movimiento c se obtiene escalando el vector de movimiento usado para la codificación de un bloque i, localizado conjuntamente con el bloque b, en la imagen P9 que es la imagen de referencia hacia atrás para la imagen B7. Se 65 usa el vector de movimiento c almacenado en la unidad de almacenamiento de vectores de movimiento 116, o se obtiene el vector de movimiento c leyendo desde la unidad de almacenamiento de vectores de movimiento 116 el
imagen9
vector de movimiento del bloque i en la imagen P9 que se ha usado para la codificación del bloque b en el modo directo y el cálculo basado en ese vector de movimiento. Cuando el vector de movimiento que se obtiene escalando para la codificación del bloque b en la imagen B7 en el modo directo está almacenado en la unidad de almacenamiento de vectores de movimiento 116, solo se necesita almacenar el vector de movimiento hacia delante.
5 El bloque a es bi-predictivo a partir de la imagen P5 de referencia hacia delante y la imagen B7 de referencia hacia atrás usando vectores de movimiento generados usando el vector de movimiento c. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento c, como es el caso del primer ejemplo mencionado anteriormente, los vectores de movimiento usados para la codificación del bloque a son el vector de movimiento d y el vector de movimiento e para la imagen P5 y la imagen B7 respectivamente.
En este caso, el vector de movimiento hacia delante d MVF y el vector de movimiento hacia atrás e MVB del bloque a se calculan respectivamente por la ecuación 1 y la ecuación 2 mencionadas anteriormente, como en el caso del primer ejemplo.
15 Como se ha descrito anteriormente, en el modo directo, como el vector de movimiento hacia delante de una imagen B de referencia hacia atrás que se ha usado sustancialmente para la codificación de la imagen B en el modo directo está escalado, no hay necesidad de transmitir la información del vector de movimiento, y la eficiencia de la predicción de movimiento se puede mejorar incluso si el bloque localizado conjuntamente en la imagen de referencia hacia atrás se ha codificado en el modo directo. En consecuencia, la eficacia de la codificación se puede mejorar. Además, usando las imágenes de referencia que están temporalmente disponibles más cerca en el orden de representación como una imagen de referencia hacia delante y una imagen de referencia hacia atrás, la eficiencia de codificación se puede aumentar.
A continuación se explicará el tercer ejemplo del modo directo con referencia a la Fig. 7C. La Fig. 7C es una
25 ilustración que muestra vectores de movimiento en el modo directo, y que muestra específicamente el caso donde el bloque a en la imagen B6 se codifica en el modo directo. En este caso, se usa el vector de movimiento que se ha usado para la codificación del bloque b en la imagen B7. La imagen B7 es una imagen de referencia hacia atrás para la imagen B6, y el bloque b en la imagen B7 está localizado conjuntamente con el bloque a en la imagen B6. En este punto se asume que el bloque b se ha codificado usando solo un vector de movimiento hacia atrás y el vector de movimiento hacia atrás usado para la codificación del bloque b es un vector de movimiento f. Específicamente, el vector de movimiento f se asume que está almacenado en la unidad de almacenamiento de vectores de movimiento
116. El bloque a es bi-predictivo a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás B7 usando los vectores de movimiento generados usando el vector de movimiento f. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento f, como es el caso del primer
35 ejemplo mencionado anteriormente, los vectores de movimiento usados para la codificación del bloque a son el vector de movimiento g y el vector de movimiento h para la imagen P5 y la imagen B7 respectivamente.
En este caso, donde el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atrás h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atrás B7 para la imagen actual B6 y la imagen P9 a la que se refiere el bloque en la imagen de referencia hacia atrás es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF, y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atrás B7 es TRB respectivamente, el vector de movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la ecuación 3 y la ecuación 4.
45 MVF=-TRFxMV /TRD…Ecuación3
MVB = TRB xMV / TRD … Ecuación 4
Como se ha descrito anteriormente, en el modo directo, como el vector de movimiento hacia atrás de un bloque localizado conjuntamente en una imagen B de referencia hacia atrás que se ha usado para la codificación del bloque está escalado, no hay necesidad de transmitir la información del vector de movimiento, y la eficiencia de la predicción del movimiento se puede mejorar incluso si el bloque localizado conjuntamente en la imagen de referencia hacia atrás tiene solo el vector d de movimiento hacia atrás. Por consiguiente, la eficacia de codificación se puede mejorar. Además, usando las imágenes de referencia que están temporalmente disponibles más cerca en
55 el orden de representación como una imagen de referencia hacia delante y una imagen de referencia hacia atrás, se puede aumentar la eficiencia de la codificación.
A continuación se explicará el cuarto ejemplo del modo directo con referencia a la Fig. 7D. La Fig. 7D es una ilustración que muestra vectores de movimiento en el modo directo, y que muestra específicamente el caso donde el bloque a en la imagen B6 se codifica en el modo directo. En este caso, se usa el vector de movimiento que se ha usado para la codificación del bloque b en la imagen B7. La imagen B7 es la imagen de referencia hacia atrás para la imagen B6, y el bloque b está localizado conjuntamente con el bloque a en la imagen B6. En este punto se asume que el bloque b se ha codificado usando solo el vector de movimiento hacia atrás, como es el caso del tercer ejemplo, y el vector de movimiento hacia atrás usado para la codificación del bloque b es el vector de movimiento f. 65 Específicamente, el vector de movimiento f se asume que está almacenado en la unidad de almacenamiento de vectores de movimiento 116. El bloque a es bi-predictivo a partir de la imagen de referencia P9 a la que se refiere
imagen10
por el vector de movimiento f y la imagen de referencia hacia atrás B7 que usa los vectores de movimiento generados usando el vector de movimiento f. Por ejemplo si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento f, como es el caso del primer ejemplo mencionado anteriormente, los vectores de movimiento usados para la codificación del bloque a son el vector de movimiento g y el vector de
5 movimiento h para la imagen P9 y la imagen B7 respectivamente.
En este caso, donde el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atrás h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atrás B7 para la imagen actual B6 y la imagen P9 a la que se refiere el bloque en la imagen de referencia hacia atrás B7 es TRD, y la distancia temporal entre la imagen actual B6 y la imagen P9 a la que se refiere el bloque b en la imagen de referencia hacia atrás es TRF respectivamente, el vector de movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la ecuación 1 y la ecuación 2.
Como se ha descrito anteriormente, en el modo directo, escalando el vector de movimiento hacia atrás de un bloque
15 localizado conjuntamente en una imagen B de referencia hacia atrás que se ha usado para la codificación del bloque, no hay necesidad de transmitir información del vector de movimiento y la eficiencia de la predicción del movimiento se puede mejorar incluso si el bloque localizado conjuntamente en la imagen de referencia hacia atrás tiene solo el vector de movimiento hacia atrás. Por consiguiente, la eficiencia de codificación se puede mejorar. Además, usando una imagen a la que se refiere por el vector de movimiento hacia atrás como una imagen de referencia hacia delante, y la imagen de referencia que está temporalmente disponible más cerca en el orden de representación como una imagen de referencia hacia atrás, se puede aumentar la eficiencia de codificación.
A continuación, se examinará el quinto ejemplo del modo directo con referencia a la Fig. 8A. La Fig. 8A es una ilustración que muestra los vectores de movimiento en el modo directo, y que muestra específicamente el caso
25 donde se codifica el bloque a de la imagen B6 en el modo directo. En este caso, en el supuesto de que el valor de los vectores de movimiento sea "0", la referencia bi-predictiva se realiza para la compensación de movimiento, usando la imagen P5 como una imagen de referencia hacia delante y la imagen B7 como una imagen de referencia hacia atrás.
Como se ha mencionado anteriormente, forzando el vector de movimiento "0" en el modo directo cuando se selecciona el modo directo no hay necesidad de transmitir la información del vector de movimiento ni escalar el vector de movimiento, y de este modo el volumen de procesamiento se puede reducir.
A continuación, se explicará el sexto ejemplo del modo directo con referencia a la Fig. 8B. La Fig. 8B es una
35 ilustración que muestra vectores de movimiento en el modo directo, y que muestra específicamente el caso donde el bloque a en la imagen B6 se codifica en el modo directo. En este caso, se usa el vector de movimiento g que se ha usado para codificar el bloque f en la imagen P9. La imagen P9 está localizada posterior a la imagen B6, y el bloque f está localizado conjuntamente con el bloque a en la imagen B6. El vector de movimiento g está almacenado en la unidad de almacenamiento de vectores de movimiento 116. El bloque a es bi-predictivo a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás B7 usando vectores de movimiento generados usando el vector de movimiento g. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo mencionado anteriormente, los vectores de movimiento usados para la codificación del bloque a son el vector de movimiento h y el vector de movimiento i para la imagen P5 y la imagen B7 respectivamente para la codificación del bloque a.
45 En este caso, donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atrás i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen P9 que está localizada después en el orden de representación que la imagen actual B6 y la imagen P5 a la que se refiere el bloque f en la imagen P9 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF, y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atrás B7 es TRB respectivamente, el vector de movimiento h MVF y el vector de movimiento i MVB respectivamente se calculan respectivamente por la ecuación 1 y la ecuación 5.
MVB = -TRB xMV / TRD … Ecuación 5
55 Como se ha descrito anteriormente, en el modo directo, escalando el vector de movimiento de la imagen P que está localizada después en el orden de representación, no hay necesidad de almacenar el vector de movimiento de la imagen B si la imagen B es la imagen de referencia hacia atrás, y tampoco hay necesidad de transmitir la información del vector de movimiento. Además, usando las imágenes de referencia que están más próximas temporalmente en el orden de representación como una imagen de referencia hacia delante y una imagen de referencia hacia atrás, se puede aumentar la eficiencia de la codificación.
A continuación se explicará el séptimo ejemplo del modo directo con referencia a la Fig. 8C. La Fig. 8C es una ilustración que muestra vectores de movimiento en el modo directo, y que muestra específicamente el caso donde el
65 bloque a en la imagen B6 se codifica en el modo directo. Este ejemplo muestra el caso donde la asignación mencionada anteriormente de índices relativos a los números de imagen se cambia (se reasigna) y la imagen P9 es una imagen de referencia hacia atrás. En este caso, se usa el vector de movimiento g que se ha usado para la codificación del bloque f en la imagen P9. La imagen P9 es la imagen de referencia hacia atrás para la imagen B7, y el bloque f está localizado conjuntamente con el bloque a en la imagen B6. El vector de movimiento g está almacenado en la unidad de almacenamiento de vectores de movimiento 116. El bloque a es bi-predictivo a partir de
imagen11
5 la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás P9 usando vectores de movimiento generados que usan el vector de movimiento g. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo mencionado anteriormente, los vectores de movimiento usados para la codificación del bloque a son el vector de movimiento h y el vector de movimiento i para la imagen P5 y la imagen P9 respectivamente.
10 En este caso, donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atrás i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen de referencia hacia atrás P9 para la imagen actual B6 y la imagen P5 a la que se refiere el bloque f en la imagen P9 es TRD, y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento h
15 MVF y el vector de movimiento i MVB se calculan respectivamente por la ecuación 1 y la ecuación 2.
Como se ha descrito anteriormente, en el modo directo, el vector de movimiento de la imagen codificada anteriormente se puede escalar incluso si se reasignan los índices relativos a los números de imagen, y cuando se selecciona el modo directo, no hay necesidad de transmitir la información del vector de movimiento.
20 Cuando el bloque a en la imagen B6 se codifica en el modo directo, el bloque en la imagen de referencia hacia atrás para la imagen B6 que está localizado conjuntamente con el bloque a se codifica solo por la referencia hacia delante, la referencia bi-predictiva o el modo directo. Y cuando un vector de movimiento hacia delante se ha usado para esta codificación, este vector de movimiento hacia delante se escala y el bloque a se codifica en el modo
25 directo, como es el caso de los ejemplos primero, segundo o séptimo mencionados anteriormente. Por otra parte, cuando el bloque localizado conjuntamente con el bloque a se ha codificado por referencia hacia atrás usando solo un vector de movimiento hacia atrás, este vector de movimiento hacia atrás se escala y el bloque a se codifica en el modo directo, como es el caso de los ejemplos tercero o cuarto mencionados anteriormente.
30 El modo directo mencionado anteriormente es aplicable no solo al caso donde un intervalo de tiempo entre imágenes es fijo sino también al caso donde es variable.
La unidad de modo de selección de modo 109 saca el modo de codificación determinado a la unidad de generación del flujo de bits 104. También la unidad de selección de modo 109 genera datos de imagen predictivos en base al 35 modo de codificación determinado y los saca a la unidad de cálculo de diferencias 102. Sin embargo, si se selecciona la codificación intra imagen, la unidad de selección de modo 109 no saca los datos de imagen predictivos. La unidad de selección de modo 109 controla los conmutadores 111 y 112 de modo que se conectan al lado "a" y al lado "c" respectivamente si se selecciona la codificación intra imagen, y controla los conmutadores 111 y 112 de modo que se conectan al lado "b" y al lado "d" si se selecciona la codificación de predicción entre imágenes 40 o el modo directo. Si el modo de codificación determinado es la codificación de predicción entre imágenes, la unidad de selección de modo 109 saca los vectores de movimiento usados para la codificación de predicción entre imágenes a la unidad de generación del flujo de bits 104. Como la imagen B6 no se usa como una imagen de referencia para la codificación de otras imágenes, no hay necesidad de almacenar los vectores de movimiento usados para la codificación de predicción entre imágenes en la unidad de almacenamiento de vectores de
45 movimiento 116. Más adelante se explicará el caso donde la unidad de selección de modo 109 selecciona la codificación de predicción entre imágenes o el modo directo.
La unidad de cálculo de diferencias 102 recibe los datos de imagen del macrobloque en la imagen B6 leídos desde la memoria de reordenamiento 101 y los datos de imagen predictivos sacados desde la unidad de selección de 50 modo 109. La unidad de cálculo de diferencias 102 calcula la diferencia entre los datos de imagen del macrobloque en la imagen B6 y los datos de imagen predictivos y genera los datos de imagen de errores residuales para sacar a la unidad de codificación de errores residuales 103. La unidad de codificación de errores residuales 103 realiza el procesamiento de codificación tal como la transformada de frecuencia y la cuantificación sobre los datos de imagen de errores residuales introducidos, y de este modo genera los datos codificados para sacar a la unidad de
55 generación del flujo de bits 104.
La unidad de generación del flujo de bits 104 realiza la codificación de longitud variable o similar sobre los datos codificados introducidos, además añade información tal como los vectores de movimiento y un modo de codificación y así sucesivamente a los datos y genera el flujo de bits para la salida.
60 Esta es la terminación de la codificación de un macrobloque en la imagen B6. De acuerdo con el mismo procesamiento, se codifican los macrobloques restantes en la imagen B6. Y después de que se codifican todos los macrobloques en la imagen B6, se codifica la imagen B8.
65 (Codificación de la imagen B8)
imagen12
Como la imagen B8 es una imagen B, la codificación de predicción entre imágenes se realiza para la imagen B8 con referencia a dos imágenes procesadas anteriormente localizadas antes o después de B6 en el orden de
5 representación. La imagen B B8 se refiere a la imagen B7 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atrás, como se ha descrito anteriormente. Como la imagen B8 no se usa como una imagen de referencia para la codificación de otras imágenes, la unidad de control de codificación 110 controla el conmutador 113 para que esté activado y los conmutadores 114 y 115 para que estén desactivados, lo que causa que los macrobloques en la imagen B8 se lean desde la memoria de reordenamiento para introducir a la unidad de estimación de vectores de movimiento 108, la unidad de selección de modo 109 y la unidad de cálculo de diferencias 102.
Usando los datos de imagen decodificados de la imagen B7 y los datos de imagen decodificados de la imagen P9 que están almacenados en la memoria de imágenes de referencia 107 como una imagen de referencia hacia delante
15 y una imagen de referencia hacia atrás respectivamente, la unidad de estimación de vectores de movimiento 108 estima el vector de movimiento hacia delante y el vector de movimiento hacia atrás para el macrobloque en la imagen B8. Y la unidad de estimación de vectores de movimiento 108 saca los vectores de movimiento estimados a la unidad de selección de modo 109.
La unidad de selección de modo 109 determina el modo de codificación para el macrobloque en la imagen B8 usando los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 108.
En este punto, se explicará el caso donde el macrobloque en la imagen B8 se codifica usando el modo directo con referencia a la Fig. 8D. La Fig. 8D es una ilustración que muestra los vectores de movimiento en el modo directo, y 25 que muestra específicamente el caso donde un bloque a en la imagen B8 se codifica en el modo directo. En este caso, se usa un vector de movimiento c que se ha usado para la codificación de un bloque b en la imagen hacia atrás P9. La imagen de referencia P9 está localizada posterior a la imagen B8 y el bloque b en la imagen P9 está localizado conjuntamente con el bloque a. En este punto se asume que el bloque b se ha codificado por referencia hacia delante y el vector de movimiento hacia delante para el bloque b es el vector de movimiento c. El vector de movimiento c está almacenado en la unidad de almacenamiento de vectores de movimiento 116. El bloque a es bipredictivo a partir de la imagen de referencia hacia delante B7 y la imagen de referencia hacia atrás P9 usando los vectores de movimiento generados usando el vector de movimiento c. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento c, como es el caso de la imagen B6 mencionada anteriormente, el vector de movimiento d y el vector de movimiento e se usan para la imagen B7 y la
35 imagen P9 respectivamente para la codificación del bloque a.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atrás e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atrás P9 para la imagen actual B8 y la imagen P5 a la que se refiere el bloque b en la imagen de referencia hacia atrás P9 es TRD, la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia delante B7 es TRF, y la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia atrás P9 es TRB respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la ecuación 1 y la ecuación 5.
Como se ha descrito anteriormente, en el modo directo, escalando el vector de movimiento hacia delante de la
45 imagen de referencia hacia atrás, cuando se selecciona el modo directo, no hay necesidad de transmitir la información del vector de movimiento y se puede mejorar la eficiencia de predicción del movimiento. Por consiguiente, se puede mejorar la eficiencia de codificación. Además, usando las imágenes de referencia que están temporalmente disponibles más próximas en el orden de representación como las imágenes de referencia hacia delante y hacia atrás, se puede aumentar la eficiencia de la codificación.
El modo directo mencionado anteriormente es aplicable no solo al caso donde el intervalo de tiempo entre imágenes es fijo sino también al caso donde es variable.
La unidad de selección de modo 109 saca el modo de codificación determinado a la unidad de generación del flujo
55 de bits 104. También la unidad de selección de modo 109 genera los datos de imagen predictivos basada en el modo de codificación determinado y los saca a la unidad de cálculo de diferencias 102. Sin embargo, si se selecciona la codificación intra imagen, la unidad de selección de modo 109 no saca los datos de imagen predictivos. La unidad de selección de modo 109 controla los conmutadores 111 y 112 de modo que se conectan al lado "a" y al lado "c" respectivamente si se selecciona la codificación de imágenes intra imagen, y controla los conmutadores 111 y 112 de modo que se conectan al lado "b" y al lado "d" si se selecciona la codificación de predicción entre imágenes o el modo directo. Si el modo de codificación determinado es la codificación de predicción entre imágenes, la unidad de selección de modo 109 saca los vectores de movimiento usados para la codificación de predicción entre imágenes a la unidad de generación del flujo de bits 104. Como la imagen B8 no se usa como una imagen de referencia para la codificación de otras imágenes, no hay necesidad de almacenar los vectores de
65 movimiento usados para la codificación de predicción entre imágenes en la unidad de almacenamiento de vectores de movimiento 116. Más adelante se explicará el caso donde la unidad de selección de modo 109 selecciona la codificación de predicción entre imágenes o el modo directo.
imagen13
La unidad de cálculo de diferencias 102 recibe los datos de imagen del macrobloque en la imagen B8 leídos desde la memoria de reordenamiento 101 y los datos de imagen predictivos sacados desde la unidad de selección de
5 modo 109. La unidad de cálculo de diferencias 102 calcula la diferencia entre los datos de imagen del macrobloque en la imagen B8 y los datos de imagen predictivos, y genera los datos de imagen de errores residuales para su salida a la unidad de codificación de errores residuales 103. La unidad de codificación de errores residuales 103 realiza el procesamiento de codificación tal como la transformada de frecuencia y la cuantificación sobre los datos de imagen de errores residuales introducidos y de este modo genera los datos codificados para su salida a la unidad de generación del flujo de bits 104.
La unidad de generación del flujo de bits 104 realiza la codificación de longitud variable o similar sobre los datos codificados introducidos, además añade información tal como los vectores de movimiento y un modo de codificación y así sucesivamente a los datos y genera el flujo de bits para la salida.
15 Esta es la terminación de la codificación de un macrobloque en la imagen B8. De acuerdo con el mismo procesamiento, se codifican los macrobloques restantes en la imagen B8.
De acuerdo con los procedimientos de codificación respectivos mencionados anteriormente para las imágenes P9, B7, B6 y B8, se codifican otras imágenes dependiendo de sus tipos de imagen y las localizaciones temporales en el orden de representación.
En la realización mencionada anteriormente, se ha explicado el método de codificación de imágenes en movimiento de acuerdo con la presente invención tomando el caso donde la estructura de predicción de imágenes como se
25 muestra en la Fig. 6A se usa como un ejemplo. La Fig. 12 es una ilustración que muestra esta estructura de predicción de imágenes jerárquicamente. En la Fig. 12, las flechas indican las relaciones de predicción, en las que las imágenes apuntadas por las flechas se refieren a las imágenes localizadas en los orígenes de las flechas. En la estructura de predicción de imágenes como se muestra en la Fig. 6A, el orden de codificación se determina dando una prioridad máxima a las imágenes que están más lejanas de las imágenes procesadas anteriormente en el orden de representación, como se muestra en la Fig. 12. Por ejemplo, la imagen más lejana desde una imagen I o una imagen P es la localizada en el centro de las imágenes B consecutivas Por lo tanto, si se han codificado las imágenes P5 y P9, la imagen B7 es la siguiente a codificar. Y si se han codificado las imágenes P5, B7 y P9, las imágenes B6 y B8 son las siguientes a codificar.
35 Además, el método de codificación de imágenes en movimiento de acuerdo con la presente invención se puede usar para otras estructuras de predicción de imágenes distintas de las mostradas en la Fig. 6 y la Fig. 12, de modo que se produzcan los efectos de la presente invención. Las Fig. 9 -11 muestran los ejemplos de otras estructuras de predicción de imágenes.
La Fig. 9 muestra el caso donde 3 imágenes B están localizadas entre imágenes I e imágenes P y la imagen B más cercana desde la imagen procesada anteriormente se selecciona para la codificación en primer lugar. La Fig. 9A es un diagrama que muestra las relaciones de predicción entre las figuras respectivas dispuestas en el orden de representación, y la Fig. 9B es un diagrama que muestra la secuencia de figuras reordenadas en el orden de codificación (un flujo de bits). La Fig. 13 es un diagrama jerárquico de la estructura de predicción de imágenes
45 correspondiente a la Fig. 9A. En la estructura de predicción de imágenes como se muestra en la Fig. 9A, las imágenes más próximas en el orden de representación desde las imágenes procesadas anteriormente se codifican en primer lugar, como se muestra en la Fig. 13. Por ejemplo, si se han codificado las imágenes P5 y P9, las imágenes B6 y B8 son las siguientes a codificar. Si se han codificado las imágenes P5, B6, B8 y P9, la imagen B7 es la siguiente a codificar.
La Fig. 10 muestra el caso donde 5 imágenes B están localizadas entre imágenes I e imágenes P y se selecciona la imagen B que está más lejana de la imagen procesada anteriormente para la codificación en primer lugar. La Fig. 10A es un diagrama que muestra las relaciones de predicción entre las imágenes respectivas dispuestas en el orden de representación, y la Fig. 10B es un diagrama que muestra la secuencia de imágenes reordenada en el orden de
55 codificación (un flujo de bits). La Fig. 14 es un diagrama jerárquico de la estructura de predicción de imágenes correspondiente a la Fig. 10A. En la estructura de predicción de imágenes como se muestra en la fig. 10A, el orden de codificación se determina dando la máxima prioridad a las imágenes más lejanas en el orden de representación desde las imágenes procesadas anteriormente, como se muestra en la Fig. 14. Por ejemplo, la imagen más lejana desde una imagen I o una imagen P es la imagen B en el centro de las imágenes B consecutivas. Por lo tanto, si se han codificado las imágenes P7 y P13, la imagen B10 es la siguiente a codificar. Si se han codificado las imágenes P7, B10 y P13, las imágenes B8, B9 y B12 serán las siguientes a codificar.
La Fig. 11 muestra el caso donde 5 imágenes B están localizadas entre imágenes I e imágenes P y la imagen B que está más cerca de la imagen procesada anteriormente se selecciona para la codificación en primer lugar. La Fig. 65 11A es un diagrama que muestra las relaciones de predicción entre las imágenes respectivas dispuestas en el orden de representación, y la Fig. 11B es un diagrama que muestra la secuencia de imágenes reordenada en el orden de
imagen14
codificación (un flujo de bits). La Fig. 15 es un diagrama jerárquico de la estructura de predicción de imágenes correspondiente a la Fig. 11A. En la estructura de predicción de imágenes como se muestra en la Fig. 11A, las imágenes más próximas en el orden de representación desde las imágenes procesadas anteriormente se codifican en primer lugar, como se muestra en la Fig. 15. Por ejemplo, si se han codificado las imágenes P5 y P9, se codifican
5 a continuación las imágenes B8 y B12, si se han codificado las imágenes P5, B8, B12 y P9, las imágenes B9 y B11 se codifican a continuación. Además, si se han codificado las imágenes P5, B8, B9, B11, B12 y P9, la imagen B10 es la siguiente a codificar.
Como se ha descrito anteriormente, de acuerdo con el método de codificación de imágenes en movimiento de la presente invención, cuando se realiza la codificación de predicción entre imágenes sobre una pluralidad de imágenes B localizadas entre imágenes I e imágenes P usando la referencia bi-predictiva, se codifican en otro orden distinto del orden de representación. Para este propósito, las imágenes localizadas tan cerca de la imagen actual como sea posible en el orden de representación se usan como imágenes hacia delante y hacia atrás. Como una imagen de referencia, también se usa una imagen B si está disponible. Cuando se codifican una pluralidad de
15 imágenes B localizadas entre imágenes I e imágenes P en orden diferente del orden de representación, la imagen más lejana de la imagen procesada anteriormente es la que se codifica en primer lugar. O, cuando se codifican una pluralidad de imágenes B localizadas entre imágenes I e imágenes P en orden diferente del orden de representación, la imagen más próxima a la imagen procesada anteriormente se codifica en primer lugar.
De acuerdo con el método de codificación de imágenes en movimiento de la presente invención, la operación mencionada anteriormente posibilita usar una imagen más próxima a la imagen B actual en el orden de representación como una imagen de referencia para su codificación. La eficiencia de predicción se aumenta de este modo para la compensación del movimiento y se aumenta la eficiencia de la codificación.
25 Además, de acuerdo con el método de codificación de imágenes en movimiento de la presente invención, para codificar un bloque en una imagen B en el modo directo con referencia a una imagen B codificada anteriormente como una imagen de referencia hacia atrás, si el bloque localizado conjuntamente en la imagen B de referencia hacia atrás se ha codificado por referencia hacia delante o por referencia bi-predictiva, se usa un vector de movimiento obtenido escalando el vector de movimiento hacia delante de la imagen B de referencia hacia atrás como un vector de movimiento en el modo directo.
Como se ha mencionado anteriormente, en el modo directo, escalando un vector de movimiento hacia delante de una imagen B de referencia hacia atrás no hay necesidad de transmitir la información del vector de movimiento, y la eficiencia de la predicción se puede aumentar. Además, usando una imagen de referencia temporalmente más
35 próxima en el orden de representación como una imagen de referencia hacia delante, la eficiencia de la codificación se puede aumentar.
O, si se codifica un bloque localizado conjuntamente en una imagen B de referencia hacia atrás en el modo directo, se usa un vector de movimiento obtenido escalando el vector de movimiento hacia delante usado sustancialmente en el modo directo como un vector de movimiento en el modo directo.
Como se ha mencionado anteriormente, en el modo directo, escalando un vector de movimiento hacia delante de una imagen B de referencia hacia atrás, que se ha usado sustancialmente para la codificación del modo directo no hay necesidad de transmitir la información del vector de movimiento, y se puede aumentar la eficiencia de la
45 predicción, incluso si el bloque localizado conjuntamente en la imagen de referencia hacia atrás se codifica en el modo directo. Además, la eficiencia de la codificación se puede mejorar usando una imagen de referencia temporalmente más próxima como la imagen de referencia hacia delante.
O, si se codifica un bloque localizado conjuntamente en una imagen B de referencia hacia atrás por referencia hacia atrás, se usan vectores de movimiento obtenidos escalando el vector de movimiento hacia atrás del bloque como vectores de movimiento en el modo directo.
Como se ha mencionado anteriormente, en el modo directo, escalando un vector de movimiento hacia atrás que se ha usado para la codificación de un bloque localizado conjuntamente en la imagen B de referencia hacia atrás, no
55 hay necesidad de transmitir la información del vector de movimiento, y se puede aumentar la eficiencia de predicción incluso si el bloque localizado conjuntamente en la imagen de referencia hacia atrás solo tiene un vector de movimiento hacia atrás. Además usando la imagen de referencia más próxima temporalmente como imagen de referencia hacia delante, la eficiencia de la codificación se puede mejorar.
O, si se codifica un bloque localizado conjuntamente en una imagen B de referencia hacia atrás por referencia hacia atrás, se usan vectores de movimiento obtenidos escalando el vector de movimiento hacia atrás usado para esa codificación con referencia a la imagen referida por este vector de movimiento hacia atrás y la imagen referenciada hacia atrás, se usan como vectores en el modo directo.
65 Como se ha mencionado anteriormente, en el modo directo, escalando un vector de movimiento hacia atrás que se ha usado para codificar un bloque localizado conjuntamente en la imagen B de referencia hacia atrás, no hay necesidad de transmitir información del vector de movimiento, y la eficiencia de predicción se puede mejorar incluso si el bloque localizado conjuntamente en la imagen de referencia hacia atrás tiene solo un vector de movimiento hacia atrás. Por consiguiente, se puede mejorar la eficiencia de la codificación. Además, usando una imagen referenciada por el vector de movimiento hacia atrás como imagen de referencia hacia delante y la imagen de
imagen15
5 referencia temporalmente disponible más próxima en el orden de representación como una imagen de referencia hacia atrás, se puede aumentar la eficiencia de la codificación.
O, en el modo directo, se usa un vector de movimiento que se fuerza para fijarse a "0".
10 Forzando un vector de movimiento para fijarse a "0" en el modo directo, cuando se selecciona el modo directo, no hay necesidad de transmitir la información del vector de movimiento ni escalar el vector de movimiento, y por lo tanto el volumen de procesamiento se puede reducir.
Además, de acuerdo con el método de codificación de imágenes en movimiento de la presente invención, para la
15 codificación de un bloque en una imagen B en el modo directo con referencia a una imagen B que se ha codificado anteriormente como una imagen de referencia hacia atrás, se usa un vector de movimiento obtenido escalando el vector de movimiento hacia delante que se ha usado para la codificación del bloque localizado conjuntamente en la imagen P posterior como un vector de movimiento en el modo directo.
20 Como se ha mencionado anteriormente, en el modo directo escalando un vector de movimiento de una imagen P posterior, si la imagen de referencia hacia atrás es una imagen B, no hay necesidad de almacenar los vectores de movimiento de la imagen B y no hay necesidad de transmitir la información del vector de movimiento, y de este modo la eficiencia de predicción se puede aumentar. Además, usando la imagen de referencia temporalmente más próxima como la imagen de referencia hacia delante se puede mejorar la eficiencia de la codificación.
25 Cuando se cambia la asignación de los índices relativos a los números de imagen y se ha codificado el bloque localizado conjuntamente en una imagen de referencia hacia atrás por referencia hacia delante, los vectores de movimiento obtenidos escalando ese vector de movimiento hacia delante se usan como vectores de movimiento en el modo directo.
30 Como se ha mencionado anteriormente, en el modo directo, un vector de movimiento de una imagen codificada anteriormente se puede escalar incluso si se cambia la asignación de los índices relativos a los números de imagen, y no hay necesidad de transmitir información del vector de movimiento.
35 En la presente realización, se ha explicado el caso donde la compensación de movimiento se realiza en cada bloque de 16 (horizontal) x 16 (vertical) pixel y los datos de imagen de errores residuales se codifican en cada bloque de 8 (horizontal) x 8 (vertical) pixel o en cada bloque de 4 (horizontal) x 4 (vertical) pixel, pero se pueden aplicar otros tamaños (número de pixel incluidos).
40 También, en la presente realización, se ha explicado el caso donde se localizan 3 o 5 imágenes B consecutivas, pero se pueden localizar otro número de imágenes.
Además en la presente realización, se ha explicado el caso donde se selecciona una de la codificación intra imagen, la codificación de predicción entre imágenes usando vectores de movimiento y la codificación de predicción entre
45 imágenes sin usar vectores de movimiento, como un modo de codificación para las imágenes P, y se selecciona uno de la codificación intra imagen, la codificación de predicción entre imágenes usando un vector de movimiento hacia delante, la codificación de predicción entre imágenes usando un vector de movimiento hacia atrás, la codificación de predicción entre imágenes usando vectores de movimiento bi-predictivos y el modo directo para las imágenes B, pero se pueden usar otros modos de codificación.
50 También en la presente realización, se han explicado siete ejemplos del modo directo, pero se puede usar un método que se determina de forma unívoca en cada macrobloque o bloque, o se puede seleccionar cualquiera de una pluralidad de métodos en cada macrobloque o bloque. Si se usan una pluralidad de métodos, se describe la información que indica qué tipo de modo directo se ha usado en un flujo de bits.
55 Además, en la presente realización, se ha explicado el caso donde se codifica una imagen P con referencia a una imagen I o P codificada anteriormente que está localizada temporalmente antes o después en el orden de representación que la imagen P actual, y se codifica una imagen B con referencia a dos imágenes vecinas procesadas anteriormente que están localizadas antes o después en el orden de representación que la imagen B
60 actual, respectivamente. Sin embargo, en el caso de una imagen P, la imagen P se puede codificar con referencia a lo sumo a una imagen para cada uno de los bloques de entre una pluralidad de imágenes I o P codificadas anteriormente como imágenes de referencia candidatas, y en el caso de una imagen B, la imagen B se puede codificar con referencia a lo sumo de dos imágenes para cada uno de los bloques de entre una pluralidad de imágenes vecinas codificadas anteriormente que están localizadas temporalmente antes o después en el orden de
65 representación como imágenes de referencia candidatas.
imagen16
Además, cuando los vectores de movimiento se almacenan en la unidad de almacenamiento de vectores de movimiento 116, la unidad de selección de modo 109 puede almacenar ambos vectores de movimiento hacia delante y hacia atrás o solo un vector de movimiento hacia delante, si un bloque actual se codifica por referencia bipredictiva o en el modo directo. Si se almacena solo el vector de movimiento hacia delante, el volumen almacenado
5 en la unidad de almacenamiento de vectores de movimiento 116 se puede reducir.
(Segunda realización)
La Fig. 16 es un diagrama de bloques que muestra una estructura de un aparato de decodificación de imágenes en
10 movimiento que usa un método de decodificación de imágenes en movimiento de acuerdo con una realización de la presente invención.
Como se muestra en la Fig. 16, el aparato de decodificación de imágenes en movimiento incluye una unidad de análisis del flujo de bits 1401, una unidad de decodificación de errores residuales 1402, una unidad de
15 decodificación de modo 1403, una unidad de control de la memoria de tramas 1404, una unidad de decodificación de la compensación de movimiento 1405, una unidad de almacenamiento de vectores de movimiento 1406, una memoria de trama 1407, una unidad de adición 1408 y los conmutadores 1409 y 1410.
La unidad de análisis del flujo de bits 1401 extrae diversos tipos de datos tales como la información del modo de
20 codificación y la información de vectores de movimiento a partir del flujo de bits introducido. La unidad de decodificación de errores residuales 1402 decodifica los datos codificados de errores residuales introducidos desde la unidad de análisis del flujo de bits 1401 y genera datos de imágenes de errores residuales. La unidad de decodificación de modo 1403 controla los conmutadores 1409 y 1410 con referencia a la información de modo de codificación extraída a partir del flujo de bits.
25 La unidad de control de la memoria de trama 1404 saca los datos de imagen decodificados almacenados en la memoria de trama 1407 como salida de imágenes en base a la información que indica el orden de representación de las imágenes introducidas desde la unidad de análisis del flujo de bits 1401.
30 La unida de decodificación de la compensación del movimiento 1405 decodifica la información de los números de imágenes de referencia y los vectores de movimiento, y obtiene datos de imagen de compensación de movimiento desde la memoria de trama 1407 en base a los números de imagen de referencia decodificados y los vectores de movimiento. La unidad de almacenamiento de vectores de movimiento 1406 almacena los vectores de movimiento.
35 La unidad de adicción 1408 añade los datos codificados de errores residuales introducidos desde la unidad de decodificación de errores residuales 1402 y los datos de imagen de compensación de movimiento introducidos desde la unidad de decodificación de compensación de movimiento 1405 para generar los datos de imagen decodificados. La memoria de trama 1407 almacena los datos de imagen decodificados generados.
40 A continuación, se explicará la operación del aparato de decodificación de imágenes en movimiento como está estructurada anteriormente. En este punto se asume que el flujo de bits generado por el aparato de codificación de imágenes en movimiento se introduce al aparato de decodificación de imágenes en movimiento. Específicamente, se asume que una imagen P se refiere a una imagen I o P vecina procesada anteriormente que está localizada antes o después de la imagen P actual en el orden de representación, y una imagen B se refiere a dos imágenes vecinas
45 codificadas anteriormente que están localizadas antes o después de la imagen B actual en el orden de representación.
En este caso, las imágenes en el flujo de bits están dispuestas en el orden como se muestra en la Fig. 6B. El procesamiento de decodificación de las imágenes P9, B7, B6 y B8 se explicará a continuación en este orden.
50 (Decodificación de la imagen P9)
El flujo de bits de la imagen P9 se introduce a la unidad de análisis del flujo de bits 1401. La unidad de análisis del flujo de bits 1401 extrae los diversos tipos de datos a partir del flujo de bits introducido. En este punto, los diversos
55 tipos de datos significan la información de la selección de modo, la información de vectores de movimiento y otros. La información de selección de modo extraída se saca a la unidad de decodificación de modo 1403. La información de vectores de movimiento extraídos se saca a la unidad de decodificación de compensación de movimiento 1405. Y los datos codificados de errores residuales se sacan a la unidad de decodificación de errores residuales 1402.
60 La unidad de decodificación de modo 1403 controla los conmutadores 1409 y 1410 con referencia a la información de selección del modo de codificación extraída a partir del flujo de bits. Si se selecciona la codificación intra imagen como el modo de codificación, la unidad de decodificación de modo 1403 controla los conmutadores 1409 y 1410 de modo que se conectan al lado "a" y al lado "c" respectivamente. Si se selecciona la codificación de predicción entre imágenes como el modo de codificación, la unidad de decodificación de modo 1403 controla los conmutadores 1409
65 y 1410 de modo que se conectan al lado "b" y al lado "d" respectivamente.
imagen17
La unidad de decodificación de modo 1403 también saca la información de selección del modo de codificación a la unidad de decodificación de la compensación del movimiento 1405. A continuación se explicará el caso donde se selecciona la codificación de predicción entre imágenes como el modo de codificación. La unidad de decodificación de errores residuales 1402 decodifica los datos codificados de errores residuales introducidos para generar los datos
5 de imagen de errores residuales. La unidad de decodificación de errores residuales 1402 saca los datos de imagen de errores residuales generados al conmutador 1409. Como el conmutador 1409 está conectado al lado "b", los datos de imagen de errores residuales se sacan a la unidad de adición 1408.
La unidad de decodificación de compensación de movimiento 1405 obtiene los datos de imagen de compensación de movimiento desde la memoria de trama 1407 en base a la información de vectores de movimiento y similares. La imagen P9 se ha codificado con referencia a la imagen P5 y la imagen P5 ya se ha decodificado y almacenado en la memoria de trama 1407. De ese modo, la unidad de decodificación de compensación de movimiento 1405 obtiene los datos de imagen de compensación de movimiento sobre los datos a partir de los datos de imagen de la imagen P5 almacenados en la memoria de trama 1407, en base a la información del vector de movimiento. Los datos de
15 imagen de compensación de movimiento generados de este modo se sacan a la unidad de adición 1408.
Cuando se decodifican las imágenes P, la unidad de decodificación de la compensación de movimiento 1405 almacena la información del vector de movimiento en la unidad de almacenamiento de vectores de movimiento 1406.
La unidad de adición 1408 suma los datos de imagen de errores residuales introducidos y los datos de imagen de compensación de movimiento para generar los datos de imagen decodificados. Los datos de imagen decodificados generados se sacan a la memoria de trama 1407 a través del conmutador 1410.
25 Esta es la terminación de la decodificación de un macrobloque en la imagen P9. De acuerdo con el mismo procesamiento, se decodifican en secuencia los macrobloques restantes en la imagen P9. Y después de que se decodifican todos los macrobloques en la imagen P9 se decodifica la imagen B7.
(Decodificación de la imagen B7)
Como las operaciones de la unidad de análisis del flujo de bits 1401, la unidad de decodificación de modo 1403 y la unidad de decodificación de errores residuales 1402 hasta la generación de los datos de imagen de errores residuales son las mismas que las usadas para la decodificación de la imagen P9, se omitirá la explicación de las mismas.
35 La unidad de decodificación de compensación de movimiento 1405 genera datos de imagen de compensación de movimiento en base a la información de vectores de movimiento introducidos y similares. La imagen B7 se codifica con referencia a la imagen P5 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atrás, y estas imágenes P5 y P9 ya se han decodificado y almacenado en la memoria de trama 1407.
Si se selecciona la codificación bi-predicción entre imágenes como modo de codificación, la unidad de decodificación de compensación de movimientos 1405 obtiene los datos de la imagen de referencia hacia delante a partir de la memoria de trama 1407 en base a la información del vector de movimiento hacia delante. También obtiene los datos
45 de la imagen de referencia hacia atrás desde la memoria de trama 1407 en base a la información de vectores de movimiento hacia atrás. A continuación, la unidad de decodificación de compensación de movimiento 1405 promedia los datos de la imagen de referencia hacia delante y hacia atrás para generar los datos de la imagen de compensación de movimiento.
Cuando se selecciona el modo directo como el modo de codificación, la unidad de decodificación de la compensación de movimiento 1405 obtiene el vector de movimiento de la imagen P9 almacenada en la unidad de almacenamiento de vectores de movimiento 1406. Usando este vector de movimiento, la unidad de decodificación de compensación de movimiento 1405 obtiene los datos de imagen de referencia hacia delante y hacia atrás desde la memoria de trama 1407. A continuación, la unidad de decodificación de la compensación de movimiento 1405
55 promedia los datos de imagen de referencia hacia delante y hacia atrás para generar los datos de imagen de compensación de movimiento.
Se explicará el caso donde se selecciona el modo directo como el modo de codificación con referencia a la Fig. 7A de nuevo. En este punto, se asume que se va a decodificar el bloque a en la imagen B7 y el bloque b en la imagen P9 está localizado conjuntamente con el bloque a. El vector de movimiento del bloque b es el vector de movimiento c, que se refiere a la imagen P5. En este caso, el vector de movimiento d que se obtiene usando el vector de movimiento c y se refiere a la imagen P5 se usa como un vector de movimiento hacia delante, y el vector de movimiento e que se obtiene usando el vector de movimiento c y se refiere a la imagen P9 se usa como un vector de movimiento hacia atrás. Por ejemplo, como método de utilización del vector c, hay un método de generación de 65 vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensación de movimiento se obtienen promediando los datos de referencia hacia delante y hacia atrás obtenidos en base a estos vectores de
imagen18
movimiento.
En este caso, donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atrás e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atrás P9 para la imagen
5 actual B7 y la imagen P5 a la que se refiere el bloque b en la imagen de referencia hacia atrás P9 es TRD, y la distancia temporal entre la imagen actual B7 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la ecuación 1 y la ecuación 2, donde MVF y MVB representan las componentes horizontal y vertical de los vectores de movimiento respectivamente. Obsérvese que la distancia temporal entre las imágenes se puede determinar en base a la información que indica el orden de representación (posición) dado a las imágenes respectivas o la diferencia especificada por la información.
Los datos de imagen de compensación de movimiento generados de este modo se sacan a la unidad de adición 1408. La unidad de decodificación de compensación de movimiento 1405 almacena la información del vector de
15 movimiento en la unidad de almacenamiento de vectores de movimiento 1406.
La unidad de adición 1408 suma los datos de imagen de errores residuales introducidos y los datos de imagen de compensación de movimiento para generar datos de imagen decodificados. Los datos de imagen decodificados generados se sacan a la memoria de trama 1407 a través del conmutador 1410.
Esta es la terminación de la decodificación de un macrobloque en la imagen B7. De acuerdo con el mismo procesamiento se decodifican en secuencia los macrobloques restantes en la imagen B7. Y después de que se decodifican todos los macrobloques de la imagen B7 se decodifica la imagen B6.
25 (Decodificación de la imagen B6)
Como las operaciones de la unidad de análisis del flujo de bits 1401, la unidad de decodificación de modo 1403 y la unidad de decodificación de errores residuales 1402 hasta la generación de datos de imagen de errores residuales son las mismas que las utilizadas para la decodificación de la imagen P9, se omitirá la explicación de las mismas.
La unidad de decodificación de compensación de movimiento 1405 genera los datos de imagen de compensación de movimiento en base a la información de vectores de movimiento introducidos y similares. La imagen B6 se ha codificado con referencia a la imagen P5 como una imagen de referencia hacia delante y la imagen B7 como imagen de referencia hacia atrás, y estas imágenes P5 y B7 ya se han decodificado y almacenado en la memoria de trama
35 1407.
Si se selecciona la codificación bi-predicción entre imágenes como el modo de codificación, la unidad de decodificación de compensación de movimiento 1405 obtiene los datos de imagen de referencia hacia delante desde la memoria de trama 1407 en base a la información del vector de movimiento hacia delante. También obtiene los datos de imagen de referencia hacia atrás desde la memoria de trama 1407 en base a la información del vector de movimiento hacia atrás. A continuación, la unidad de decodificación de compensación de movimientos 1405 promedia los datos de las imágenes de referencia hacia delante y hacia atrás para generar los datos de imagen de compensación de movimiento.
45 Cuando se selecciona el modo directo como el modo de codificación, la unidad de decodificación de compensación de movimiento 1405 obtiene el vector de movimiento de la imagen B7 almacenado en la unidad de almacenamiento de vectores de movimiento 1406. Usando este vector de movimiento, la unidad de decodificación de compensación de movimiento 1405 obtiene los datos de las imágenes de referencia hacia delante y hacia atrás desde la memoria de trama 1407. A continuación la unidad de decodificación de compensación de movimiento 1405 promedia los datos de las imágenes de referencia hacia delante y hacia atrás para generar los datos de imagen de compensación de movimiento.
Se explicará el primer ejemplo del caso donde se selecciona el modo directo como un modo de decodificación con referencia de nuevo a la Fig. 7B. En este punto, se asume que se va a decodificar el bloque a en la imagen B6 y el
55 bloque b en la imagen B7 está localizado conjuntamente con el bloque a. El bloque b se ha codificado por predicción entre imágenes de referencia hacia delante o por predicción entre imágenes de referencia bi-predictiva, y el vector de movimiento hacia delante del bloque b es el vector de movimiento c, que se refiere a la imagen P5. En este caso, el vector de movimiento d que se obtiene usando el vector de movimiento c y se refiere a la imagen P5 se usa como un vector de movimiento hacia delante, y el vector de movimiento e que se obtiene usando el vector de movimiento c y se refiere a la imagen B7 se usa como un vector de movimiento hacia atrás. Por ejemplo, como un método de utilización del vector de movimiento c, hay un método de generación de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensación de movimiento se obtienen promediando los datos de las imágenes de referencia hacia delante y hacia atrás obtenidos en base a estos vectores de movimiento d y e.
65 En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atrás e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atrás B7 para la imagen
imagen19
5 indica el orden de representación (posición) de las imágenes o la diferencia especificada por la información. O, como los valores de TRD y TRF, se pueden usar los valores predeterminados para las imágenes respectivas. Estos valores predeterminados se pueden describir en el flujo de bits como información de cabecera.
Se explicará el segundo ejemplo del caso donde se selecciona el modo directo como un modo de codificación de nuevo con referencia a la Fig. 7B.
En este ejemplo, se usa el vector de movimiento que se ha usado para la decodificación del bloque b en la imagen B7. La imagen B7 es la imagen de referencia hacia atrás para la imagen actual B6, y el bloque b está localizado conjuntamente con el bloque a en la imagen B6. En este punto se asume que el bloque b se ha codificado en el
15 modo directo y el vector de movimiento c se ha usado sustancialmente como un vector de movimiento hacia delante para esa codificación. Se puede usar el vector de movimiento c almacenado en la unidad de almacenamiento de vectores de movimiento 1406, o se calcula leyendo desde la unidad de almacenamiento de vectores de movimiento 1406 el vector de movimiento de la imagen P9 que se ha usado para la codificación del bloque b en el modo directo, y escalando a continuación ese vector de movimiento. Obsérvese que cuando se almacenan los vectores de movimiento en la unidad de almacenamiento de vectores de movimiento 1406, la unidad de decodificación de compensación de movimiento 1405 solo necesita almacenar el vector de movimiento hacia delante de los dos vectores de movimiento obtenidos escalando para la decodificación del bloque b en la imagen B7 en el modo directo.
25 En este caso, para el bloque a, se usa el vector de movimiento d que se genera usando el vector de movimiento c y se refiere a la imagen P5 como un vector de movimiento hacia delante, y se usa el vector de movimiento e que se genera usando el vector de movimiento c y se refiere a la imagen B7 como un vector de movimiento hacia atrás. Por ejemplo, como un método de utilización del vector de movimiento c, hay un método de generación de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensación de movimiento se obtienen promediando los datos de las imágenes de referencia hacia delante y hacia atrás obtenidos en base a estos vectores de movimiento d y e:
En este caso, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la ecuación 1 y la ecuación 2, como es el caso del primer ejemplo del modo directo.
35 A continuación, se explicará el tercer ejemplo del caso donde se selecciona el modo directo como el modo de codificación de nuevo con referencia a la Fig. 7C.
En este ejemplo se asume que se va a decodificar el bloque a en la imagen B6, y el bloque b en la imagen B7 está localizado conjuntamente con el bloque a. El bloque b se ha codificado por predicción de referencia hacia atrás, y el vector de movimiento hacia atrás del bloque b es un vector de movimiento f, que se refiere a la imagen P9. En este caso, para el bloque a, el vector de movimiento g que se obtiene usando el vector de movimiento f y se refiere a la imagen P5 se usa como un vector de movimiento hacia delante y el vector de movimiento h que se obtiene usando el vector de movimiento f y se refiere a la imagen B7 se usa como un vector de movimiento hacia atrás. Por ejemplo,
45 como un método de utilización del vector de movimiento f, hay un método de generación de vectores de movimiento paralelos al vector de movimiento f. Los datos de imagen de compensación de movimiento se obtienen promediando los datos de las imágenes de referencia hacia delante y hacia atrás obtenidas en base a estos vectores de movimiento g y h.
En este caso donde el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atrás h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atrás B7 para la imagen actual B6 y la imagen P9 a la que se refiere el bloque b en la imagen de referencia hacia atrás B7 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF, y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atrás B7 es TRB respectivamente, el vector de
55 movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la ecuación 3 y la ecuación 4.
A continuación, se explicará el cuarto ejemplo del caso donde se selecciona el modo directo como el modo de codificación con referencia de nuevo a la Fig. 7D.
En este ejemplo se asume que se va a decodificar el bloque a en la imagen B6, y el bloque b en la imagen B7 está localizado conjuntamente con el bloque a. El bloque b se ha codificado por predicción de referencia hacia atrás como es el caso del tercer ejemplo, y el vector de movimiento hacia atrás del bloque b es un vector de movimiento f, que se refiere a la imagen P9. En este caso, el vector de movimiento g que se obtiene usando el vector de movimiento f y se refiere a la imagen P9, se usa como un vector de movimiento hacia delante y el vector de 65 movimiento h que se obtiene usando el vector de movimiento f y se refiere a la imagen B7 se usa como un vector de movimiento hacia atrás. Por ejemplo, como un método de utilización del vector de movimiento f, hay un método de
imagen20
generación de vectores de movimiento paralelos al vector de movimiento f. Los datos de imagen de compensación de movimiento se obtienen promediando los datos de las imágenes de referencia hacia delante y hacia atrás obtenidos en base a estos vectores de movimiento g y h.
5 En este caso cuando el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atrás h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atrás B7 para la imagen actual B6 y la imagen P9 a la que se refiere el bloque b en la imagen de referencia hacia atrás B7 es TRD, y la distancia temporal entre la imagen actual B6 y la imagen de referencia P9 a la que se refiere el bloque b en la imagen de referencia hacia atrás B7 es TRF respectivamente, el vector de movimiento g MVF y el vector de
10 movimiento h MVB se calculan respectivamente por la ecuación 1 y la ecuación 2.
Además, se explicará el quinto ejemplo del caso donde se selecciona el modo directo como el modo de codificación con referencia de nuevo a la Fig. 8A. En este punto, se asume que se va a decodificar un bloque a en la imagen B6 en el modo directo. En este ejemplo, el vector de movimiento se fija a "0" y se realiza la compensación de
15 movimiento por referencia bi-predictiva usando la imagen P5 como imagen de referencia hacia delante y la imagen B7 como imagen de referencia hacia atrás.
A continuación, se explicará el sexto ejemplo del caso donde se selecciona el modo directo como el modo de codificación con referencia de nuevo a la Fig. 8B. En este punto, se asume que se va a decodificar un bloque a en la 20 imagen B6 en el modo directo. En este ejemplo, se usa el vector de movimiento g que se ha usado para decodificar el bloque f en la imagen P P9. La imagen P9 está localizada después de la imagen actual B6, y el bloque f está localizado conjuntamente con el bloque a. El vector de movimiento g se almacena en la unidad de almacenamiento de vectores de movimiento 1408. El bloque a es bi-predictivo a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atrás B7 usando los vectores de movimiento que se obtienen usando el vector de
25 movimiento g. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo mencionado anteriormente, el vector de movimiento h y el vector de movimiento i se usan para la imagen P5 y la imagen B7 respectivamente para obtener los datos de imagen de compensación de movimiento del bloque a.
30 En este caso donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atrás i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen P9 localizada después de la imagen actual B6 y la imagen P5 a la que se refiere el bloque f en la imagen P9 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF, y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atrás B7 es TRB respectivamente, el vector de movimiento h MVF y el vector de
35 movimiento i MVB se calculan respectivamente por la ecuación 1 y la ecuación 5.
A continuación, se explicará el séptimo ejemplo del caso donde se selecciona el modo directo como el modo de codificación con referencia de nuevo a la Fig. 8C. En este punto, se asume que se decodifica un bloque a en la imagen B6 en el modo directo, En este ejemplo, la asignación de índices relativos a los números de imagen 40 mencionados anteriormente se cambian (se reasignan) y la imagen P9 es la imagen de referencia hacia atrás. En este caso, se usa el vector de movimiento g que se ha usado para la codificación del bloque f en la imagen P9. La imagen P9 es la imagen de referencia hacia atrás para la imagen B6, y el bloque f está localizado conjuntamente con el bloque a en la imagen B6. El vector de movimiento g se almacena en la unidad de almacenamiento de vectores de movimiento 1406. El bloque a es bi-predictivo a partir de la imagen de referencia hacia delante P5 y la
45 imagen de referencia hacia atrás P9 usando vectores de movimiento generados usando el vector de movimiento g. Por ejemplo, si se usa un método de generación de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo mencionado anteriormente, el vector de movimiento h y el vector de movimiento i se usan para la imagen P5 y la imagen P9 respectivamente para obtener los datos de imagen de compensación de movimiento del bloque a.
50 En este caso, donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atrás i es MVB el vector de movimiento g es MV, la distancia temporal entre la imagen de referencia hacia atrás P9 para la imagen actual B6 y la imagen P5 a la que se refiere el bloque f en la imagen P9 es TRD, y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento h
55 MVF y el vector de movimiento i MVB se calculan respectivamente por la ecuación 1 y la ecuación 2.
Los datos de imagen de compensación de movimiento generados como anteriormente se sacan a la unidad de adición 1408. La unidad de adición 1408 suma los datos de imagen de errores residuales introducidos y los datos de compensación de movimiento para generar los datos de imagen decodificados. Los datos de imagen decodificados
60 generados se sacan a la memoria de trama 1407 a través del conmutador 1410.
Esta es la terminación de la decodificación de un macrobloque en la imagen B6. De acuerdo con el mismo procesamiento, se decodifican en secuencia los macrobloques restantes en la imagen B6. Y después de que se decodifican todos los macrobloques en la imagen B6 se decodifica la imagen B8.
65
imagen21
(Decodificación de la imagen B8)
Como las operaciones de la unidad de análisis del flujo de bits 1401, la unidad de decodificación de modo 1403 y la unidad de decodificación de errores residuales 1402 hasta la generación de datos de imagen de errores residuales 5 son las mismas que las usadas para la decodificación de la imagen P9, se omitirá la explicación de las mismas.
La unidad de decodificación de compensación de movimiento 1405 genera datos de imagen de compensación de movimiento en base a la información de vectores de movimiento introducida y similar. La imagen B8 se ha codificado con referencia a la imagen B7 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atrás, y estas imágenes B7 y P9 ya se han decodificado y almacenado en la memoria 1407.
Si se selecciona la codificación de predicción entre imágenes como el modo de codificación, la unidad de decodificación de compensación de movimiento 1405 obtiene los datos de imagen de referencia hacia delante desde la memoria de trama 1407 en base a la información de vectores de movimiento hacia delante. También obtiene
15 datos de la imagen de referencia hacia atrás desde la memoria de trama 1407 en base a la información de vectores de movimiento hacia atrás. A continuación, la unidad de decodificación de compensación de movimiento 1405 promedia los datos de las imágenes de referencia hacia delante y hacia atrás para generar los datos de imagen de compensación de movimiento.
Cuando se selecciona el modo directo como el modo de generación, la unidad de decodificación de compensación del movimiento 1405 obtiene el vector de movimiento de la imagen P9 almacenada en la unidad de almacenamiento de vectores de movimiento 1406. Usando este vector de movimiento, la unidad de decodificación de compensación de movimiento 1405 obtiene los datos de las imágenes de referencia hacia delante y hacia atrás a partir de la memoria de trama 1407. A continuación, la unidad de decodificación de compensación de movimiento 1405
25 promedia los datos de las imágenes de referencia hacia delante y hacia atrás para generar los datos de imagen de compensación de movimiento.
Se explicará el caso donde se selecciona el modo directo como el modo de codificación con referencia de nuevo a la Fig. 8D. En este punto se asume que se va a decodificar un bloque a en la imagen B8 y un bloque b en la imagen de referencia hacia atrás P9 está localizado conjuntamente con el bloque a. El vector de movimiento hacia delante del bloque b es el vector de movimiento c, que se refiere a la imagen P5. En este caso, el vector de movimiento d que se genera usando el vector de movimiento c y se refiere a la imagen B7 se usa como un vector de movimiento hacia delante, y el vector de movimiento e que se genera usando el vector de movimiento c y se refiere a la imagen P9 se usa como un vector de movimiento hacia atrás. Por ejemplo, como un método de utilización del vector de
35 movimiento c, hay un método de generación de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensación del movimiento se obtienen promediando los datos de las imágenes de referencia hacia delante y hacia atrás obtenidos en base a estos vectores de movimiento d y e.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atrás e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atrás P9 para la imagen actual B8 y la imagen P5 a la que se refiere el bloque b en la imagen de referencia hacia atrás P9 es TRD, la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia delante B7 es TRF, y la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia atrás P9 es TRB respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la ecuación 1 y la ecuación 5.
45 Los datos de imagen de compensación de movimiento generados del mismo modo se sacan a la unidad de adición 1408. La unidad de adición 1408 suma los datos de imagen de errores residuales introducidos y los datos de imagen de compensación de movimiento para generar los datos de imagen decodificados. Los datos de imagen decodificados generados se sacan a la memoria de trama 1407 a través del conmutador 1410.
Esta es la terminación de la decodificación de un macrobloque en la imagen B8. De acuerdo con el mismo procesamiento, se decodifican en secuencia los macrobloques restantes en la imagen B8. Las otras imágenes se decodifican dependiendo de sus tipos de imagen de acuerdo con los procedimientos de decodificación mencionados anteriormente.
55 A continuación, la unidad de control de memoria de trama 1404 reordena los datos de imagen de las imágenes almacenadas en la memoria de trama 1407 en el orden temporal como se muestra en la fig. 6A para sacar como imágenes de salida.
Como se ha descrito anteriormente, de acuerdo con el método de decodificación de imágenes en movimiento de la presente invención, una imagen B que se ha codificado por bi-predicción entre imágenes se decodifica usando imágenes decodificadas anteriormente que están localizadas próximas en el orden de representación como imágenes de referencia hacia delante y hacia atrás.
65 Cuando se selecciona el modo directo como el modo de codificación, los datos de la imagen de referencia se obtienen a partir de los datos de imagen decodificados anteriormente para obtener datos de imagen de compensación de movimiento, con referencia a un vector de movimiento de una imagen de referencia hacia atrás decodificada anteriormente almacenada en la unidad de almacenamiento de vectores de movimiento 1406.
imagen22
De acuerdo con esta operación, cuando una imagen B se ha codificado por bi-predicción entre imágenes usando 5 imágenes que están localizadas cerca en el orden de representación como imágenes de referencia hacia delante y hacia atrás, el flujo de bits generado como resultado de tal codificación se puede decodificar adecuadamente.
En la presente realización se han explicado siete ejemplos del modo directo. Sin embargo, se puede usar un método que se determina unívocamente para cada macrobloque o bloque en base al método de decodificación de un bloque localizado conjuntamente en una imagen de referencia hacia atrás, o se pueden usar una pluralidad de métodos diferentes para cada macrobloque o bloque conmutándolos. Cuando se usan una pluralidad de métodos, el macrobloque o el bloque se decodificada usando información descrita en un flujo de bits, indicando qué tipo de modo directo se ha usado. Para este propósito, la operación de la unidad de decodificación de compensación de movimiento 1405 depende de la información. Por ejemplo, cuando esta información se añade para cada bloque de
15 compensación de movimiento, la unidad de decodificación de modo 1403 determina qué tipo de modo directo se usa para la codificación y lo suministra a la unidad de decodificación de compensación de movimiento 1405. La unidad de decodificación de compensación de movimiento 1405 realiza el procesamiento de decodificación usando el método de decodificación como se explica en la presente realización dependiendo del tipo suministrado de modo directo.
También se ha explicado en la presente realización, la estructura de imágenes donde tres imágenes B están localizadas entre imágenes I e imágenes P, pero puede estar localizado cualquier otro número de imágenes B, por ejemplo cuatro o cinco.
25 Además, en la presente realización, se ha realizado la explicación sobre la suposición de que una imagen P está codificada con referencia a una imagen I o P codificada anteriormente que está localizada antes o después de la imagen P actual en el orden de representación, una imagen B está codificada con referencia a dos imágenes vecinas codificadas anteriormente que están localizadas antes o después de la imagen B actual en el orden de representación, y el flujo de bits generado como resultado de esta codificación se decodifica. Sin embargo, en el caso de una imagen P, la imagen P puede estar codificada con referencia a más de una imagen para cada bloque de entre una pluralidad de imágenes I o P codificadas anteriormente que están localizadas temporalmente antes o después en el orden de representación como imágenes de referencia candidatas y en el caso de una imagen B, la imagen B puede estar codificada con referencia a lo sumo a dos imágenes para cada uno de los bloques de entre una pluralidad de imágenes vecinas codificadas anteriormente que están localizadas temporalmente antes o
35 después en el orden de representación como imágenes candidatas de referencia.
Además, cuando se almacenan vectores de movimiento en la unidad de almacenamiento de vectores de movimiento 1406, la unidad de decodificación de compensación de movimiento 1405 puede almacenar ambos vectores de movimiento hacia delante y hacia atrás, o almacenar solo el vector de movimiento hacia delante, si se codifica un bloque actual por referencia bi-predictiva o en el modo directo. Si solo se almacena el vector de movimiento hacia delante, el volumen de memoria de la unidad de almacenamiento de vectores de movimiento 1406 se puede reducir.
(Tercera realización)
45 Si un programa para la realización de las estructuras del método de codificación de imágenes en movimiento o el método de decodificación de imágenes en movimiento como se ha mostrado en las realizaciones anteriores se graba sobre un medio de memoria tal como un disco flexible, se hace posible realizar el procesamiento como se muestra en estas realizaciones fácilmente en un sistema de ordenador independiente.
La Fig. 17 es una ilustración que muestra el caso donde se realiza el procesamiento en un sistema de ordenador usando un disco flexible que almacena el método de codificación de imágenes en movimiento o el método de decodificación de imágenes en movimiento de las realizaciones anteriores.
La Fig. 17B muestra una vista frontal y una vista de la sección transversal de una apariencia de disco flexible, y el
55 propio disco flexible, y la Fig. 17A muestra un ejemplo de un formato físico de un disco flexible como un cuerpo de medio de grabación. El disco flexible FD está contenido en una caja F, y una pluralidad de pistas Tr están formadas concéntricamente sobre la superficie del disco en la dirección del radio desde la periferia y cada una de las pistas está dividida en 16 sectores Se en la dirección angular. Por lo tanto, en cuanto al disco flexible de almacenamiento del programa mencionado anteriormente, el método de codificación de imágenes en movimiento como el programa se graba en un área asignada para el mismo sobre el disco flexible FD.
La Fig. 17C muestra la estructura para la grabación y reproducción del programa sobre y desde el disco flexible FD. Cuando se graba el programa sobre el disco flexible FD, el método de codificación de imágenes en movimiento o el método de decodificación de imágenes en movimiento como un programa se escribe en el disco flexible desde el 65 sistema de ordenador Cs a través de un controlador de disco flexible. Cuando el método de codificación de imágenes en movimiento se construye en el sistema de ordenador por el programa sobre el disco flexible, el
imagen23
programa se lee desde el controlador de disco flexible y se transfiere al sistema de ordenador.
La explicación anterior se realiza en el supuesto de que el medio de grabación es un disco flexible, pero también se puede realizar el mismo procesamiento usando un disco óptico. Además, el medio de grabación no está limitado a 5 un disco flexible o un disco óptico, sino que se puede usar cualquier otro medio tal como una tarjeta de IC y una casete ROM capaz de la grabación de un programa.
A continuación está la explicación de las aplicaciones del método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento como se muestra en las realizaciones anteriores y el sistema que los usa.
La Fig. 18 es un diagrama de bloques que muestra la configuración global de un sistema de suministro de contenidos ex100 para la realización del servicio de distribución de contenidos. El área para proporcionar el servicio de comunicaciones está dividido en células del tamaño deseado, y las estaciones base ex107 -ex110 que son
15 estaciones inalámbricas fijas que están situadas en las células respectivas.
En este sistema de suministro de contenidos ex100, dispositivos tales como un ordenador ex111, una PDA (asistente digital personal) ex112, una cámara ex113, un teléfono móvil ex114, y un teléfono móvil equipado con cámara ex115 se conectan a la Internet ex101 a través de un proveedor del servicio de Internet ex102, una red telefónica ex104 y las estaciones base ex107 -ex110.
Sin embargo el sistema de suministro de contenidos ex100 no está limitado a la configuración como se muestra en la Fig. 18, y se puede conectar una combinación de cualquiera de los mismos. También, se puede conectar cada dispositivo directamente a la red telefónica ex104, no a través de las estaciones base ex107 -ex110.
25 La cámara ex113 es un dispositivo tal como una cámara de video digital capaz de capturar imágenes en movimiento. El teléfono móvil puede ser un teléfono móvil de un sistema PDC (Comunicaciones Digitales Personales), un sistema CDMA (Acceso Múltiple por División de Códigos), un sistema W-DCMA (Acceso Múltiple por División de Códigos de Banda Ancha) o un sistema GSM (Sistema Global para las Comunicaciones Móviles), un sistema PHS (Sistema de Handyphone) o similares.
Un servidor de descarga continua ex103 está conectado a la cámara ex113 a través de la estación base ex109 y la red telefónica ex104, que posibilita la distribución en directo o similar usando la cámara ex113 en base a los datos codificados transmitidos desde un usuario. Cualquiera de la cámara ex113 o el servidor para la transmisión de los
35 datos puede codificar los datos. También, los datos de imágenes en movimiento capturados por la cámara ex116 se pueden transmitir por el servidor de descarga continua ex103 a través del ordenador ex111. La cámara ex116 es un dispositivo tal como una cámara digital capaz de capturar imágenes fijas o imágenes en movimiento. Cualquiera de la cámara ex116 o el ordenador ex111 pueden codificar los datos de imágenes en movimiento. Un LSI ex117 incluido en el ordenador ex111 o la cámara ex116 realiza realmente el procesamiento de codificación. El software para la codificación y la decodificación de las imágenes en movimiento se pueden integrar dentro de cualquier tipo de medio de almacenamiento (tal como un CD-ROM, un disco flexible y un disco duro) que sea un medio de grabación que sea legible por el ordenador ex111 o similar. Además un teléfono móvil equipado con cámara ex115 puede transmitir los datos de imágenes en movimiento. Estos datos de imágenes en movimiento son los datos codificados por el LSI incluido en el teléfono móvil ex115.
45 El sistema de suministro de contenidos ex100 codifica los contenidos (tales como un video de música en directo) capturados por los usuarios usando la cámara ex113, la cámara ex116 o similares del mismo modo que la realización anterior y los transmite al servidor de descarga continua ex103, mientras que el servidor de descarga continua ex103 realiza la distribución del flujo de los datos de contenidos a los clientes a petición. Los clientes incluyen el ordenador ex111, la PDA ex112, la cámara ex113, el teléfono móvil ex114 y así sucesivamente capaces de decodificar los datos codificados mencionados anteriormente. En el sistema de suministro de contenidos ex100, los clientes pueden de este modo recibir y reproducir los datos codificados y además pueden recibir, decodificar y reproducir los datos en tiempo real de modo que se realiza la difusión personal.
55 Cuando cada dispositivo en el sistema que realza la codificación o la decodificación, se pueden usar el aparato de codificación de imágenes en movimiento o el aparato de decodificación de imágenes en movimiento, como se ha mostrado en la realización mencionada anteriormente.
Se explicará un teléfono móvil como un ejemplo de dispositivo.
La Fig. 19 es un diagrama que muestra el teléfono móvil ex115 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento explicados en las realizaciones anteriores. El teléfono móvil ex115 tiene una antena ex201 para enviar y recibir ondas de radio hacia y desde la estación base ex110, una unidad de cámara ex203 tal como una cámara CCD capaz de capturar video e imágenes fijas, una
65 unidad de pantalla ex202 tal como una pantalla de cristal líquido para representar los datos obtenidos por decodificación del video y similares capturados por la unidad de cámara ex203 y recibidos por la antena ex201, un cuerpo de la unidad incluyendo un conjunto de teclas de operación ex204, una unidad de salida de voz ex208 tal como un altavoz para sacar las voces, una entrada de voz 205 tal como un micrófono para voces entrantes, un medio de almacenamiento ex207 para almacenamiento de los datos codificados o decodificados tal como los datos de imágenes fijas o en movimiento capturadas por la cámara, datos de texto y datos de imágenes fijas o en
imagen24
5 movimiento de email recibidos, y una unidad de ranura ex206 para conexión del medio de almacenamiento ex207 al teléfono móvil ex115. El medio de almacenamiento ex207 incluye un elemento de memoria flash, una clase de EEPROM (Memoria de Solo Lectura Programable y Borrable Eléctricamente) que es una memoria no volátil regrabable y borrable eléctricamente y una caja plástica tal como una tarjeta SD.
El teléfono móvil ex115 se explicará adicionalmente con referencia a la Fig. 20. En el teléfono móvil ex115, una unidad de control principal ex311 para el control global de la unidad de pantalla ex202 y un cuerpo de la unidad que incluye las teclas de operación ex204 está conectada a una unidad del circuito de suministro de alimentación eléctrica ex310, una unidad de control de la entrada de operación ex304, una unidad de codificación de imágenes ex312, una unidad de interfaz de cámara ex303, una unidad de control de LCD (Pantalla de Cristal Líquido) ex302,
15 una unidad de decodificación de imágenes ex309, una unidad de multiplexación / demultiplexación ex308, una unidad de grabación / reproducción ex307, una unidad de circuito de módem ex306, y una unidad de procesamiento de voz ex305 para cada uno de a través de un bus síncrono ex313.
Cuando se activa una tecla de final de llamada o una tecla de encendido por una operación del usuario, la unidad del circuito de alimentación de potencia ex310 suministra a las unidades respectivas con alimentación desde un pack de batería de modo que se activa el teléfono móvil digital equipado con cámara ex115 para hacerle entrar en el estado de preparado.
En el teléfono móvil ex115, la unidad de procesamiento de voz ex305 convierte las señales de voz recibidas por la
25 unidad de entrada de voz ex305 en el modo de conversación, en datos de voz digitales bajo el control de la unidad de control principal ex311 incluyendo una CPU, ROM y RAM, la unidad de circuito de módem ex306 realiza el procesamiento del espectro expandido de los datos de voz digitales, la unidad del circuito de envío / recepción ex301 realiza la conversión de digital a analógico y la transformada de frecuencia de los datos, de modo que se transmiten a través de la antena ex201. También, en el teléfono móvil ex115, después de que los datos recibidos por la antena ex201 en el modo de conversación se amplifican y se realiza la transformada de frecuencia y la conversión de analógico a digital, la unidad de circuito de módem ex306 realiza el procesamiento del espectro de expansión inversa de los datos y la unidad de procesamiento de voz ex305 convierte a datos de voz analógicos, de modo que los saca a través de la unidad de salida de voz 208.
35 Además, cuando se transmite un email en el modo de comunicación de datos, los datos de texto del e-mail introducidos operando sobre las teclas de operación ex204 sobre el cuerpo de la unidad se envían a la unidad de control principal ex311 a través de la unidad de control de entrada de operación ex304. En la unidad de control principal ex311, después de que la unidad de circuito de módem ex306 realiza el procesamiento del espectro expandido de los datos de texto y la unidad de del circuito de envío / recepción ex301 realiza la conversión de digital a analógico y la transformada de frecuencia para los mismos, los datos se transmiten a la estación base ex110 a través de la antena ex201.
Cuando los datos de imagen se transmiten en el modo de comunicación de datos, los datos de imagen capturados por la unidad de cámara ex203 se suministran a la unidad de codificación de imágenes ex312 a través de la unidad
45 de interfaz de cámara ex303. Cuando no se transmiten, también es posible representar los datos de imagen capturados por la unidad de cámara ex203 directamente sobre la unidad de pantalla a través de la unidad de interfaz de cámara ex303 y la unidad de control de LCD ex302.
La unidad de codificación de imágenes ex312, que incluye el aparato de codificación de imágenes en movimiento como se ha explicado en la presente invención, comprime y codifica los datos de imagen suministrados desde la unidad de cámara ex203 por el método de codificación usado para el aparato de codificación de imágenes en movimiento como se muestra en la realización anterior de modo que los transforma en datos de imagen codificados y los envía a la unidad de multiplexación / demultiplexación ex308. En este momento, el teléfono móvil ex115 envía las voces recibidas por la unidad de entrada de voz ex205 durante la captura por la unidad de cámara ex203 a la
55 unidad de multiplexación / demultiplexación ex308 como datos de voz digital a través de la unidad de procesamiento de voz ex305.
La unidad de multiplexación / demultiplexación ex308 multiplexa los datos de imagen codificados suministrados desde la unidad de codificación de imágenes ex312 y los datos de voz suministrados desde la unidad de procesamiento de voz ex305 por un método predeterminado, la unidad de circuito de módem ex306 realiza el procesamiento de espectro expandido de los datos multiplexados obtenidos como un resultado de la multiplexación, y la unidad de circuito de envío / recepción ex301 realiza la conversión de digital a analógico y la transformada de frecuencia de los datos para su transmisión a través de la antena ex201.
65 En cuanto a la recepción de datos de un fichero de imágenes de movimiento que está enlazado a una página Web o similar en el modo de comunicación de datos, la unidad de circuito de módem ex306 realiza el procesamiento del espectro expandido inverso de los datos recibidos desde la estación base ex110 a través de la antena, ex201, y envía los datos multiplexados obtenidos como resultado del procesamiento a la unidad de multiplexación / demultiplexación ex308.
imagen25
5 Para decodificar los datos multiplexados recibidos a través de la antena ex201, la unidad de multiplexación / demultiplexación ex308 separa los datos multiplexados dentro de un flujo de bits de datos de imagen y un flujo de bits de datos de voz y suministra los datos de imagen codificados a la unidad de decodificación de imágenes ex309 y los datos de voz a la unidad de procesamiento de voz ex305 respectivamente a través del bus síncrono ex313.
10 A continuación, la unidad de decodificación de imágenes ex309, que incluye el aparato de decodificación de imágenes en movimiento como se ha explicado en la presente invención, decodifica el flujo de bits de los datos de imagen por el método de decodificación correspondiente al método de codificación como se muestra en la realización mencionada anteriormente para generar datos de imágenes en movimiento reproducidos y suministra estos datos a la unidad de pantalla ex202 a través de la unidad de control de LCD ex302 y de este modo se
15 representan los datos de imágenes en movimiento incluidos en un fichero de imágenes en movimiento enlazado con una página Web, por ejemplo. Al mismo tiempo, la unidad de procesamiento de voz ex305 convierte los datos de voz en datos de voz analógica, y suministra estos datos a la unidad de salida de voz ex208, y de ese modo se reproducen los datos de voz incluidos en un fichero de imágenes en movimiento enlazado con una página Web, por ejemplo.
20 La presente invención no está limitada al sistema mencionado anteriormente, y al menos cualquiera de un aparato de codificación de imágenes en movimiento o un aparato de decodificación de imágenes en movimiento en la realización mencionada anteriormente se puede incorporar a un sistema de difusión digital como se muestra en la Fig. 21. Tal difusión digital basada en tierra o satélite ha estado en las noticias últimamente. Más específicamente,
25 un flujo de bits de información de video se transmite desde una estación de difusión ex409 a un satélite de difusión ex410 o se comunica con el mismo a través de ondas de radio. Una vez recibidas, el satélite de difusión ex410 transmite ondas de radio para su difusión, una antena de uso doméstico ex406 con una función de recepción de difusión de satélite recibe las ondas de radio, y un televisor (receptor) ex401 o decodificador de televisión digital (STB) ex407 decodifica el flujo de bits para su reproducción. El aparato de decodificación de imágenes en
30 movimiento como se muestra en la realización mencionada anteriormente se puede implementar en el dispositivo de reproducción ex403 para leer y decodificar el flujo de bits grabado sobre un medio de almacenamiento ex402 que es un medio de grabación tal como un CD y un DVD. En este caso, las señales de video reproducidas se representan sobre un monitor ex404. También se concibe implementar el aparato de decodificación de imágenes en movimiento en el decodificador de televisión digital ex407 conectado al cable ex405 para una televisión por cable o la antena
35 ex406 para la difusión de satélite y/o basada en tierra de modo que las reproduce sobre un monitor ex408 del televisor ex401. El aparato de decodificación de imágenes en movimiento se puede incorporar dentro de la televisión, no en el decodificador de televisión digital. O un coche ex412 que tiene una antena ex411 puede recibir señales desde el satélite ex410 o la estación base ex107 para reproducir imágenes en movimiento sobre un dispositivo de representación tal como un sistema de navegación del coche ex413.
40 Además, el aparato de codificación de imágenes en movimiento como se muestra en la realización mencionada anteriormente puede codificar señales de imágenes para grabar sobre un medio de grabación. Como un ejemplo concreto, hay un grabador ex420 tal como un grabador de DVD para grabar señales de imágenes sobre un disco DVD ex421 y un grabador de disco para grabarlas sobre un disco duro. Se pueden grabar sobre una tarjeta SD
45 ex422. Si el grabador ex420 incluye el aparato de decodificación de imágenes en movimiento como se muestra en la realización mencionada anteriormente, las señales de imagen grabadas sobre el disco DVD ex421 o la tarjeta SD ex422 se pueden reproducir para representar sobre el monitor ex408.
Como la estructura del sistema de navegación de coche ex413, la estructura sin la unidad de cámara ex203, la
50 unidad de interfaz de cámara ex303 y la unidad de codificación de imágenes ex312, fuera de las unidades mostradas en la fig. 20 es concebible. Lo mismo vale para el ordenador ex111, el televisor (receptor) ex401 y otros.
Además, se pueden concebir tres tipos de implementaciones para un terminal tal como el teléfono móvil mencionado anteriormente ex114; un terminal de envío / recepción que incluye tanto un codificador como un decodificador, un
55 terminal de envío incluyendo solo un codificador y un terminal de recepción incluyendo solo un decodificador.
Como se ha descrito anteriormente, es posible usar el método de codificación de imágenes en movimiento o el método de decodificación de imágenes en movimiento en las realizaciones mencionadas anteriormente en cualquiera de los aparatos y sistemas mencionados anteriormente y que usan este método, se pueden obtener los
60 efectos descritos en las realizaciones anteriores.
Como se ha descrito anteriormente, de acuerdo con el método de codificación de imágenes en movimiento de la presente invención, se pueden codificar imágenes B usando imágenes que están temporalmente próximas en el orden de representación como imágenes de referencia. En consecuencia, la eficiencia de la predicción para la
65 compensación de movimiento se mejora y de ese modo se mejora la eficiencia de la codificación.
imagen26
En el modo directo, escalando un primer vector de movimiento de una segunda imagen de referencia, no hay necesidad de transmitir la información del vector de movimiento y de este modo se puede mejorar la eficiencia de la predicción.
5 De forma similar, en el modo directo, escalando un primer vector de movimiento usado sustancialmente para la codificación del modo directo de la segunda imagen de referencia, no hay necesidad de transmitir la información del vector de movimiento, y se puede mejorar la eficiencia de la predicción incluso si un bloque localizado conjuntamente en la segunda imagen de referencia se codifica en el modo directo.
También en el modo directo, escalando un segundo vector de movimiento que se ha usado para la codificación de un bloque localizado conjuntamente en una segunda imagen de referencia, no hay necesidad de transmitir la información del vector de movimiento, y se puede mejorar la eficacia de la predicción incluso si el bloque localizado conjuntamente en la segunda imagen de referencia solo tiene un segundo vector de movimiento.
15 Además, en el modo directo, fijando de forma forzosa un vector de movimiento en el modo directo para que sea "0" cuando se selecciona el modo directo, no hay necesidad de transmitir la información del vector de movimiento ni escalar el vector de movimiento, y de ese modo se puede reducir el volumen de procesamiento.
También en el modo directo, escalando un vector de movimiento de una imagen P posterior, no hay necesidad de almacenar un vector de movimiento de una segunda imagen de referencia cuando la segunda imagen de referencia es una imagen B. Y no hay necesidad de transmitir la información del vector de movimiento, y la eficacia de la predicción se puede mejorar.
Además, en el modo directo, como un primer vector de movimiento se escala si una segunda imagen de referencia
25 tiene el primer vector de movimiento y un segundo vector de movimiento se escala si la segunda imagen de referencia no tiene el primer vector de movimiento sino solo el segundo vector de movimiento, no hay necesidad de añadir información del vector de movimiento a un flujo de bits y la eficiencia de la predicción se puede mejorar.
Además, de acuerdo con el método de decodificación de imágenes en movimiento de la presente invención un flujo de bits, que se genera como resultado de la codificación bi-predicción entre imágenes usando imágenes que están localizadas temporalmente cerca en el orden de representación como las imágenes de referencia primera y segunda se pueden decodificar adecuadamente.
Aplicabilidad industrial
35 Como se ha descrito anteriormente, el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento de acuerdo con la presente invención son útiles como un método para codificar datos de imagen correspondientes a imágenes que forman una imagen en movimiento para generar un flujo de bits y un método para decodificar el flujo de bits generado, usando un teléfono móvil, un aparato de DVD y un ordenador personal, por ejemplo.
A continuación sigue una lista de realizaciones adicionales de la invención
Realización 1: un método de codificación de imágenes en movimiento para la codificación de datos de imagen
45 correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el método de codificación de imágenes en movimiento:
una etapa de codificar para la codificación de una imagen actual como una de, una imagen I, una imagen P y una imagen B, teniendo la imagen I solo bloques que se codifican intra imagen, teniendo la imagen P un bloque que se codifica por predicción entre imágenes con una referencia uni-predictiva que usa una imagen codificada anteriormente como una primera imagen de referencia y teniendo la imagen B un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, en el que la etapa de codificación incluye una etapa de control para la determinación del orden de codificación
55 que es diferente del orden de representación para las imágenes B consecutivas localizadas entre imágenes I e imágenes P.
Realización 2: el método de codificación de imágenes en movimiento con las características de la realización 1,
en el que la etapa de codificación incluye además una etapa de selección para seleccionar una imagen de referencia temporalmente más próxima a la imagen B en el orden de representación como al menos una de la primera imagen de referencia y la segunda imagen de referencia para la codificación de la imagen B.
Realización 3: el método de codificación de imágenes en movimiento con las características de la realización 1, 65 en el que en la etapa de control, el orden de codificación para las imágenes B se determina de modo que la
imagen27
imagen B cuya distancia temporal desde la imagen codificada anteriormente es la más lejana en el orden de representación se codifica por prioridad.
Realización 4: el método de codificación de imágenes en movimiento con las características de la realización 1,
5 en el que en la etapa de control, el orden de codificación para las imágenes B se determina de modo que la imagen B cuya distancia temporal desde la imagen codificada anteriormente es la más próxima en el orden de representación se codifica por prioridad.
10 Realización 5: el método de codificación de imágenes en movimiento con las características de la realización 3 o la realización 4,
en el que la distancia temporal es una diferencia especificada por la información que indica el orden de representación de las imágenes.
15 Realización 6: un método de codificación de imágenes en movimiento para la codificación de datos de imágenes correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el método de codificación de imágenes en movimiento:
20 una etapa de codificar para la codificación de una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando las imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, en el que en la etapa de codificación, cuando hay un bloque actual A en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque actual A se realiza usando vectores de
25 movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, los vectores de movimiento para la realización de la compensación del movimiento del bloque A actual se obtienen escalando un primer vector de movimiento, en base a una primera imagen de referencia, de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque actual A, usando una diferencia
30 especificada por la información que indica el orden de representación de las imágenes.
Realización 7: un método de codificación de imágenes en movimiento para la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el método de codificación de imágenes en movimiento:
35 una etapa de codificar para la codificación de una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando las imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, en el que en la etapa de codificación, cuando hay un bloque actual A en una imagen B actual se codifica en el
40 modo directo por lo que la compensación de movimiento del bloque actual A se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, los vectores de movimiento para la realización de la compensación del movimiento del bloque A actual se obtienen escalando un segundo vector de movimiento, en base a una segunda imagen de referencia, de un
45 bloque B localizado conjuntamente en la segunda imagen de referencia del bloque actual A, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 8: un método de codificación de imágenes en movimiento para la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo 50 el método de codificación de imágenes en movimiento:
una etapa de codificar para la codificación de una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando las imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia,
55 en el que en la etapa de codificación, cuando hay un bloque actual A en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque actual A se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, si un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual se codifica
60 anteriormente en el modo directo, los vectores de movimiento para la realización de la compensación de movimiento del bloque actual A se obtienen escalando un primer vector de movimiento, en base a una primera imagen de referencia del bloque B, usada sustancialmente para la codificación del bloque B en la segunda imagen de referencia, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
65 Realización 9: un método de codificación de imágenes en movimiento para la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el método de codificación de imágenes en movimiento:
imagen28
5 una etapa de codificar para la codificación de una imagen actual como una imagen P y una imagen B, teniendo la imagen P un bloque que se codifica por predicción entre imágenes con referencia uni-predictiva usando una imagen codificada anteriormente como una primera imagen de referencia, y teniendo la imagen B un bloque que está codificado por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia,
10 en el que en la etapa de codificación, cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, los vectores de movimiento para la realización de la compensación de movimiento del bloque actual A se
15 obtienen escalando un primer vector de movimiento, en base a una primera imagen de referencia, de un bloque B localizado conjuntamente en una imagen P temporalmente posterior, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 10: un método de codificación de imágenes en movimiento para la codificación de datos de imagen 20 correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el método de codificación de imágenes en movimiento:
una etapa de codificar para la codificación de una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas
25 anteriormente como una primera imagen de referencia y una segunda imagen de referencia. en el que en la etapa de codificación cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente,
30 la compensación de movimiento se realiza usando los vectores de movimiento obtenidos escalando un vector de movimiento seleccionado de entre los vectores de movimiento del bloque codificado anteriormente usando una diferencia especificada por la información que indica el orden de representación de las imágenes, y la información que indica el vector de movimiento seleccionado se añade al flujo de bits.
35 Realización 11: un método de codificación de imágenes en movimiento para la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el método de codificación de imágenes en movimiento:
una etapa de codificar para la codificación de una imagen actual como una imagen B que tiene un bloque que se
40 codifica por predicción entre imágenes por referencia bi-predictiva usando imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia. en el que en la etapa de codificación, cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado
45 anteriormente, los vectores de movimiento para la realización de la compensación de movimiento del bloque actual A se obtienen escalando un primer vector de movimiento si el bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual se codifica usando al menos el primer vector de movimiento en base a una primera imagen de referencia del bloque B, y escalando un segundo vector de movimiento si el bloque B se
50 codifica usando solo el segundo vector de movimiento en base a una segunda imagen de referencia del bloque B, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 12: el método de codificación de imágenes en movimiento con las características de una de la realización 6 SIMILAR a la realización 11,
55 en el que en la etapa de codificación, cuando el bloque A actual se codifica por predicción entre imágenes con una referencia bi-predictiva o en el modo directo, solo se almacena el primer vector de movimiento basado en la primera imagen de referencia.
60 Realización 13: el método de codificación de imágenes en movimiento con las características de una de la realización 1 SIMILAR a la realización 12,
en el que la primera imagen de referencia se identifica por un primer índice relativo para la identificación de una imagen de referencia, y la segunda imagen de referencia se identifica por un segundo índice relativo para la 65 identificación de una imagen de referencia.
imagen29
5 una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual se decodifica por predicción entre imágenes con una referencia bi-predictiva usando las imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un flujo de bits incluyendo al menos la imagen que
10 está temporalmente más próxima de la imagen actual en el orden de representación, como la primera imagen de referencia o la segunda imagen de referencia.
Realización 15: un método de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en 15 movimiento, comprendiendo el método de decodificación de imágenes en movimiento:
una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual es una imagen que tiene un bloque que se
20 decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un bloque A actual en el modo directo por lo que la compensación del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento del bloque decodificado anteriormente,
25 los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual se obtienen escalando un primer vector de movimiento, en base a una primera imagen de referencia de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
30 Realización 16: un método de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el método de decodificación de imágenes en movimiento:
una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una
35 imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un bloque A actual en el modo directo por lo que la compensación del bloque A actual se realiza usando vectores de
40 movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual se obtienen escalando un segundo vector de movimiento, en base a una segunda imagen de referencia de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual, usando una
45 diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 17: un método de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imágenes correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el método de decodificación de imágenes en movimiento:
50 una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas
55 anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un bloque A actual en el modo directo por lo que la compensación del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, si un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual se decodifica
60 anteriormente en el modo directo, los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual se obtienen escalando un primer vector de movimiento, en base a una primera imagen de referencia del bloque B, usada sustancialmente para la decodificación del bloque B en la segunda imagen de referencia, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
65
imagen30
5 una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un bloque A actual en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual se obtienen escalando un primer vector de movimiento, en base a una primera imagen de referencia de un bloque B
15 localizado conjuntamente en una imagen temporalmente posterior, usando una diferencia especificada por la información que indica el orden de representación de las imágenes, decodificándose la imagen posterior por predicción entre imágenes con una referencia uni-predictiva usando una imagen decodificada anteriormente como una primera imagen de referencia.
Realización 19: un método de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el método de decodificación de imágenes en movimiento:
una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una
25 imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un bloque A actual en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual se obtienen escalando un vector de movimiento obtenido en base a la información adquirida a partir del flujo de bits que indica qué vector de movimiento se seleccionará de entre los vectores de movimiento del bloque
35 decodificado anteriormente, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 20: un método de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el método de decodificación de imágenes en movimiento:
una etapa de decodificar para la decodificación de una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que en la etapa de decodificación, cuando la imagen actual es una imagen que tiene un bloque que se
45 decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, se decodifica un bloque A actual en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual se obtienen escalando un primer vector de movimiento si un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual se decodifica usando al menos el primer vector de movimiento en base a la primera imagen de referencia del bloque B, y escalando un segundo vector de movimiento si el bloque B se decodifica usando solo el segundo vector de movimiento en base a una segunda imagen de referencia del
55 bloque B, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 21: el método de decodificación de imágenes en movimiento con las características de una de la realización 15 SIMILAR a la realización 20,
en el que en la etapa de decodificación, cuando el bloque A actual se decodifica por la predicción entre imágenes con una referencia bi-predictiva o en el modo directo, solo se almacena el primer vector de movimiento basado en la primera imagen de referencia.
65 Realización 22: el método de decodificación de imágenes en movimiento con las características de una de la realización 14 SIMILAR a la realización 21, en el que la primera imagen de referencia se identifica por un primer índice relativo para la identificación de una imagen de referencia, y la segunda imagen de referencia se identifica por un segundo índice relativo para la identificación de la imagen de referencia
imagen31
5 Realización 23: un aparato de codificación de imágenes en movimiento para la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el aparato de codificación de imágenes en movimiento:
una unidad de codificación operable para codificar una imagen actual como una de una imagen I, una imagen P y
10 una imagen B, teniendo la imagen I solo bloques que se codifican intra imagen, teniendo la imagen P un bloque que se codifica por predicción entre imágenes con una referencia uni-predictiva que usa una imagen codificada anteriormente como una primera imagen de referencia y teniendo la imagen B un bloque que se codifica por predicción entre imágenes codificada con una referencia bi-predictiva usando imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia,
15 en el que la unidad de codificación incluye una unidad de control operable para la determinación del orden de codificación que es diferente del orden de representación para las imágenes B consecutivas localizadas entre imágenes I e imágenes P.
Realización 24: un aparato de codificación de imágenes en movimiento para la codificación de datos de imagen
20 correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el aparato de codificación de imágenes en movimiento:
una unidad de codificación operable para codificar una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas
25 anteriormente como una primera imagen de referencia y una segunda imagen de referencia. en el que cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, la unidad de codificación obtiene los vectores de movimiento para la realización de la compensación de
30 movimiento del bloque actual A escalando un primer vector de movimiento, en base a una primera imagen de referencia, de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 25: un aparato de codificación de imágenes en movimiento para la codificación de datos de imagen
35 correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el aparato de codificación de imágenes en movimiento:
una unidad de codificación operable para codificar una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas
40 anteriormente como una primera imagen de referencia y una segunda imagen de referencia. en el que cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, la unidad de codificación obtiene los vectores de movimiento para la realización de la compensación de
45 movimiento del bloque actual A escalando un segundo vector de movimiento, en base a una segunda imagen de referencia, de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 26: un aparato de codificación de imágenes en movimiento para la codificación de datos de imagen
50 correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el aparato de codificación de imágenes en movimiento:
una unidad de codificación operable para codificar una imagen actual como una imagen B que tiene un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas
55 anteriormente como una primera imagen de referencia y una segunda imagen de referencia. en el que cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, si un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual se codifica
60 anteriormente en el modo directo, la unidad de codificación obtiene los vectores de movimiento para la realización de la compensación de movimiento del bloque actual A escalando un primer vector de movimiento, en base a una primera imagen de referencia del bloque B, usada sustancialmente para la codificación del bloque B en la segunda imagen de referencia, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
65
imagen32
5 una unidad de codificación operable para codificar una imagen actual como una de una imagen P y una imagen B, teniendo la imagen P un bloque que se codifica por predicción entre imágenes con una referencia unipredictiva que usa una imagen codificada anteriormente como una primera imagen de referencia, y teniendo la imagen B un bloque que se codifica por predicción entre imágenes con una referencia bi-predictiva que usa imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de
10 referencia, en el que cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente, la unidad de codificación obtiene los vectores de movimiento para la realización de la compensación de
15 movimiento del bloque actual A escalando un primer vector de movimiento, en base a una primera imagen de referencia, de un bloque B localizado conjuntamente en una imagen P temporalmente posterior, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
20 Realización 28: un aparato de codificación de imágenes en movimiento para la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento y que generan un flujo de bits, comprendiendo el aparato de codificación de imágenes en movimiento:
una unidad de codificación operable para codificar una imagen actual como una imagen B que tiene un bloque
25 que se codifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes codificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia. en el que cuando hay un bloque A actual en una imagen B actual se codifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque codificado anteriormente,
30 la unidad de codificación realiza la compensación de movimiento usando los vectores de movimiento obtenidos escalando un vector de movimiento seleccionado de entre los vectores de movimiento del bloque codificado anteriormente, usando una diferencia especificada por la información que indica el orden de representación de las imágenes y añade la información que indica el vector de movimiento seleccionado al flujo de bits.
35 Realización 29: un aparato de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el aparato de decodificación de imágenes en movimiento:
una unidad de decodificación operable para decodificar una imagen actual por predicción entre imágenes usando
40 una imagen decodificada anteriormente como una imagen de referencia, en el que cuando la imagen actual se decodifica por la predicción entre imágenes con una referencia bi-predictiva usando las imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, la unidad de decodificación decodifica un flujo de bits incluyendo al menos una imagen que está temporalmente más próxima a la imagen actual en el orden de representación, como la primera imagen de
45 referencia o la segunda imagen de referencia.
Realización 30: un aparato de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el aparato de decodificación de imágenes en movimiento:
50 una unidad de decodificación operable para decodificar una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera
55 imagen de referencia y una segunda imagen de referencia, un bloque A actual se decodifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, la unidad de decodificación obtiene los vectores de movimiento para la realización de la compensación del movimiento del bloque actual A escalando un primer vector de movimiento, en base a una primera imagen de
60 referencia, de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 31: un aparato de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en 65 movimiento, comprendiendo el aparato de decodificación de imágenes en movimiento:
imagen33
una unidad de decodificación operable para decodificar una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera
5 imagen de referencia y una segunda imagen de referencia, un bloque A actual se decodifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir de un vector de movimiento de un bloque decodificado anteriormente, la unidad de decodificación obtiene los vectores de movimiento para la realización de la compensación del movimiento del bloque actual A escalando un segundo vector de movimiento, en base a una segunda imagen de
10 referencia, de un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual, usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
Realización 32: un aparato de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en 15 movimiento, comprendiendo el aparato de decodificación de imágenes en movimiento:
una unidad de decodificación operable para decodificar una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre
20 imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, un bloque A actual se decodifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, si un bloque B localizado conjuntamente en la segunda imagen de referencia del bloque A actual se decodifica
25 anteriormente en el modo directo, la unidad de decodificación obtiene los vectores de movimiento para la realización de la compensación de movimiento del bloque A actual escalando un primer vector de movimiento, en base a una primera imagen de referencia del bloque B, usado sustancialmente para la decodificación del bloque B en la segunda imagen de referencia, usando una diferencia especificada por la información que indica el orden de representación de las imágenes
30 Realización 33: un aparato de decodificación de imágenes en movimiento para la decodificación de un flujo de bits que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el aparato de decodificación de imágenes en movimiento:
35 una unidad de decodificación operable para decodificar una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia, en el que cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, un bloque A actual se decodifica en el modo directo
40 por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente, la unidad de decodificación obtiene los vectores de movimiento para la realización de la compensación del movimiento del bloque actual A escalando un primer vector de movimiento, en base a una primera imagen de referencia, de un bloque B localizado conjuntamente en una imagen temporalmente posterior, usando una
45 diferencia especificada por la información que indica el orden de representación de las imágenes, decodificándose la imagen posterior por predicción entre imágenes con una referencia uni-predictiva usando una imagen decodificada anteriormente como una primera imagen de referencia.
Realización 34: un aparato de decodificación de imágenes en movimiento para la decodificación de un flujo de bits 50 que se genera por la codificación de datos de imagen correspondientes a imágenes que forman una imagen en movimiento, comprendiendo el aparato de decodificación de imágenes en movimiento:
una unidad de decodificación operable para decodificar una imagen actual por predicción entre imágenes usando una imagen decodificada anteriormente como una imagen de referencia,
55 en el que cuando la imagen actual es una imagen que tiene un bloque que se decodifica por predicción entre imágenes con una referencia bi-predictiva usando imágenes decodificadas anteriormente como una primera imagen de referencia y una segunda imagen de referencia, un bloque A actual se decodifica en el modo directo por lo que la compensación de movimiento del bloque A actual se realiza usando vectores de movimiento del bloque A actual obtenidos a partir del vector de movimiento de un bloque decodificado anteriormente,
60 la unidad de decodificación obtiene los vectores de movimiento para la realización de la compensación del movimiento del bloque actual A escalando un vector de movimiento obtenido en base a la información adquirida a partir del flujo de bits que indica qué vector de movimiento se seleccionará de entre los vectores de movimiento del bloque decodificado anteriormente usando una diferencia especificada por la información que indica el orden de representación de las imágenes.
65
imagen34

Claims (5)

  1. imagen1
    REIVINDICACIONES
    1. Un método de codificación para codificar una imagen, comprendiendo dicho método de codificación:
    5 una etapa de codificación para la determinación de un vector de movimiento para el bloque actual a codificar, en base a un vector de movimiento de un bloque localizado conjuntamente que es un bloque incluido dentro de una imagen codificada anteriormente y localizado conjuntamente con el bloque actual, y codificar el bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo usando el vector de movimiento para el bloque actual y una imagen de referencia que corresponde al vector de movimiento para el
    10 bloque actual, en el que dicha etapa de codificación está caracterizada por en el caso donde el bloque localizado conjuntamente se haya codificado usando un vector de movimiento y una imagen de referencia hacia atrás que corresponde al vector de movimiento, generar dos vectores de movimiento a usar para la codificación del bloque actual realizando la compensación de
    15 movimiento sobre el bloque actual en el modo directo, escalando, usando una diferencia entre la información que indica el orden de representación de las imágenes, usado el vector de movimiento para codificar el bloque localizado conjuntamente; y codificar el bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo usando los dos vectores de movimiento generados para el bloque actual y dos imágenes de referencia que
    20 corresponden respectivamente a los dos vectores de movimiento generados,
  2. 2. El método de codificación de acuerdo con la reivindicación 1, en el que las dos imágenes de referencia que corresponden respectivamente a los dos vectores de movimiento para el bloque actual son una primera imagen de referencia y una segunda imagen de referencia.
    25 la primera imagen de referencia es la imagen codificada anteriormente incluyendo el bloque localizado conjuntamente, y la segunda imagen de referencia es la imagen de referencia hacia atrás usada para la codificación del bloque localizado conjuntamente y corresponde al vector de movimiento escalado para la generación de los dos vectores de movimiento para el bloque actual.
    30
  3. 3. El método de decodificación de acuerdo con la reivindicación 2, en el que las informaciones que indican el orden de representación de las imágenes son: la primera información que indica una posición en el orden de representación de la imagen que incluye el bloque actual; la segunda información que indica una posición en el orden de representación de la segunda imagen de
    35 referencia para el bloque actual; y la tercera información que indica una posición en el orden de representación de la primera imagen de referencia para el bloque actual que es también la imagen que incluye el bloque localizado conjuntamente, y las diferencias entre las informaciones son una diferencia entre la primera información y la segunda información, una diferencia entre la primera información y la tercera información y una diferencia entre la segunda información y la
    40 tercera información.
  4. 4. Un aparato de codificación que codifica una imagen, comprendiendo dicho aparato de codificación: una unidad de codificación operable para determinar un vector de movimiento para un bloque actual a codificar, en base a un vector de movimiento de un bloque localizado conjuntamente que es un bloque incluido dentro de una
    45 imagen codificada anteriormente y localizada conjuntamente con el bloque actual y para codificar el bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo usando el vector de movimiento para el bloque actual y una imagen de referencia que corresponde al vector de movimiento para el bloque actual, caracterizado porque
    50 en el caso donde el bloque localizado conjuntamente se haya codificado usando un vector de movimiento y una imagen de referencia hacia atrás que corresponde al vector de movimiento, siendo la imagen de referencia hacia atrás una imagen de referencia localizada después de una imagen objetivo a codificar en el orden de representación. dicha unidad de codificación es operable para generar dos vectores de movimiento a usar para la codificación del bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo, escalando,
    55 usando una diferencia entre la información que indica el orden de representación de las imágenes, el vector de movimiento usado para la codificación del bloque localizado conjuntamente y para codificar el bloque actual realizando la compensación de movimiento sobre el bloque actual en el modo directo usando los dos vectores de movimiento generados para el bloque actual y dos imágenes de referencia que corresponden respectivamente a los dos vectores de movimiento generados.
    60
  5. 5. Un medio de almacenamiento de datos sobre el cual se almacena un programa para la codificación de una imagen, causando dicho programa que un ordenador ejecute la codificación por el método de codificación de acuerdo con una de las reivindicaciones 1 a 3.
    65
    36
ES10182789.7T 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento Expired - Lifetime ES2491095T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2002056919 2002-03-04
JP2002056919 2002-03-04
JP2002118598 2002-04-19
JP2002118598 2002-04-19
JP2002193027 2002-07-02
JP2002193027 2002-07-02

Publications (1)

Publication Number Publication Date
ES2491095T3 true ES2491095T3 (es) 2014-09-05

Family

ID=27792038

Family Applications (9)

Application Number Title Priority Date Filing Date
ES10182775.6T Expired - Lifetime ES2491094T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES10182789.7T Expired - Lifetime ES2491095T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES17177671T Expired - Lifetime ES2719216T3 (es) 2002-03-04 2003-02-26 Procedimiento de codificación de imágenes en movimiento y procedimiento de descodificación de imágenes en movimiento
ES17177672T Expired - Lifetime ES2723725T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES03707082.8T Expired - Lifetime ES2489490T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES10182783.0T Expired - Lifetime ES2588179T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES16156358.0T Expired - Lifetime ES2644048T3 (es) 2002-03-04 2003-02-26 Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento
ES18211538T Expired - Lifetime ES2829621T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES16156344.0T Expired - Lifetime ES2644448T3 (es) 2002-03-04 2003-02-26 Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES10182775.6T Expired - Lifetime ES2491094T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento

Family Applications After (7)

Application Number Title Priority Date Filing Date
ES17177671T Expired - Lifetime ES2719216T3 (es) 2002-03-04 2003-02-26 Procedimiento de codificación de imágenes en movimiento y procedimiento de descodificación de imágenes en movimiento
ES17177672T Expired - Lifetime ES2723725T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES03707082.8T Expired - Lifetime ES2489490T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES10182783.0T Expired - Lifetime ES2588179T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES16156358.0T Expired - Lifetime ES2644048T3 (es) 2002-03-04 2003-02-26 Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento
ES18211538T Expired - Lifetime ES2829621T3 (es) 2002-03-04 2003-02-26 Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES16156344.0T Expired - Lifetime ES2644448T3 (es) 2002-03-04 2003-02-26 Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento

Country Status (18)

Country Link
US (5) US7664180B2 (es)
EP (9) EP3253057B1 (es)
JP (1) JP2004088722A (es)
KR (2) KR100948714B1 (es)
CN (1) CN100474933C (es)
AU (1) AU2003211717C1 (es)
BR (2) BR0303342A (es)
CA (3) CA2762149C (es)
CY (3) CY1115427T1 (es)
DK (6) DK2271109T3 (es)
ES (9) ES2491094T3 (es)
HU (6) HUE052192T2 (es)
MX (1) MXPA03007628A (es)
MY (1) MY139955A (es)
PT (6) PT2271108T (es)
SI (3) SI2271107T1 (es)
TW (2) TWI324889B (es)
WO (1) WO2003075580A1 (es)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100951485B1 (ko) * 2001-11-06 2010-04-07 파나소닉 주식회사 동화상 부호화 방법 및 장치와 동화상 복호화 방법 및 장치
KR100508798B1 (ko) 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
HUE054106T2 (hu) 2002-04-19 2021-08-30 Panasonic Ip Corp America Kép dekódoló eljárás és berendezés
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
KR100693669B1 (ko) * 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US20060013305A1 (en) * 2004-07-14 2006-01-19 Sharp Laboratories Of America, Inc. Temporal scalable coding using AVC coding tools
KR100584603B1 (ko) 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
FR2874292B1 (fr) * 2004-08-10 2007-01-26 Thales Sa Procede de mise en forme de trames d'une sequence video
JP4106070B2 (ja) * 2004-11-26 2008-06-25 松下電器産業株式会社 復号化回路、復号化装置、及び復号化システム
JP4642075B2 (ja) * 2005-04-13 2011-03-02 シャープ株式会社 動画像再生装置
JP4702943B2 (ja) * 2005-10-19 2011-06-15 キヤノン株式会社 画像処理装置及びその方法
WO2007132647A1 (ja) * 2006-05-12 2007-11-22 Panasonic Corporation 動画像復号化装置
JP4712643B2 (ja) * 2006-08-17 2011-06-29 富士通セミコンダクター株式会社 フレーム間予測処理装置、フレーム間予測方法、画像符号化装置及び画像復号装置
JP2008177907A (ja) * 2007-01-19 2008-07-31 Fujitsu Ltd 動画データ復号装置、情報機器、動画データ復号方法および動画データ復号プログラム
JP5100311B2 (ja) * 2007-10-29 2012-12-19 キヤノン株式会社 動画像データ送信方法、通信装置、及びプログラム
JP5332773B2 (ja) 2009-03-18 2013-11-06 ソニー株式会社 画像処理装置および方法
CN102090066A (zh) * 2009-05-13 2011-06-08 松下电器产业株式会社 图像解码装置、集成电路、图像解码方法及图像解码系统
KR20110068792A (ko) 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
US9036692B2 (en) * 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN105025299B (zh) * 2010-01-19 2019-04-16 三星电子株式会社 对图像进行编码/解码的方法和设备
CN102835111B (zh) 2010-01-19 2015-08-12 三星电子株式会社 使用先前块的运动矢量作为当前块的运动矢量来对图像进行编码/解码的方法和设备
KR20120009861A (ko) * 2010-07-22 2012-02-02 에스케이 텔레콤주식회사 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
CN106454379B (zh) * 2010-09-30 2019-06-28 三菱电机株式会社 运动图像编码装置及其方法、运动图像解码装置及其方法
KR101950419B1 (ko) 2010-11-24 2019-02-21 벨로스 미디어 인터내셔널 리미티드 움직임 벡터 산출 방법, 화상 부호화 방법, 화상 복호 방법, 움직임 벡터 산출 장치 및 화상 부호화 복호 장치
CN106851306B (zh) 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
US9560352B2 (en) 2011-01-28 2017-01-31 Sun Patent Trust Image coding method and image decoding method
WO2012114694A1 (ja) * 2011-02-22 2012-08-30 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
WO2012117728A1 (ja) * 2011-03-03 2012-09-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
ES2685945T3 (es) 2011-04-12 2018-10-15 Sun Patent Trust Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento
PT2717573T (pt) 2011-05-24 2018-06-05 Velos Media Int Ltd Método de codificação de imagem, aparelho de codificação de imagem, método de descodificação de imagem, aparelho de descodificação de imagem e aparelho de codificação/descodificação de imagem
PL4007276T3 (pl) 2011-05-27 2023-12-11 Sun Patent Trust Sposób kodowania obrazów, urządzenie do kodowania obrazów, sposób dekodowania obrazów, urządzenie do dekodowania obrazów, i urządzenie do kodowania i dekodowania obrazów
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP5807402B2 (ja) * 2011-06-15 2015-11-10 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
EP4228264A1 (en) 2011-06-23 2023-08-16 Sun Patent Trust Image decoding device, image encoding device
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
RU2603552C2 (ru) * 2011-06-24 2016-11-27 Сан Пэтент Траст Способ декодирования изображения, способ кодирования изображения, устройство декодирования изображения, устройство кодирования изображения и устройство кодирования и декодирования изображения
US9106919B2 (en) 2011-06-24 2015-08-11 Panasonic Intellectual Property Corporation Of America Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
MY169636A (en) 2011-06-27 2019-04-24 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
CN107105254B (zh) 2011-06-28 2020-03-20 太阳专利托管公司 编码方法及编码装置
MX349194B (es) 2011-06-28 2017-07-18 Samsung Electronics Co Ltd Metodo y aparato para codificar y decodificar imagenes utilizando intra-prediccion.
MX2013010892A (es) 2011-06-29 2013-12-06 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
WO2013001748A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
KR102060619B1 (ko) 2011-06-30 2019-12-30 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
EP2728878B1 (en) 2011-06-30 2020-02-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
MX339141B (es) 2011-06-30 2016-05-13 Panasonic Ip Corp America Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
CN102256124B (zh) * 2011-06-30 2013-05-15 杭州海康威视数字技术股份有限公司 一种图像分层编码方法和装置
HUE049138T2 (hu) 2011-07-11 2020-09-28 Sun Patent Trust Kép dekódolási eljárás, kép dekódoló berendezés
US9819963B2 (en) 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
EP3487178A1 (en) 2011-08-03 2019-05-22 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
US20130177084A1 (en) * 2012-01-10 2013-07-11 Qualcomm Incorporated Motion vector scaling in video coding
US10390041B2 (en) * 2012-03-30 2019-08-20 Sun Patent Trust Predictive image coding and decoding using two reference pictures
US9819965B2 (en) 2012-11-13 2017-11-14 Intel Corporation Content adaptive transform coding for next generation video
US9442904B2 (en) * 2012-12-21 2016-09-13 Vmware, Inc. Systems and methods for applying a residual error image
CN104737542B (zh) 2013-01-30 2018-09-25 英特尔公司 用于下一代视频的内容自适应熵编码
JP6156489B2 (ja) * 2013-04-23 2017-07-05 富士通株式会社 画像符号化装置、画像符号化方法、及び撮像装置
KR101789954B1 (ko) * 2013-12-27 2017-10-25 인텔 코포레이션 차세대 비디오 코딩을 위한 콘텐츠 적응적 이득 보상된 예측
US20180288420A1 (en) * 2017-03-30 2018-10-04 Qualcomm Incorporated Zero block detection using adaptive rate model

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0420088A (ja) * 1990-05-14 1992-01-23 Victor Co Of Japan Ltd フレーム間符号化装置
JP3031638B2 (ja) * 1991-01-30 2000-04-10 富士通株式会社 蓄積用動画像符号化方式における補間フレームのベクトル探索方法
JPH05137131A (ja) * 1991-11-13 1993-06-01 Sony Corp フレーム間動き予測方法
JPH0662391A (ja) * 1992-08-10 1994-03-04 Nippon Telegr & Teleph Corp <Ntt> 動画像予測符号化方法
US5329365A (en) * 1993-07-07 1994-07-12 Rca Thomson Licensing Corporation Method and apparatus for providing compressed non-interlaced scanned video signal
JP3513277B2 (ja) 1995-08-29 2004-03-31 シャープ株式会社 映像符号化装置及び映像復号化装置
US5809173A (en) * 1995-04-18 1998-09-15 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression using previous frame DCT coefficients
US5724446A (en) * 1995-04-18 1998-03-03 Advanced Micro Devices, Inc. Video decoder apparatus using non-reference frame as an additional prediction source and method therefor
EP1274253A3 (en) * 1995-08-29 2005-10-12 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
JP2001224036A (ja) 1995-10-18 2001-08-17 Sharp Corp 動画像符号化装置
JP3344577B2 (ja) * 1996-09-09 2002-11-11 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録方法
JP3263807B2 (ja) 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
JPH10126787A (ja) 1996-10-14 1998-05-15 Nec Eng Ltd Pピクチャの予測ベクトルをオフセットベクトルとした双方向予測ベクトル検出回路
US5991447A (en) * 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
SG65064A1 (en) * 1997-04-09 1999-05-25 Matsushita Electric Ind Co Ltd Image predictive decoding method image predictive decoding apparatus image predictive coding method image predictive coding apparatus and data storage media
JP3776735B2 (ja) 1997-04-09 2006-05-17 松下電器産業株式会社 画像予測復号化方法,画像予測復号化装置,画像予測符号化方法,画像予測符号化装置,及びデータ記憶媒体
EP0921688B1 (en) 1997-06-25 2007-08-22 Nippon Telegraph and Telephone Corporation Moving vector predictive coding method and moving vector decoding method, and storage medium stored with moving vector predictive coding program and moving vector decoding program
JPH1169356A (ja) * 1997-08-25 1999-03-09 Mitsubishi Electric Corp 動画像符号化方式及び動画像復号方式
US6807231B1 (en) * 1997-09-12 2004-10-19 8×8, Inc. Multi-hypothesis motion-compensated video image predictor
US6249318B1 (en) * 1997-09-12 2001-06-19 8×8, Inc. Video coding/decoding arrangement and method therefor
US6396874B1 (en) * 1997-11-12 2002-05-28 Sony Corporation Decoding method and apparatus and recording method and apparatus for moving picture data
JP3523481B2 (ja) 1998-02-23 2004-04-26 シャープ株式会社 映像符号化装置及び映像復号化装置並びに映像符号化方法及び映像復号化方法
JP3329768B2 (ja) * 1999-07-05 2002-09-30 日本電信電話株式会社 画像符号化データの再符号化方法およびそのプログラム記録媒体
JP2001045475A (ja) 1999-07-27 2001-02-16 Matsushita Electric Ind Co Ltd 映像信号階層化符号化装置と映像信号階層化復号化装置及びプログラム記録媒体
JP3757088B2 (ja) * 1999-10-26 2006-03-22 日本電気株式会社 動画像符号化装置および方法
GB2362532B (en) 2000-05-15 2004-05-05 Nokia Mobile Phones Ltd Video coding
EP1168342A3 (en) * 2000-06-26 2004-10-06 Matsushita Electric Industrial Co., Ltd. Editing apparatus for an optical disk, computer-readable storage medium, and computer program
JP4245790B2 (ja) 2000-08-29 2009-04-02 オリンパス株式会社 超音波処置具
AUPR208000A0 (en) * 2000-12-15 2001-01-11 80-20 Software Pty Limited Method of document searching
WO2003003248A1 (en) * 2001-06-26 2003-01-09 Sealedmedia Limited Search engine and digital rights management
EP1421518A1 (en) * 2001-08-08 2004-05-26 Quiver, Inc. Document categorization engine
AU2002340138A1 (en) * 2001-10-09 2003-04-22 Joanna Sandorffy System and method for conducting a financial transaction using a communication device
US6738980B2 (en) * 2001-11-15 2004-05-18 Industrial Technology Research Institute Methods and systems for video streaming with VCR functionality
US6980596B2 (en) * 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
ES2545177T3 (es) * 2001-11-21 2015-09-09 Google Technology Holdings LLC Codificación de cuadro/campo adaptativa de nivel de macrobloques para contenido de vídeo digital
CN101715128B (zh) * 2001-11-21 2014-01-01 摩托罗拉移动有限责任公司 对具有多个图像的图像序列进行编码的方法及设备
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
JP5137131B2 (ja) 2008-08-08 2013-02-06 東芝キヤリア株式会社 給湯装置

Also Published As

Publication number Publication date
CA2762149C (en) 2014-09-30
TW200635385A (en) 2006-10-01
EP3051814A1 (en) 2016-08-03
ES2723725T3 (es) 2019-08-30
PT2271108T (pt) 2016-08-17
US7742526B2 (en) 2010-06-22
EP3253057B1 (en) 2019-01-30
EP2271108B1 (en) 2016-05-25
CA2443848A1 (en) 2003-09-12
AU2003211717B9 (en) 2008-03-13
EP2271107A3 (en) 2011-08-10
CA2762075A1 (en) 2003-09-12
BR0303342A (pt) 2004-08-10
HUE052192T2 (hu) 2021-04-28
DK1406450T3 (da) 2014-07-14
US7664180B2 (en) 2010-02-16
EP3054679B1 (en) 2017-07-19
DK2271109T3 (da) 2014-08-25
CY1119479T1 (el) 2018-03-07
MXPA03007628A (es) 2003-12-15
HUE042956T2 (hu) 2019-07-29
CY1115427T1 (el) 2017-01-04
PT1406450E (pt) 2014-07-28
CA2443848C (en) 2012-09-25
CA2762075C (en) 2014-04-08
PT3051814T (pt) 2017-10-04
US20040086044A1 (en) 2004-05-06
CY1115440T1 (el) 2017-01-04
HUE024412T2 (en) 2016-01-28
HUE024411T2 (en) 2016-01-28
KR100923380B1 (ko) 2009-10-23
EP2271108A2 (en) 2011-01-05
SI2271107T1 (sl) 2014-09-30
US20080063060A1 (en) 2008-03-13
EP3051814B1 (en) 2017-07-26
US7801219B2 (en) 2010-09-21
CN1640148A (zh) 2005-07-13
EP1406450B1 (en) 2014-05-28
SI1406450T1 (sl) 2014-09-30
AU2003211717A1 (en) 2003-09-16
ES2489490T3 (es) 2014-09-02
TWI325281B (en) 2010-05-21
TWI324889B (en) 2010-05-11
JP2004088722A (ja) 2004-03-18
EP2271109B1 (en) 2014-05-28
AU2003211717C1 (en) 2009-04-23
US20080069231A1 (en) 2008-03-20
PT3054679T (pt) 2017-09-28
WO2003075580A1 (fr) 2003-09-12
EP2271109A3 (en) 2011-08-10
EP3253057A1 (en) 2017-12-06
DK3054679T3 (da) 2017-11-06
US8718141B2 (en) 2014-05-06
ES2644448T3 (es) 2017-11-29
ES2829621T3 (es) 2021-06-01
TW200304753A (en) 2003-10-01
EP1406450A1 (en) 2004-04-07
HUE044024T2 (hu) 2019-09-30
KR20040091521A (ko) 2004-10-28
KR20080006629A (ko) 2008-01-16
DK2271108T3 (en) 2016-09-12
US20080063061A1 (en) 2008-03-13
EP3253056A1 (en) 2017-12-06
EP2271107A2 (en) 2011-01-05
EP3054679A1 (en) 2016-08-10
KR100948714B1 (ko) 2010-03-22
MY139955A (en) 2009-11-30
PT2271107E (pt) 2014-07-28
DK2271107T3 (da) 2014-08-25
EP3490254A1 (en) 2019-05-29
ES2491094T3 (es) 2014-09-05
EP2271109A2 (en) 2011-01-05
US20080069232A1 (en) 2008-03-20
US7856060B2 (en) 2010-12-21
ES2644048T3 (es) 2017-11-27
CN100474933C (zh) 2009-04-01
AU2003211717B2 (en) 2007-09-06
BRPI0303342B1 (pt) 2019-07-02
EP2271107B1 (en) 2014-05-28
EP2271108A3 (en) 2011-08-10
ES2588179T3 (es) 2016-10-31
EP1406450A4 (en) 2006-06-21
ES2719216T3 (es) 2019-07-09
CA2762149A1 (en) 2003-09-12
DK3051814T3 (da) 2017-11-13
EP3253056B1 (en) 2019-01-09
EP3490254B1 (en) 2020-09-09
SI3051814T1 (sl) 2017-10-30
PT2271109E (pt) 2014-07-28
HUE036491T2 (hu) 2018-07-30

Similar Documents

Publication Publication Date Title
ES2491095T3 (es) Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES2729258T3 (es) Cálculo del vector de movimiento en modo directo evitando divisiones por cero
ES2408245T3 (es) Aparato de decodificación de imágenes en movimiento
EP1499133B1 (en) Motion vector encoding method and motion vector decoding method
ES2353957T3 (es) Procedimiento de codificación de vectores de movimiento y procedimiento de decodificación de vectores de movimiento.