ES2351306T3 - PROCEDURE AND DEVICE FOR THE CODING OF MOVING IMAGES. - Google Patents

PROCEDURE AND DEVICE FOR THE CODING OF MOVING IMAGES. Download PDF

Info

Publication number
ES2351306T3
ES2351306T3 ES03717655T ES03717655T ES2351306T3 ES 2351306 T3 ES2351306 T3 ES 2351306T3 ES 03717655 T ES03717655 T ES 03717655T ES 03717655 T ES03717655 T ES 03717655T ES 2351306 T3 ES2351306 T3 ES 2351306T3
Authority
ES
Spain
Prior art keywords
image
encoded
block
predictive
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03717655T
Other languages
Spanish (es)
Inventor
Shinichiro Koto
Takeshi Chujoh
Yoshihiro Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of ES2351306T3 publication Critical patent/ES2351306T3/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Un procedimiento de codificación de vídeo para realizar codificación predictiva por compensación de movimiento en una imagen de vídeo de entrada que tiene luminancia (Y) y dos diferencias de color (Cr, Cb) que comprende: la selección de una combinación a partir de una pluralidad de combinaciones indexadas de una imagen de referencia, un factor de ponderación preparado para cada luminancia y dos diferencias de color y un desplazamiento preparado para cada luminancia y dos diferencias de color para un bloque que se codificará de la imagen de vídeo de entrada; la obtención de información de índice (215) que indica la combinación indexada seleccionada; la generación de una imagen de predicción de compensación de movimiento (212) para el bloque que se codificará añadiendo el desplazamiento a la imagen de referencia multiplicado por el factor de ponderación, según un vector de movimiento (214) para el bloque que se codificará; la generación de una señal de error de predicción para el bloque que se codificará calculando un error entre la imagen de vídeo de entrada y la imagen de predicción de compensación de movimiento; la generación cuantificada de un coeficiente de transformación ortogonal (210) para el bloque que se codificará sometiendo la señal de error de predicción a transformación ortogonal y cuantificación; y la codificación del coeficiente de transformación ortogonal cuantificado, la información del vector de movimiento y la información de índice.A video coding method for performing predictive coding by motion compensation in an input video image that has luminance (Y) and two color differences (Cr, Cb) comprising: the selection of a combination from a plurality of indexed combinations of a reference image, a weighting factor prepared for each luminance and two color differences and a displacement prepared for each luminance and two color differences for a block to be encoded from the input video image; obtaining index information (215) indicating the selected indexed combination; the generation of a motion compensation prediction image (212) for the block to be encoded by adding the offset to the reference image multiplied by the weighting factor, according to a motion vector (214) for the block to be encoded; the generation of a prediction error signal for the block to be encoded by calculating an error between the input video image and the motion compensation prediction image; the quantified generation of an orthogonal transformation coefficient (210) for the block to be encoded by subjecting the prediction error signal to orthogonal transformation and quantification; and the coding of the quantified orthogonal transformation coefficient, the motion vector information and the index information.

Description

Campo técnico Technical field

La presente invención se refiere a un procedimiento y aparato de codificación/decodificación de vídeo que codifica/decodifica un vídeo de fundido y vídeo de disolución, en particular, a alta eficacia. The present invention relates to a method and apparatus for encoding / decoding video that encodes / decodes a melt video and dissolution video, in particular, at high efficiency.

Técnica anterior Prior art

La codificación intertrama predictiva de compensación de movimiento se usa como uno de los modos de codificación en un esquema estándar de codificación de vídeo como ITUTH.261, H.263, ISO/IEC MPEG-2 o MPEG-4. Como modelo predictivo en codificación intertrama predictiva de compensación de movimiento, se usa un modelo que muestra la más alta eficacia predictiva cuando no se usa cambio de brillo en la dirección de tiempo. En el caso de un vídeo de fundido que cambia en el brillo de imágenes, no existe ningún procedimiento conocido hasta ahora que realice una predicción apropiada frente a un cambio en el brillo de imágenes cuando, por ejemplo, una imagen normal aparece a partir de una imagen en negro. Con el fin de mantener también la calidad de imagen en un vídeo de fundido se requiere, por tanto, un gran número de bits. Inter-frame coding for motion compensation is used as one of the coding modes in a standard video coding scheme such as ITUTH.261, H.263, ISO / IEC MPEG-2 or MPEG-4. As a predictive model in interframe predictive coding of motion compensation, a model is used that shows the highest predictive efficiency when no change in brightness is used in the direction of time. In the case of a fade video that changes in the brightness of images, there is no known procedure so far that it makes an appropriate prediction against a change in the brightness of images when, for example, a normal image appears from a black image In order to also maintain the image quality in a fade video, a large number of bits is therefore required.

Con el fin de resolver este problema, por ejemplo, en la patente japonesa nº 3.166.716, "Codificador de vídeo de contramedida de fundido y procedimiento de codificación", se detecta una parte de vídeo de fundido para cambiar la asignación del número de bits. Más específica-mente, en el caso de un vídeo de fundido de cierre, se asigna un gran número de bits a la parte de inicio de fundido de cierre que cambia en luminancia. En general, la última parte de fundido de cierre se convierte en una imagen monocroma, y con ello puede codificarse fácilmente. Por este motivo, el número de bits asignados a esta parte se reduce. Esto hace posible mejorar la calidad global de imagen sin aumentar excesivamente el número total de bits. In order to solve this problem, for example, in Japanese Patent No. 3,166,716, "Fader Countermeasure Video Encoder and Encoding Procedure", a part of fade video is detected to change the bit number allocation . More specifically, in the case of a close fade video, a large number of bits is assigned to the fade start portion that changes in luminance. In general, the last part of the closing fade becomes a monochrome image, and with it can be easily encoded. For this reason, the number of bits assigned to this part is reduced. This makes it possible to improve the overall image quality without excessively increasing the total number of bits.

En la patente japonesa nº 2.938.412, "Procedimiento de compensación de cambio de luminancia de vídeo, aparato de codificación de vídeo, aparato de decodificación de vídeo, medio de grabación en el que se registra el programa de codificación o decodificación de vídeo y medio de grabación en el que se registran datos codificados de vídeo", se propone un esquema de codificación consistente en copiar apropiadamente un vídeo de fundido compensando una imagen de referencia de acuerdo con dos parámetros, que son, una cantidad de cambio de luminancia y una cantidad de cambio de contraste. In Japanese Patent No. 2,938,412, "Video luminance change compensation procedure, video encoding apparatus, video decoding apparatus, recording medium in which the video encoding or decoding program is recorded and medium of recording in which video encoded data is recorded ", an encoding scheme is proposed consisting of properly copying a fade video by compensating a reference image according to two parameters, which are, a quantity of luminance change and an amount of contrast change.

En Thomas Wiegand y Berand Girod, "Multi-frame motion-compensated prediction for video transmission", Kluwer Academic Publishers 2001, se propone un esquema de codificación basado en una pluralidad de memorias intermedias de tramas. En este esquema, se ha realizado un intento para mejorar la eficacia predictiva generando selectivamente una imagen de predicción a partir de una pluralidad de tramas de referencia contenidas en las memorias intermedias In Thomas Wiegand and Berand Girod, "Multi-frame motion-compensated prediction for video transmission", Kluwer Academic Publishers 2001, an encoding scheme based on a plurality of frame buffers is proposed. In this scheme, an attempt has been made to improve the predictive efficiency by selectively generating a prediction image from a plurality of reference frames contained in the buffers.

de tramas. of frames.

Según las técnicas convencionales, con el fin de codificar un vídeo de fundido o un vídeo de disolución mientras se mantiene una alta calidad de imagen, se requiere un gran número de bits. Por tanto, no puede esperarse una mejora en la eficacia de codificación. According to conventional techniques, in order to encode a fade video or a dissolution video while maintaining high image quality, a large number of bits is required. Therefore, an improvement in coding efficiency cannot be expected.

Descripción de la invención Description of the invention

Un objeto de la presente invención es proporcionar un procedimiento y aparato de codificación de vídeo que pueda codificar un vídeo que cambie de luminancia con el tiempo, por ejemplo, un vídeo de fundido o vídeo de disolución, en particular, a alta eficacia. La invención se define mediante las reivindicaciones 1 y 2. An object of the present invention is to provide a video coding method and apparatus that can encode a video that changes luminance over time, for example, a melt video or dissolution video, in particular, at high efficiency. The invention is defined by claims 1 and 2.

Breve descripción de los dibujos Mejor modo de realizar la invención Brief description of the drawings Best way of carrying out the invention

La FIG. 1 FIG. one
es un diagrama de bloques que muestra la configuración de un aparato de codifi it is a block diagram that shows the configuration of a coding device

cación de vídeo según la primera forma de realización de la presente invención; video cation according to the first embodiment of the present invention;

la FIG. 2 FIG. 2
es un diagrama de bloques que muestra la configuración detallada de un genera it is a block diagram that shows the detailed configuration of a general

dor de imágenes de predicción/memoria de tramas en la FIG. 1; d of prediction images / frame memory in FIG. one;

la FIG. 3 FIG. 3
es una vista que muestra un ejemplo de una tabla de combinaciones de números is a view that shows an example of a number combination table

de tramas de referencia y parámetros predictivos, que se usa en la primera forma of reference frames and predictive parameters, which is used in the first form

de realización; of realization;

la FIG. 4 FIG. 4
es un organigrama que muestra un ejemplo de una secuencia para seleccionar un is an organization chart that shows an example of a sequence to select a

esquema predictivo (una combinación de un número de trama de referencia y un predictive scheme (a combination of a reference frame number and a

parámetro predictivo) para cada macrobloque y para determinar un modo de codipredictive parameter) for each macroblock and to determine a coding mode

ficación en la primera forma de realización; fication in the first embodiment;

la FIG. 5 FIG. 5
es un diagrama de bloques que muestra la configuración de un aparato de decodi it is a block diagram that shows the configuration of a decodi apparatus

ficación de vídeo según la primera forma de realización; video fication according to the first embodiment;

la FIG. 6 FIG. 6
es un diagrama de bloques que muestra la configuración detallada del generador It is a block diagram showing the detailed configuration of the generator

de imágenes de predicción/memoria de tramas de la FIG. 5; of prediction images / frame memory of FIG. 5;

la FIG. 7 FIG. 7
es una vista que muestra un ejemplo de una tabla de combinaciones de paráme it is a view that shows an example of a table of combinations of parame

tros predictivos en un caso en el que el número de tramas de referencia es uno y other predictors in a case where the number of reference frames is one and

se envía un número de trama de referencia como información de modo según la a reference frame number is sent as mode information according to the

segunda forma de realización de la presente invención; second embodiment of the present invention;

la FIG. 8 FIG. 8
es una vista que muestra un ejemplo de una tabla de combinaciones de paráme it is a view that shows an example of a table of combinations of parame

tros predictivos en un caso en el que el número de tramas de referencia es dos y other predictive in a case where the number of reference frames is two and

se envía un número de trama de referencia como información de modo según la a reference frame number is sent as mode information according to the

segunda forma de realización; second embodiment;

la FIG. 9 FIG. 9
es una vista que muestra un ejemplo de una tabla de combinaciones de números is a view that shows an example of a number combination table

de imágenes de referencia y parámetros predictivos en un caso en el que el núof reference images and predictive parameters in a case where the number

mero de trama de referencia es uno según la tercera forma de realización de la reference frame number is one according to the third embodiment of the

presente invención; present invention;

la FIG. 10 FIG. 10
es una vista que muestra un ejemplo de una tabla para sólo señales de luminancia is a view that shows an example of a table for luminance signals only

según la tercera forma de realización; according to the third embodiment;

la FIG. 11 FIG. eleven
es una vista que muestra un ejemplo de una sintaxis para cada bloque cuando se is a view that shows an example of a syntax for each block when

va a codificar información de índice; will encode index information;

la FIG. 12 FIG. 12
es una vista que muestra un ejemplo específico de un flujo de bits codificados it is a view that shows a specific example of a bit stream encoded

cuando se va a generar una imagen de predicción es usando una imagen de refewhen a prediction image is to be generated it is using a reference image

rencia; rencia;

la FIG. 13 FIG. 13
es una vista que muestra un ejemplo específico de un flujo de bits codificados it is a view that shows a specific example of a bit stream encoded

cuando se va a generar una imagen de predicción usando dos imágenes de refewhen a prediction image is to be generated using two refe images

rencia; rencia;

la FIG. 14 FIG. 14
es una vista que muestra un ejemplo de una tabla de números de tramas de refe is a view that shows an example of a table of reference frame numbers

rencia, número de campo de referencias y parámetros predictivos cuando la inrencia, reference field number and predictive parameters when in

formación que se va a codificar es un campo superior según la cuarta forma de formation to be coded is a higher field according to the fourth form of

realización de la presente invención; y embodiment of the present invention; Y

la FIG. 15 FIG. fifteen
es una vista que muestra un ejemplo de una tabla de números de tramas de refe is a view that shows an example of a table of reference frame numbers

rencia, número de campo de referencias y parámetros predictivos cuando la inrencia, reference field number and predictive parameters when in

formación que se va a codificar es un campo inferior según la cuarta forma de reaformation to be encoded is a lower field according to the fourth area of area

lización de la presente invención. lization of the present invention.

A continuación se describirán las formas de realización de la presente invención con referencia a las diversas vistas de los dibujos adjuntos. The embodiments of the present invention will now be described with reference to the various views of the attached drawings.

[Primera forma de realización] (Sobre el lado de codificación) [First embodiment] (On the coding side)

La FIG. 1 muestra la configuración de un aparato de codificación de vídeo según la primera forma de realización de la presente invención. Se introduce una señal de vídeo 100 en el aparato de codificación de vídeo, por ejemplo, sobre una base de trama. La señal de vídeo 100 se introduce en un sustractor 101. El sustractor 101 calcula la diferencia entre la señal de vídeo 100 y una señal de imagen de predicción 212 para generar una señal de error predictivo. Un conmutador de selección de modo 102 selecciona la señal de error predictivo o la señal de vídeo FIG. 1 shows the configuration of a video coding apparatus according to the first embodiment of the present invention. A video signal 100 is introduced into the video coding apparatus, for example, on a frame basis. The video signal 100 is introduced into a subtractor 101. The subtractor 101 calculates the difference between the video signal 100 and a prediction image signal 212 to generate a predictive error signal. A mode select switch 102 selects the predictive error signal or the video signal

100. Un transformador ortogonal 103 somete la señal seleccionada a una transformación ortogonal, por ejemplo, una transformada de coseno discreta (DCT). El transformador ortogonal 103 genera información de coeficiente de transformación ortogonal, por ejemplo, información de coeficiente de DCT. La información de coeficiente de transformación ortogonal es cuantificada por un cuantificador 104 y se ramifica en dos trayectorias. Una información de cuantificación de coeficiente de transformación ortogonal 210 ramificada en dos trayectorias es guiada hacia un codi100. An orthogonal transformer 103 subjects the selected signal to an orthogonal transformation, for example, a discrete cosine transform (DCT). The orthogonal transformer 103 generates orthogonal transformation coefficient information, for example, DCT coefficient information. The orthogonal transformation coefficient information is quantified by a quantifier 104 and branches into two paths. A quantification information of the orthogonal transformation coefficient 210 branched into two paths is guided towards a codi

ficador de longitud variable 111. variable length marker 111.

La otra información de cuantificación de coeficiente de transformación ortogonal 210 ramificada en las dos trayectorias se somete en secuencia a procesamiento inverso al del cuantificador 104 y el transformador ortogonal 103 mediante un descuantificador o cuantificador inverso 105 y transformador ortogonal inverso 106 para reconstruirse en una señal de error predictivo. Posteriormente, un sumador 107 suma la señal de error predictivo reconstruida a la señal de imagen de predicción 212 introducida a través de un conmutador 109 para generar una señal de vídeo decodificada local 211. La señal de vídeo decodificada local 211 se introduce en un generador de imágenes de predicción/memoria de tramas 108. The other orthogonal transformation coefficient quantification information 210 branched in the two paths is sequentially processed in reverse to that of quantizer 104 and orthogonal transformer 103 by a reverse quantifier or quantizer 105 and inverse orthogonal transformer 106 to be reconstructed into a signal of predictive error Subsequently, an adder 107 adds the reconstructed predictive error signal to the prediction image signal 212 introduced through a switch 109 to generate a local decoded video signal 211. The local decoded video signal 211 is input into a generator prediction images / frame memory 108.

El generador de imágenes de predicción/memoria de tramas 108 selecciona una entre una pluralidad de combinaciones de números de tramas de referencia y parámetros predictivos preparados. La suma lineal de la señal de vídeo (señal de vídeo local decodificado 211) de la trama de referencia indicada por el número de trama de referencia de la combinación seleccionada se calcula de acuerdo con el parámetro predictivo de la combinación seleccionada, y la señal resultante se añade a un desplazamiento basado en el parámetro predictivo. Con esta operación, en este caso, se genera una señal de imagen de referencia sobre una base de trama. Posteriormente, el generador de imágenes de predicción/memoria de tramas 108 compensa en movimiento la señal de imagen de referencia usando un vector de movimiento para generar la señal de imagen de predicción 212. The prediction image generator / frame memory 108 selects one from a plurality of combinations of reference frame numbers and prepared predictive parameters. The linear sum of the video signal (decoded local video signal 211) of the reference frame indicated by the reference frame number of the selected combination is calculated according to the predictive parameter of the selected combination, and the resulting signal It is added to a shift based on the predictive parameter. With this operation, in this case, a reference image signal is generated on a frame basis. Subsequently, the prediction image generator / frame memory 108 compensates the reference image signal in motion using a motion vector to generate the prediction image signal 212.

En este procedimiento el generador de imágenes de predicción/memoria de tramas 108 genera información de vector de movimiento 214 e información de índice 215 que indica una combinación seleccionada de un número de trama de referencia y un parámetro predictivo, y envía información necesaria para selección de un modo de codificación a un selector de modo 110. La información de vector de movimiento 214 y la información de índice 215 se introducen en un codificador de longitud variable 111. El generador de imágenes de predicción/memoria de tramas 108 se describirá en detalle más adelante. In this procedure the prediction image generator / frame memory 108 generates motion vector information 214 and index information 215 indicating a selected combination of a reference frame number and a predictive parameter, and sends information necessary for selection of an encoding mode to a mode selector 110. Motion vector information 214 and index information 215 are input into a variable length encoder 111. The prediction image generator / frame memory 108 will be described in more detail. ahead.

El selector de modo 110 selecciona un modo de codificación en una base de macrobloque sobre la base de la información predictiva P del generador de imágenes de predicción/memoria de tramas 108, es decir, selecciona el modo de codificación intratrama o el modo de codificación intertrama predictivo compensado, y produce señales de control del conmutador M y S. Mode selector 110 selects an encoding mode in a macroblock base based on the predictive information P of the prediction image generator / frame memory 108, that is, selects the intraframe encoding mode or the interframe coding mode predictive compensated, and produces control signals of switch M and S.

En el modo de codificación intratrama, los conmutadores 102 y 112 se conmutan al lado A mediante las señales de control de conmutador M y S, y la señal de vídeo de entrada 100 se introduce en el transformador ortogonal 103. En el modo de codificación intertrama, los conmutadores 102 y 109 se conmutan al lado B por las señales de control de conmutador M y S. En consecuencia, la señal de error predictivo del sustractor 101 se introduce en el transformador ortogonal 103, y la señal de imagen de predicción 212 del generador de imágenes de predicción/memoria de tramas 108 se introduce en el sumador 107. La información de modo 213 se produce desde el selector de modo 110 y se introduce en el codificador de longitud variable 111. In intraframe coding mode, switches 102 and 112 are switched to side A via switch control signals M and S, and input video signal 100 is input into orthogonal transformer 103. In interframe coding mode , switches 102 and 109 are switched to side B by switch control signals M and S. Accordingly, the predictive error signal of the subtractor 101 is input into the orthogonal transformer 103, and the prediction image signal 212 of the prediction imager / frame memory 108 is entered into adder 107. Mode information 213 is produced from mode selector 110 and is entered into variable length encoder 111.

El codificador de longitud variable 111 somete a la información de cuantificación de coeficiente de transformación ortogonal 210, la información de modo 213, la información de vector de movimiento 214 y la información de índice 215 a codificación de longitud variable. Los códigos de longitud variable generados por esta operación son multiplexados por un multiplicador 114. A continuación, los datos resultantes se alisan mediante una memoria intermedia de salida 115. Los datos codificados 116 producidos a partir de la memoria intermedia de salida 115 son enviados a un sistema de transmisión o un sistema de almacenamiento (no mostrado). The variable length encoder 111 subjects the orthogonal transformation coefficient quantification information 210, the mode information 213, the motion vector information 214 and the index information 215 to variable length coding. The variable length codes generated by this operation are multiplexed by a multiplier 114. Next, the resulting data is smoothed by an output buffer 115. The encoded data 116 produced from the output buffer 115 is sent to a Transmission system or storage system (not shown).

Un controlador de codificación 113 controla una unidad de codificación 112. Más específicamente, el controlador de codificación 113 monitoriza la cantidad de memoria intermedia de la memoria intermedia de salida 115, y controla parámetros de codificación como el tamaño de la etapa de cuantificación del cuantificador 104 para hacer constante la cantidad de memoria intermedia. An encoding controller 113 controls an encoding unit 112. More specifically, the encoding controller 113 monitors the amount of buffer of the output buffer 115, and controls encoding parameters such as the size of the quantizer step of the quantizer 104 to make the amount of buffer constant.

(Sobre generador de imágenes de predicción/memoria de tramas 108) (About prediction image generator / frame memory 108)

La FIG. 2 muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas 108 de la FIG. 1. En referencia a la FIG. 2, la señal de vídeo local decodificado 211 introducida desde el sumador 107 en la FIG. 1 se almacena en un conjunto de memoria de trama 202 bajo el control de un controlador de memoria 201. El conjunto de memoria de trama 202 tiene una pluralidad de (N) memorias de trama FM1 a FMN para guardar temporalmente la señal de vídeo local decodificado 211 como trama de referencia. FIG. 2 shows the detailed configuration of the prediction image generator / frame memory 108 of FIG. 1. Referring to FIG. 2, the decoded local video signal 211 input from adder 107 in FIG. 1 is stored in a frame memory set 202 under the control of a memory controller 201. The frame memory set 202 has a plurality of (N) frame memories FM1 to FMN to temporarily store the decoded local video signal 211 as a reference frame.

En un controlador de parámetros predictivos 203 se prepara una pluralidad de combinaciones de números de tramas de referencia y parámetros predictivos con antelación en forma de tabla. El controlador de parámetros predictivos 203 selecciona, sobre la base de la señal de vídeo 100, una combinación del número de trama de referencia de una trama de referencia y un parámetro predictivo que se usan para generar la señal de imagen de predicción 212, y produce la información de índice 215 que indica la combinación seleccionada. In a predictive parameter controller 203 a plurality of combinations of reference frame numbers and predictive parameters are prepared in advance in the form of a table. The predictive parameter controller 203 selects, on the basis of the video signal 100, a combination of the reference frame number of a reference frame and a predictive parameter that are used to generate the prediction image signal 212, and produces 215 index information indicating the selected combination.

Un evaluador de movimiento multitrama 204 genera una señal de imagen de referencia de acuerdo con la combinación del número de trama de referencia y la información de índice seleccionado por el controlador de parámetros predictivos 203. El evaluador de movimiento multitrama 204 evalúa la cantidad de movimiento y el error predictivo a partir de esta señal de imagen de referencia y la señal de vídeo de entrada 100, y produce la información de vector de movimiento 214 que reduce al mínimo el error predictivo. Un compensador de movimiento multitrama 205 realiza compensación de movimiento para cada bloque usando una señal de imagen de referencia seleccionada por el evaluador de movimiento multitrama 204 de acuerdo con el vector de movimiento para generar la señal de imagen de predicción 212. A multi-frame motion evaluator 204 generates a reference image signal according to the combination of the reference frame number and the index information selected by the predictive parameter controller 203. The multi-frame motion evaluator 204 evaluates the amount of movement and the predictive error from this reference image signal and the input video signal 100, and produces the motion vector information 214 that minimizes the predictive error. A multi-frame motion compensator 205 performs motion compensation for each block using a reference image signal selected by the multi-frame motion evaluator 204 according to the motion vector to generate the prediction image signal 212.

El controlador de memoria 201 establece un número de trama de referencia a una señal de vídeo local decodificado para cada trama, y almacena cada trama en una de las memorias de Memory controller 201 establishes a frame number of reference to a decoded local video signal for each frame, and stores each frame in one of the memory memories.

5 5

10 10

15 fifteen

20 twenty

25 25

30 30

-6-6

trama FM1 a FMN del conjunto de memoria de trama 202. Por ejemplo, las tramas respectivas se numeran en secuencia desde la trama más próxima a la imagen de entrada. Puede establecerse el mismo número de trama de referencia para diferentes tramas. En este caso, por ejemplo, se usan diferentes parámetros predictivos. Se selecciona una trama cerca de la imagen de entrada a partir de las memorias de trama FM1 a FMN y se envía al controlador de parámetros predictivos 203. frame FM1 to FMN of frame memory set 202. For example, the respective frames are numbered in sequence from the frame closest to the input image. The same reference frame number can be set for different frames. In this case, for example, different predictive parameters are used. A frame near the input image is selected from the FM1 to FMN frame memories and sent to the predictive parameter controller 203.

(Sobre tabla de combinaciones de números de tramas de referencia y parámetros de predicción) La FIG. 3 muestra un ejemplo de la tabla de combinaciones de números de tramas de referencia y parámetros predictivos, que se prepara en el controlador de parámetros predictivos (On table of combinations of reference frame numbers and prediction parameters) FIG. 3 shows an example of the table of combinations of reference frame numbers and predictive parameters, which is prepared in the predictive parameter controller

203. El "índice" corresponde a imágenes de predicción que pueden seleccionarse para cada bloque. En este caso, existen ocho tipos de imágenes de predicción. Un número de trama de referencia n es el número de un vídeo local decodificado como trama de referencia, y en este caso, indica el número de un vídeo local decodificado que corresponde a n tramas pasadas. 203. The "index" corresponds to prediction images that can be selected for each block. In this case, there are eight types of prediction images. A reference frame number n is the number of a decoded local video as a reference frame, and in this case, it indicates the number of a decoded local video corresponding to n past frames.

Cuando se genera la señal de imagen de predicción 212 usando las señales de imagen de una pluralidad de tramas de referencia almacenadas en el conjunto de memoria de trama 202, se designa una pluralidad de números de tramas de referencia, y se designa un (número de tramas de referencia + 1) de coeficientes como parámetros predictivos para cada una de una señal de luminancia (Y) y señales de diferencias de color (Cb y Cr). En este caso, como se indica según las ecuaciones (1) a (3), n supone el número de tramas de referencia, n + 1 parámetros predictivos Di (i = ,..., n + 1) se preparan para la señal de luminancia Y; n + 1 parámetros predictivos Ei (i = ,..., n + 1), para la señal de diferencia de color Cb; y n + 1 parámetros predictivos Fi (i = ,..., n + 1), para la señal de diferencia de color Cr: When the prediction image signal 212 is generated using the image signals of a plurality of reference frames stored in the frame memory set 202, a plurality of reference frame numbers is designated, and a (number of reference frames + 1) of coefficients as predictive parameters for each of a luminance signal (Y) and color difference signals (Cb and Cr). In this case, as indicated by equations (1) to (3), n assumes the number of reference frames, n + 1 predictive parameters Di (i =, ..., n + 1) are prepared for the signal of luminance Y; n + 1 predictive parameters Ei (i =, ..., n + 1), for the color difference signal Cb; and n + 1 predictive parameters Fi (i =, ..., n + 1), for the color difference signal Cr:

n n

Y = DY + DY = DY + D

t ∑ tt −1 n+1 i =1 t ∑ tt −1 n + 1 i = 1

(1) (one)

n n

Cb = E Cb + ECb = E Cb + E

t ∑ tt −1 n+1 i =1 t ∑ tt −1 n + 1 i = 1

(2) (2)

n n

Cr = F Cr + FCr = F Cr + F

t ∑ tt −1 n+1 i =1 t ∑ tt −1 n + 1 i = 1

(3) (3)

Esta operación se describirá en más detalle con referencia a la FIG. 3. En referencia a la FIG. 3, el último número de cada parámetro predictivo representa un desplazamiento, y el primer número de cada parámetro predictivo representa un factor de ponderación (coeficiente predictivo). Para el índice 0, el número de tramas de referencia viene dado por n = 2, el número de trama de referencia es 1 y los parámetros predictivos son 1 y 0 para cada una de la señal de luminancia Y y las señales de diferencias de color Cr y Cb. El hecho de que los parámetros predictivos sean 1 y 0 como en este caso indica que una señal de vídeo local decodificado correspondiente al número de trama de referencia "1" está multiplicada por 1 y se le suma el desplazamiento 0. En otras palabras, la señal de vídeo local decodificado correspondiente al número de trama de referencia 1 se convierte en una señal de imagen de referencia sin ningún cambio. This operation will be described in more detail with reference to FIG. 3. Referring to FIG. 3, the last number of each predictive parameter represents a shift, and the first number of each predictive parameter represents a weighting factor (predictive coefficient). For index 0, the number of reference frames is given by n = 2, the reference frame number is 1 and the predictive parameters are 1 and 0 for each of the luminance signal Y and the color difference signals Cr and Cb. The fact that the predictive parameters are 1 and 0 as in this case indicates that a decoded local video signal corresponding to the reference frame number "1" is multiplied by 1 and the offset 0 is added. In other words, the Decoded local video signal corresponding to reference frame number 1 is converted to a reference image signal without any change.

Para el índice 1, se usan dos tramas de referencia como señales de vídeo local decodificado correspondientes a los números de tramas de referencia 1 y 2. De acuerdo con los parámetros predictivos 2, -1 y 0 para la señal de luminancia Y, la señal de vídeo local decodificado que corresponde al número de trama de referencia 1 se duplica, y la señal de vídeo local decodificado correspondiente al número de trama de referencia 2 se resta de la señal resultante. A continuación se añade el desplazamiento 0 a la señal resultante. Es decir, la predicción de extrapolación se realiza a partir de las señales de vídeo local decodificado de dos tramas para generar una señal de imagen de referencia. Para las señales de diferencias de color Cr y Cb, dado que los parámetros predictivos son 1, 0 y 0, la señal de vídeo local decodificado correspondiente al número de trama de referencia 1 se usa como señal de imagen de referencia sin ningún cambio. Este esquema predictivo correspondiente al índice 1 es especialmente eficaz para un vídeo de disolución. For index 1, two reference frames are used as decoded local video signals corresponding to reference frame numbers 1 and 2. According to the predictive parameters 2, -1 and 0 for the luminance signal Y, the signal Decoded local video corresponding to the reference frame number 1 is doubled, and the decoded local video signal corresponding to the reference frame number 2 is subtracted from the resulting signal. Next, offset 0 is added to the resulting signal. That is, the extrapolation prediction is made from the decoded local video signals of two frames to generate a reference image signal. For the Cr and Cb color difference signals, since the predictive parameters are 1, 0 and 0, the decoded local video signal corresponding to the reference frame number 1 is used as the reference image signal without any change. This predictive scheme corresponding to index 1 is especially effective for a dissolution video.

Para el índice 2, de acuerdo con los parámetros predictivos 5/4 y 16, la señal de vídeo local decodificado correspondiente al número de trama de referencia 1 se multiplica por 5/4 y se le suma el desplazamiento 16. Para las señales de diferencias de color Cr y Cb, como el parámetro predictivo es 1, las señales de diferencias de color Cr y Cb se convierten en señales de imagen de referencia sin ningún cambio. Este esquema predictivo es especialmente eficaz para un vídeo de fundido desde una trama negra. For index 2, according to predictive parameters 5/4 and 16, the decoded local video signal corresponding to reference frame number 1 is multiplied by 5/4 and offset 16 is added. For difference signals Cr and Cb color, as the predictive parameter is 1, the signals of Cr and Cb color differences are converted into reference image signals without any change. This predictive scheme is especially effective for a fade video from a black frame.

De esta manera, las señales de imagen de referencia pueden seleccionarse sobre la base de una pluralidad de esquemas predictivos con diferentes combinaciones de los números de tramas de referencia que se usarán y los parámetros predictivos. Esto hace posible que esta forma de realización resuelva apropiadamente un vídeo de fundido y un vídeo de disolución que han sufrido deterioro en calidad de imagen debido a la ausencia de un esquema predictivo apropiado. In this way, the reference image signals can be selected on the basis of a plurality of predictive schemes with different combinations of the reference frame numbers to be used and the predictive parameters. This makes it possible for this embodiment to properly resolve a fade video and a dissolution video that have suffered deterioration in image quality due to the absence of an appropriate predictive scheme.

(Sobre la secuencia de selección del esquema de predicción y determinación del modo de (On the sequence of prediction scheme selection and determination of the mode of

codificación) coding)

A continuación se describirá un ejemplo de una secuencia específica para seleccionar un esquema predictivo (una combinación de un número de tramas de referencia y un parámetro predictivo) para cada macrobloque y determinar un modo de codificación en esta forma de realización con referencia a la FIG. 4. An example of a specific sequence for selecting a predictive scheme (a combination of a number of reference frames and a predictive parameter) for each macroblock and determining an encoding mode in this embodiment with reference to FIG. Four.

En primer lugar, se establece un valor máximo asumible para la variable min_D (etapa S101). LOOP1 (etapa S102) indica una repetición para la selección de un esquema predictivo en codificación de intertrama, y la variable i representa el valor de "índice" en la FIG. 3. En este caso, con el fin de obtener un vector de movimiento óptimo para cada esquema predictivo, se calcula un valor de evaluación D de cada índice (cada combinación de un número de trama de referencia y un parámetro predictivo) a partir del número de bits asociados con información de vector de movimiento 214 (el número de bits de un código de longitud variable producido a partir del codificador de longitud variable 111 en correspondencia con la información de vector de movimiento 214) y una suma de valores de error absoluto predictivos, y se selecciona un vector de movimiento que reduce al mínimo el valor de evaluación D (etapa S103). El valor de evaluación D se compara con min_D (etapa S104). Si el valor de evaluación D es menor que min_D, el valor de evaluación D se ajusta a min_D, y el índice i se asigna a min_i (etapa S105). First, a maximum acceptable value is set for the variable min_D (step S101). LOOP1 (step S102) indicates a repetition for the selection of a predictive scheme in interframe coding, and the variable i represents the "index" value in FIG. 3. In this case, in order to obtain an optimal motion vector for each predictive scheme, an evaluation value D of each index (each combination of a reference frame number and a predictive parameter) is calculated from the number of bits associated with motion vector information 214 (the number of bits of a variable length code produced from variable length encoder 111 in correspondence with motion vector information 214) and a sum of predictive absolute error values , and a motion vector is selected that minimizes the evaluation value D (step S103). The evaluation value D is compared with min_D (step S104). If the evaluation value D is less than min_D, the evaluation value D is set to min_D, and the index i is assigned to min_i (step S105).

A continuación se calcula un valor de evaluación D para codificación intratrama (etapa S106). El valor de evaluación D se compara con min_D (etapa S107). Si esta comparación indica que min_D es menor que el valor de evaluación D, se determina el modo MODO como codificación intratrama, y min_i se asigna a información de índice ÍNDICE (etapa S108). Si el valor de evaluación D es menor, el modo MODO se determina como codificación intratrama (etapa S109). En este caso, el valor de evaluación D se establece como el valor estimado del número de bits con el mismo tamaño de etapa de cuantificación. An evaluation value D is then calculated for intraframe coding (step S106). The evaluation value D is compared with min_D (step S107). If this comparison indicates that min_D is less than the evaluation value D, the MODE mode is determined as intraframe coding, and min_i is assigned to index information INDEX (step S108). If the evaluation value D is lower, the MODE mode is determined as intraframe coding (step S109). In this case, the evaluation value D is set as the estimated value of the number of bits with the same quantization stage size.

(Sobre el lado de decodificación) (On the decoding side)

A continuación se describirá un aparato de decodificación de vídeo correspondiente al aparato de codificación de vídeo mostrado en la FIG. 1. La FIG. 5 muestra la configuración del aparato de decodificación de vídeo según esta forma de realización. Los datos codificados 300 enviados desde el aparato de codificación de vídeo mostrados en la fig. 1 y enviados a través de un sistema de transmisión o un sistema de almacenamiento se almacenan temporalmente en una memoria intermedia de entrada 301 y son demultiplexados por un demultiplexor 302 para cada trama sobre la base de una sintaxis. Los datos resultantes se introducen en un decodificador de longitud variable 303. El decodificador de longitud variable 303 decodifica el código de longitud variable de cada sintaxis de los datos codificados 300 para reproducir un coeficiente de transformación ortogonal de cuantificación, información de modo 413, información de vector de movimiento 414 e información de índice 415. Next, a video decoding apparatus corresponding to the video coding apparatus shown in FIG. 1. FIG. 5 shows the configuration of the video decoding apparatus according to this embodiment. The encoded data 300 sent from the video encoding apparatus shown in fig. 1 and sent through a transmission system or a storage system are temporarily stored in an input buffer 301 and are demultiplexed by a demultiplexer 302 for each frame based on a syntax. The resulting data is entered in a variable length decoder 303. The variable length decoder 303 decodes the variable length code of each syntax of the encoded data 300 to reproduce an orthogonal quantization transformation coefficient, mode information 413, information of motion vector 414 and index information 415.

De la información reproducida, el coeficiente de transformación ortogonal de cuantificación es descuantificado por un descuantificador 304 y transformado de forma ortogonal inversa por un transformador ortogonal inverso 305. Si la información de modo 413 indica el modo de codificación de intratrama, se produce una señal de vídeo de reproducción a partir del transformador ortogonal inverso 305. Esta señal se emite a continuación como una señal de vídeo de reproducción 310 a través de un sumador 306. From the information reproduced, the quantification orthogonal transformation coefficient is quantified by a quantifier 304 and inverse orthogonal transformed by an inverse orthogonal transformer 305. If the mode information 413 indicates the intraframe coding mode, a signal is produced. Playback video from the reverse orthogonal transformer 305. This signal is then output as a playback video signal 310 through an adder 306.

Si la información de modo 413 indica el modo de codificación intertrama, se produce una señal de error predictivo desde el transformador ortogonal inverso 305, y se activa un conmutador de selección de modo 309. La señal de imagen de predicción 412 producida desde un generador de imágenes de predicción/memoria de tramas 308 se añade a la señal de error predictivo mediante el sumador 306. Como consecuencia, se produce la señal de vídeo de reproducción If the mode information 413 indicates the interframe coding mode, a predictive error signal is produced from the reverse orthogonal transformer 305, and a mode selection switch 309 is activated. The prediction image signal 412 produced from a generator prediction images / frame memory 308 is added to the predictive error signal by means of adder 306. As a consequence, the playback video signal is produced

310. La señal de vídeo de reproducción 310 se almacena como una señal de imagen de referencia en el generador de imagen de predicción/memoria de tramas 308. 310. Playback video signal 310 is stored as a reference image signal in the prediction image generator / frame memory 308.

La información de modo 413, la información de vector de movimiento 414 y la información de índice 415 se introducen en el generador de imágenes de predicción/memoria de tramas 308. La información de modo 413 se introduce también en el conmutador de selección de modo 309. En el modo de codificación intratrama, el conmutador de selección de modo 309 se desactiva. En el modo de codificación intertrama, el conmutador se activa. Mode information 413, motion vector information 414 and index information 415 are entered into the prediction imager / frame memory 308. Mode information 413 is also entered into mode selection switch 309 In intraframe coding mode, mode selection switch 309 is deactivated. In interframe coding mode, the switch is activated.

Como el generador de imágenes de predicción/memoria de tramas 108 en el lado de codificación de la FIG. 1, el generador de imágenes de predicción/memoria de tramas 308 incluye una pluralidad de combinaciones preparadas de números de tramas de referencia y parámetros predictivos en forma de tabla, y selecciona una combinación indicada por la información de índice 415 a partir de la tabla. La suma lineal de la señal de vídeo (señal de vídeo de reproducción 210) de la trama de referencia indicada por el número de trama de referencia de la combinación seleccionada se calcula de acuerdo con el parámetro predictivo de la combinación seleccionada, y se añade un desplazamiento basado en el parámetro predictivo a la señal resultante. Con esta operación, se genera una señal de imagen de referencia. Posteriormente, la señal de imagen de referencia generada se compensa en movimiento mediante el uso del vector de movimiento indicado por la información de vector de movimiento 414, generando con ello una señal de imagen de predicción 412. As the prediction image generator / frame memory 108 on the coding side of FIG. 1, the prediction / frame memory image generator 308 includes a plurality of prepared combinations of reference frame numbers and predictive parameters in the form of a table, and selects a combination indicated by index information 415 from the table. The linear sum of the video signal (playback video signal 210) of the reference frame indicated by the reference frame number of the selected combination is calculated according to the predictive parameter of the selected combination, and a offset based on the predictive parameter to the resulting signal. With this operation, a reference image signal is generated. Subsequently, the generated reference image signal is compensated in motion by the use of the motion vector indicated by the motion vector information 414, thereby generating a prediction image signal 412.

(Sobre el generador de imágenes de predicción/memoria de tramas 308) (About the 308 prediction / frame memory imager)

La FIG. 6 muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas 308 de la FIG. 5. En referencia a la FIG. 6, la señal de vídeo de reproducción 310 producida desde el sumador 306 de la FIG. 5 se almacena en el conjunto de memoria de trama 402 bajo el control de un controlador de memoria 401. El conjunto de memoria de trama 402 tiene una pluralidad de (N) memorias de trama FM1 a FMN para guardar temporalmente la señal de vídeo de reproducción 310 como trama de referencia. FIG. 6 shows the detailed configuration of the prediction image generator / frame memory 308 of FIG. 5. Referring to FIG. 6, the playback video signal 310 produced from adder 306 of FIG. 5 is stored in the frame memory set 402 under the control of a memory controller 401. The frame memory set 402 has a plurality of (N) frame memories FM1 to FMN to temporarily save the playback video signal 310 as reference frame.

Un controlador de parámetros predictivos 403 tiene por adelantado combinaciones de números de tramas de referencia y parámetros predictivos en forma de una tabla como la mostrada en la FIG. 3. El controlador de parámetros predictivos 403 selecciona una combinación del número de trama de referencia de una trama de referencia y un parámetro predictivo, que se usan para generar la señal de imagen de predicción 412, sobre la base de la información de índice 415 del decodificador de longitud variable 303 en la FIG. 5. Una pluralidad de compensado-res de movimiento multitrama 404 generan una señal de imagen de referencia de acuerdo con una combinación de un número de trama de referencia e información de índice, que es seleccionada por el controlador de parámetros predictivos 403, y realiza compensación de movimiento para cada bloque usando esta señal de imagen de referencia de acuerdo con el vector de movimiento indicado por la información de vector de movimiento 414 del decodificador de longitud variable 303 de la FIG. 5, generando con ello la señal de imagen de predicción 412. A predictive parameter controller 403 has in advance combinations of reference frame numbers and predictive parameters in the form of a table such as that shown in FIG. 3. The predictive parameter controller 403 selects a combination of the reference frame number of a reference frame and a predictive parameter, which are used to generate the prediction image signal 412, based on the index information 415 of the variable length decoder 303 in FIG. 5. A plurality of multi-frame motion compensators 404 generate a reference image signal according to a combination of a reference frame number and index information, which is selected by the predictive parameter controller 403, and performs compensation of motion for each block using this reference image signal according to the motion vector indicated by the motion vector information 414 of the variable length decoder 303 of FIG. 5, thereby generating the prediction image signal 412.

[Segunda forma de realización] [Second embodiment]

A continuación se describirá la segunda forma de realización de la presente invención con referencia a las FIG. 7 y 8. Dado que las configuraciones globales de un aparato de codificación de vídeo y aparato de decodificación de vídeo en esta forma de realización son casi los mismos que los de la primera forma de realización, sólo se describirán las diferencias con respecto a la primera forma de realización. Next, the second embodiment of the present invention will be described with reference to FIG. 7 and 8. Since the overall configurations of a video coding apparatus and video decoding apparatus in this embodiment are almost the same as those of the first embodiment, only the differences with respect to the first will be described embodiment.

En esta forma de realización, se describe un ejemplo de la manera de expresar parámetros predictivos basándose en un esquema capaz de designar una pluralidad de números de tramas de referencia de acuerdo con información de modo de una base de macrobloque. Para cada macrobloque se discrimina un número de trama de referencia mediante la información de modo. Esta forma de realización usa, por tanto, una tabla de parámetros predictivos según se muestra en las FIG. 7 y 8 en lugar de usar una tabla de combinaciones de números de tramas de referencia y parámetros predictivos como en la primera forma de realización. Es decir, la información de índice no indica un número de trama de referencia, y sólo se designa una combinación de parámetros predictivos. In this embodiment, an example of how to express predictive parameters based on a scheme capable of designating a plurality of reference frame numbers according to mode information of a macroblock base is described. For each macroblock a reference frame number is discriminated by mode information. This embodiment therefore uses a table of predictive parameters as shown in FIG. 7 and 8 instead of using a table of combinations of reference frame numbers and predictive parameters as in the first embodiment. That is, the index information does not indicate a reference frame number, and only a combination of predictive parameters is designated.

La tabla de la FIG. 7 muestra un ejemplo de una combinación de parámetros predictivos cuando el número de tramas de referencia es uno. Como parámetros predictivos, se designan (el número de tramas de referencia + 1) parámetros, es decir, dos parámetros (un factor de ponderación y un desplazamiento), para cada señal de luminancia (Y) y señales de diferencias de color (Cb y Cr). The table of FIG. 7 shows an example of a combination of predictive parameters when the number of reference frames is one. Predictive parameters are designated (the number of reference frames + 1) parameters, that is, two parameters (a weighting factor and a shift), for each luminance signal (Y) and color difference signals (Cb and Cr).

La tabla en la FIG. 8 muestra un ejemplo de una combinación de parámetros predictivos cuando el número de tramas de referencia es dos. En este caso, como parámetros predictivos, se designan (el número de tramas de referencia + 1) parámetros, es decir, tres parámetros (dos factores de ponderación y un desplazamiento), de cada señal de luminancia (Y) y señales de diferencias de color (Cb y Cr). Esta tabla se prepara para el lado de codificación y el lado de decodificación como en la primera forma de realización. The table in FIG. 8 shows an example of a combination of predictive parameters when the number of reference frames is two. In this case, as predictive parameters, (the number of reference frames + 1) are designated parameters, that is, three parameters (two weighting factors and one offset), of each luminance signal (Y) and signals of differences of color (Cb and Cr). This table is prepared for the coding side and the decoding side as in the first embodiment.

[Tercera forma de realización] [Third embodiment]

La tercera forma de realización de la presente invención se describirá con referencia a las FIG. 9 y 10. Como las configuraciones globales de un aparato de codificación de vídeo y aparato de decodificación de vídeo en esta forma de realización son casi las mismas que las de la primera forma de realización, a continuación sólo se describirán las diferencias con respecto a las formas de realización primera y segunda. The third embodiment of the present invention will be described with reference to FIG. 9 and 10. Since the overall configurations of a video coding apparatus and video decoding apparatus in this embodiment are almost the same as those of the first embodiment, only differences with respect to the following will be described below. first and second embodiments.

En las formas de realización primera y segunda, se trata un vídeo sobre una base de trama. Sin embargo, en esta forma de realización, se trata un vídeo sobre una base de imagen. In the first and second embodiments, a video is treated on a plot basis. However, in this embodiment, a video is treated on an image basis.

Si existen una señal progresiva y una señal entrelazada como señales de imagen de entrada, las imágenes no están codificadas necesariamente sobre una base de trama. En consideración a esto, una imagen asume (a) una imagen de una trama de una señal progresiva, (b) una imagen de una trama generada fundiendo dos campos de una señal entrelazada, o (c) una imagen de un campo de una señal entrelazada. If there is a progressive signal and an interlaced signal as input image signals, the images are not necessarily encoded on a frame basis. In consideration of this, an image assumes (a) an image of a frame of a progressive signal, (b) an image of a frame generated by fusing two fields of an interlaced signal, or (c) an image of a field of a signal entwined

Si la imagen que se va a codificar es una imagen con una estructura de trama como (a) o (b), se trata también una imagen de referencia usada en predicción de compensación de movimiento como una trama con independencia de si la imagen codificada, que es la imagen de referencia, tiene una estructura de trama o una estructura de campo. A esta imagen se le asigna un número de imagen de referencia. Análogamente, si la imagen que se va a codificar es una imagen con una estructura de campo como (c), se trata también una imagen de referencia usada en predicción de compensación de movimiento como un campo con independencia de si la imagen codificada, que es la imagen de referencia, tiene una estructura de trama o una estructura de campo. A esta imagen se le asigna un número de imagen de referencia. If the image to be encoded is an image with a frame structure such as (a) or (b), a reference image used in motion compensation prediction is also treated as a frame regardless of whether the encoded image, which is the reference image, has a frame structure or a field structure. This image is assigned a reference image number. Similarly, if the image to be encoded is an image with a field structure such as (c), a reference image used in motion compensation prediction is also treated as a field regardless of whether the encoded image, which is The reference image has a frame structure or a field structure. This image is assigned a reference image number.

Las ecuaciones (4), (5) y (6) son ejemplos de ecuaciones predictivas para números de imágenes de referencia y parámetros predictivos, que se preparan en el controlador de parámetros predictivos 203. Estos ejemplos son ecuaciones predictivas para generar una señal de imagen de predicción por predicción de compensación de movimiento usando una señal de imagen de referencia. Equations (4), (5) and (6) are examples of predictive equations for reference image numbers and predictive parameters, which are prepared in the predictive parameter controller 203. These examples are predictive equations for generating an image signal. prediction by motion compensation prediction using a reference image signal.

LY −1LY −1

Y = clip (( D () i × R () i + 2) >> L + D ( )) Y = clip ((D () i × R () i + 2) >> L + D ())

iY Y 2 i (4) Lc −1iY Y 2 i (4) Lc −1

Cb = clip (( E () i × (R () i − 128) + 2) >> L + E () i + 128) Cb = clip ((E () i × (R () i - 128) + 2) >> L + E () i + 128)

1 Cb C 2 (5) Lc −11 Cb C 2 (5) Lc −1

Cr = clip (( F () i × (R () i − 128) + 2) >> L + F () i + 128) (6) Cr = clip ((F () i × (R () i - 128) + 2) >> L + F () i + 128) (6)

1 Cr C 2 1 Cr C 2

en las que Y es una señal de imagen de predicción de una señal de luminancia, Cb y Cr son señal de imagen de predicciones de dos señales de diferencias de color, RY (i), RCb (i) y RCr where Y is a prediction image signal of a luminance signal, Cb and Cr are prediction image signal of two color difference signals, RY (i), RCb (i) and RCr

(i) son los valores de píxeles de la señal de luminancia y dos señales de diferencias de color de una señal de imagen de referencia con índice i, D1 (i) y D2 (i) son el coeficiente predictivo y el desplazamiento de la señal de luminancia con índice i, E1 (i) y E2 (i) son el coeficiente predictivo y el desplazamiento de la señal de diferencia de color Cb con índice i, y F1 (i) y F2 (i) son el coeficiente predictivo y el desplazamiento de la señal de diferencia de color Cr con índice i. El índice i indica un valor de 0 (el número máximo de imágenes de referencia -1), y codificado para cada bloque que se codificará (por ejemplo, para cada macrobloque). Los datos resultantes se transmiten a continuación al aparato de decodificación de vídeo. (i) are the pixel values of the luminance signal and two color difference signals of a reference image signal with index i, D1 (i) and D2 (i) are the predictive coefficient and the signal offset of luminance with index i, E1 (i) and E2 (i) are the predictive coefficient and the offset of the color difference signal Cb with index i, and F1 (i) and F2 (i) are the predictive coefficient and the offset of the color difference signal Cr with index i. The index i indicates a value of 0 (the maximum number of reference images -1), and encoded for each block to be encoded (for example, for each macroblock). The resulting data is then transmitted to the video decoding apparatus.

Los parámetros predictivos D1 (i), D2 (i), E1 (i), E2 (i), F1 (i) y F2 (i) están representados por valores determinados con antelación entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo o una unidad de codificación como una trama, campo o sección, y se codifican junto con datos codificados que se transmitirán desde el aparato de codificación de vídeo al aparato de decodificación de vídeo. Con esta operación, estos parámetros son compartiThe predictive parameters D1 (i), D2 (i), E1 (i), E2 (i), F1 (i) and F2 (i) are represented by values determined in advance between the video coding device and the recording device. Video decoding or an encoding unit such as a frame, field or section, and are encoded together with encoded data that will be transmitted from the video encoding apparatus to the video decoding apparatus. With this operation, these parameters are shared

dos por los dos aparatos. Two for both devices.

Las ecuaciones (4), (5) y (6) son ecuaciones predictivas en las que las potencias de 2, es decir, 2, 4, 8, 16,... se seleccionan como denominadores de coeficientes predictivos por los que se multiplican las señales de imagen de referencia. Las ecuaciones predictivas pueden eliminar la necesidad de división y ser calculadas mediante desplazamientos aritméticos. Esto hace posible evitar un gran aumento en el coste de cálculo debido a división. Equations (4), (5) and (6) are predictive equations in which the powers of 2, that is, 2, 4, 8, 16, ... are selected as denominators of predictive coefficients by which they multiply The reference image signals. Predictive equations can eliminate the need for division and be calculated by arithmetic shifts. This makes it possible to avoid a large increase in the cost of calculation due to division.

En las ecuaciones (4), (5) y (6), ">>" de a >> b representa un operador para desplazamiento aritmético de un número entero a a la derecha b bits. La función "clip" representa una función de recorte para establecer el valor de "()" a 0 cuando es menor que 0, y para establecer el valor a 255 cuando es mayor que 255. In equations (4), (5) and (6), ">>" of a >> b represents an operator for arithmetic shift of an integer a to the right b bits. The "clip" function represents a trimming function to set the value of "()" to 0 when it is less than 0, and to set the value to 255 when it is greater than 255.

En este caso, se supone que LY es la cantidad de desplazamiento de una señal de luminancia, y LC es la cantidad de desplazamiento de una señal de diferencia de color. Como estos valores de desplazamiento LY y LC, se usan valores determinados con antelación entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo. El aparato de codificación de vídeo codifica las cantidades de desplazamiento LY y LC, junto con una tabla y datos codificados, en una unidad de codificación predeterminada, por ejemplo, una trama, un cambio o una sección, y transmite los datos resultantes al aparato de decodificación de vídeo. Esto permite que los dos aparatos compartan las cantidades de desplazamiento Ly y LC. In this case, it is assumed that LY is the amount of displacement of a luminance signal, and LC is the amount of displacement of a color difference signal. Like these LY and LC offset values, values determined in advance between the video encoding apparatus and the video decoding apparatus are used. The video coding apparatus encodes the amounts of LY and LC offset, together with a table and encoded data, in a predetermined coding unit, for example, a frame, a change or a section, and transmits the resulting data to the apparatus of video decoding This allows the two devices to share the amounts of travel Ly and LC.

En esta forma de realización, se preparan tablas de combinaciones de números de imágenes de referencia y parámetros predictivos como los mostrados en las FIG. 9 y 10 en el controlador de parámetros predictivos 203 de la FIG. 2. En referencia a las FIG. 9 y 10, el índice i corresponde a imágenes de predicción que pueden seleccionarse para cada bloque. En este caso, están presentes cuatro tipos de imágenes de predicción en correspondencia con de 0 a 3 de índice i. El "número de imagen de referencia" es, en otras palabras, el número de una señal de vídeo local decodificado usado como imagen de referencia. In this embodiment, tables of combinations of reference image numbers and predictive parameters are prepared as shown in FIG. 9 and 10 in the predictive parameter controller 203 of FIG. 2. Referring to FIG. 9 and 10, the index i corresponds to prediction images that can be selected for each block. In this case, four types of prediction images are present in correspondence with 0 to 3 of index i. The "reference image number" is, in other words, the number of a decoded local video signal used as the reference image.

"Indicador" es un indicador que indica si una ecuación predictiva que usa un parámetro predictivo se aplica o no a un número de imagen de referencia indicado por el índice i. Si el Indicador es "0", la predicción de compensación de movimiento se realiza usando la señal de vídeo local decodificado correspondiente al número de imagen de referencia indicado por el índice i sin usar ningún parámetro predictivo. Si el Indicador es "1", se genera una imagen de predicción según las ecuaciones (4), (5) y (6) usando un vídeo local decodificado y un parámetro predictivo correspondiente al número de imagen de referencia indicado por el índice i, realizando así predicción de compensación de movimiento. Esta información de Indicador también se codifica, junto con una tabla y datos codificados, usando un valor determinado con antelación entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo o en una unidad de codificación predeterminada, por ejemplo, una trama, un campo o una sección, en el aparato de codificación de vídeo. Los datos resultantes se transmiten al aparato de decodificación de vídeo. Esto permite que los dos aparatos compartan la información de Indicador. "Indicator" is an indicator that indicates whether a predictive equation using a predictive parameter applies or not to a reference image number indicated by the index i. If the Indicator is "0", the motion compensation prediction is made using the decoded local video signal corresponding to the reference image number indicated by the index i without using any predictive parameter. If the Indicator is "1", a prediction image is generated according to equations (4), (5) and (6) using a decoded local video and a predictive parameter corresponding to the reference image number indicated by the index i, thus performing motion compensation prediction. This Indicator information is also encoded, together with a table and encoded data, using a predetermined value between the video encoding apparatus and the video decoding apparatus or in a predetermined encoding unit, for example, a frame, a field or a section, in the video coding apparatus. The resulting data is transmitted to the video decoding apparatus. This allows the two devices to share the Indicator information.

En estos casos, se genera una imagen de predicción usando un parámetro predictivo cuando el índice i = 0 con respecto a un número de imagen de referencia 105, y se realiza predicción de compensación de movimiento sin usar ningún parámetro predictivo cuando i = 1. Según se describe anteriormente, puede existir una pluralidad de esquemas predictivos para el mismo número de imagen de referencia. In these cases, a prediction image is generated using a predictive parameter when the index i = 0 with respect to a reference image number 105, and motion compensation prediction is performed without using any predictive parameter when i = 1. According to described above, there may be a plurality of predictive schemes for the same reference image number.

La tabla mostrada en la FIG. 9 tiene parámetros predictivos D1 (i), D2 (i), E1 (i), E2 (i), F1 (i) y F2 (i) asignados a una señal de luminancia y dos señales de diferencias de color en correspondencia con las ecuaciones (4), (5) y (6). La FIG. 10 muestra un ejemplo de una tabla en la que se asignan parámetros predictivos sólo a señales de luminancia. En general, el número de bits de una señal de diferencia de color no es muy grande en comparación con el número de bits de una señal de luminancia. Por este motivo, con el fin de reducir la cantidad de cálculo requerida para generar una imagen de predicción y el número de bits transmitidos en una tabla, se prepara una tabla, en la que los parámetros predictivos para señales de diferencias de color se omiten según se muestra en la FIG. 10 y los parámetros predictivos se asignan sólo a señales de luminancia. En este caso, sólo se usa la ecuación (4) como una ecuación predictiva. The table shown in FIG. 9 has predictive parameters D1 (i), D2 (i), E1 (i), E2 (i), F1 (i) and F2 (i) assigned to a luminance signal and two color difference signals corresponding to the equations (4), (5) and (6). FIG. 10 shows an example of a table in which predictive parameters are assigned only to luminance signals. In general, the number of bits of a color difference signal is not very large compared to the number of bits of a luminance signal. For this reason, in order to reduce the amount of calculation required to generate a prediction image and the number of bits transmitted in a table, a table is prepared, in which the predictive parameters for color difference signals are omitted according to is shown in FIG. 10 and the predictive parameters are assigned only to luminance signals. In this case, only equation (4) is used as a predictive equation.

Las ecuaciones (7) a (12) son ecuaciones predictivas en un caso en el que se usa una pluralidad (dos en este caso) de imágenes de referencia. Equations (7) to (12) are predictive equations in a case where a plurality (two in this case) of reference images is used.

LY −1LY −1

P () i = (D () i × R () i + 2) >> L + D () iP () i = (D () i × R () i + 2) >> L + D () i

Y 1 YY 2 Y 1 YY 2

(7) (7)

LC −1LC −1

P () i = (E () i × (R () i − 128) + 2) >> L + E () i + 128 P () i = (E () i × (R () i - 128) + 2) >> L + E () i + 128

Cb 1 Cb C 2 Cb 1 Cb C 2

(8) (8)

LC −1LC −1

P () i = (F () i × (R () i − 128) + 2) >> L + F () i + 128 P () i = (F () i × (R () i - 128) + 2) >> L + F () i + 128

Cr 1 Cr C 2 Cr 1 Cr C 2

(9) Y = clip (( PY () i + PY () j + 1) >> 1) (9) Y = clip ((PY () i + PY () j + 1) >> 1)

(10) Cb = clip (( P () i + P () j + 1) >> 1) (10) Cb = clip ((P () i + P () j + 1) >> 1)

Cb Cb Cb Cb

(11) Cr = clip (( P () i + P () j + 1) >> 1) (11) Cr = clip ((P () i + P () j + 1) >> 1)

Cr Cr Cr Cr

(12) (12)

Los fragmentos de información de los parámetros predictivos D1 (i), D2 (i), E1 (i), E2 (i), F1 (i), F2 (i), LY y LC e Indicador son valores determinados con antelación entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo o codificados, junto con datos codificados, en una unidad de codificación como una trama, un campo o una sección, y se transmiten desde el aparato de codificación de vídeo al aparato de decodificación de vídeo. Esto permite que los dos aparatos compartan estos fragmentos de información. The information fragments of the predictive parameters D1 (i), D2 (i), E1 (i), E2 (i), F1 (i), F2 (i), LY and LC and Indicator are values determined in advance between the video coding apparatus and the video or encoding decoding apparatus, together with encoded data, in an encoding unit such as a frame, a field or a section, and are transmitted from the video encoding apparatus to the decoding apparatus of video. This allows the two devices to share these pieces of information.

Si una imagen que se va a descodificar es una imagen que tiene una estructura de trama, una imagen de referencia usada para predicción de compensación de movimiento se trata también como una trama con independencia de si una imagen decodificada como una imagen de referencia tiene una estructura de trama o una estructura de campo. Se asigna un número de imagen de referencia a esta imagen. Análogamente, si una imagen que se va a programar es una imagen que tiene una estructura de campo, una imagen de referencia usada para predicción de compensación de movimiento se trata también como un campo con independencia de si una imagen decodificada como imagen de referencia tiene una estructura de trama o una estructura de campo. A esta imagen se le asigna un número de imagen de referencia. If an image to be decoded is an image that has a frame structure, a reference image used for motion compensation prediction is also treated as a frame regardless of whether a decoded image as a reference image has a structure. frame or field structure. A reference image number is assigned to this image. Similarly, if an image to be programmed is an image that has a field structure, a reference image used for motion compensation prediction is also treated as a field regardless of whether an image decoded as a reference image has a frame structure or a field structure. This image is assigned a reference image number.

(Sobre la sintaxis de información de índice) (About index information syntax)

La FIG. 11 muestra un ejemplo de una sintaxis en un caso en el que la información de índice está codificada en cada bloque. En primer lugar, la información de modo MODO está presente para cada bloque. Se determina de acuerdo con la información de modo MODO se codifiquen o no la información de índice IDi que indica el valor de índice i y la información de índice IDj que indica el valor de índice j. La información codificada de información de vector de movimiento MVi para la predicción de compensación de movimiento de índice i y la información de vector de movimiento MVj para la compensación predictiva de movimiento de índice j se añade como una información de vector de movimiento para cada bloque después de la información de índice codificada. FIG. 11 shows an example of a syntax in a case where the index information is encoded in each block. First, the MODE mode information is present for each block. It is determined according to the MODE mode information whether or not the index information IDi indicating the index value i and the index information IDj indicating the index value j are encoded. The motion vector information information MVi for the index motion compensation prediction i and the motion vector information MVj for the predictive motion compensation of index j is added as a motion vector information for each block after the indexed information encoded.

(Sobre la estructura de datos de flujo de bits codificados) (About the structure of coded bit stream data)

La FIG. 12 muestra un ejemplo específico de un flujo de bits codificados para cada bloque cuando una imagen de predicción se genera usando una imagen de referencia. La información de índice IDi se establece después de la información de modo MODO, y la información de vector de movimiento MVi se establece posteriormente. La información de vector de movimiento MVi es generalmente información de vector bidimensional. Dependiendo de un procedimiento de compensación de movimiento en un bloque que está indicado por información de modo, puede enviarse adicionalmente una pluralidad de vectores bidimensionales. FIG. 12 shows a specific example of a bit stream encoded for each block when a prediction image is generated using a reference image. The IDi index information is set after the MODE mode information, and the motion vector information MVi is subsequently set. The motion vector information MVi is generally two-dimensional vector information. Depending on a motion compensation procedure in a block that is indicated by mode information, a plurality of two-dimensional vectors can be additionally sent.

La FIG. 13 muestra un ejemplo específico de un flujo de bits codificados para cada bloque cuando se genera una imagen de predicción usando dos imágenes de referencia. La información de índice IDi y la información de índice IDj se establecen después de la información de modo MODO, y la información de vector de movimiento MVi y la información de vector de movimiento MVj se establecen posteriormente. La información de vector de movimiento MVi y la información de vector de movimiento j son generalmente información de vector bidimensional. Dependiendo de un procedimiento de compensación de movimiento en un bloque indicado por información de modo, puede enviarse adicionalmente una pluralidad de vectores bidimensionales. FIG. 13 shows a specific example of a bit stream encoded for each block when a prediction image is generated using two reference images. The IDi index information and the IDj index information are set after the MODE mode information, and the motion vector information MVi and the motion vector information MVj are subsequently set. The motion vector information MVi and the motion vector information j are generally two-dimensional vector information. Depending on a motion compensation procedure in a block indicated by mode information, a plurality of two-dimensional vectors can be additionally sent.

Obsérvese que las estructuras anteriores de una sintaxis y un flujo de bits pueden aplicarse igualmente a todas las formas de realización. Note that the previous structures of a syntax and a bit stream can also be applied to all embodiments.

[Cuarta forma de realización] [Fourth embodiment]

A continuación se describirá la cuarta forma de realización de la presente invención con referencia a las FIG. 14 y 15. Como las configuraciones globales de un aparato de codificación de vídeo y un aparato de decodificación de vídeo en esta forma de realización son casi las mismas que las de la primera forma de realización, sólo se describirán las diferencias con respecto a las formas de realización primera, segunda y tercera. En la tercera forma de realización, la codificación sobre una base de trama y la codificación sobre una base de campo se conmutan para cada imagen. En la cuarta forma de realización, la codificación sobre una base de trama y la codificación sobre una base de campo se conmutan para cada macrobloque. Next, the fourth embodiment of the present invention will be described with reference to FIG. 14 and 15. Since the overall configurations of a video coding apparatus and a video decoding apparatus in this embodiment are almost the same as those of the first embodiment, only the differences with respect to the forms will be described of first, second and third realization. In the third embodiment, the coding on a frame basis and the coding on a field basis are switched for each image. In the fourth embodiment, the coding on a frame basis and the coding on a field basis are switched for each macroblock.

Cuando la codificación sobre una base de trama y la codificación sobre una base de campo se conmutan para cada macrobloque, el mismo número de imagen de referencia indica diferentes imágenes, incluso dentro de la misma imagen, dependiendo de si un macrobloque está codificado sobre la base de trama o sobre la base de campo. Por este motivo, con las tablas mostradas en las FIG. 9 y 10 usadas en la tercera forma de realización, puede no generarse una señal apropiada de imagen de predicción. When encoding on a frame basis and coding on a field basis are switched for each macroblock, the same reference image number indicates different images, even within the same image, depending on whether a macroblock is encoded on the basis. of plot or on the basis of field. For this reason, with the tables shown in FIG. 9 and 10 used in the third embodiment, an appropriate prediction image signal may not be generated.

Con el fin de resolver este problema, en esta forma de realización, las tablas de combinaciones de números de imágenes de referencia y parámetros predictivos como las mostradas en las FIG. 14 y 15 se preparan en un controlador de parámetros predictivos 203 en la FIG. 2. Supóngase que cuando se va a codificar un macrobloque sobre la base de campo, se usa el mismo parámetro predictivo que el correspondiente a un número de imagen de referencia (número de índice de trama de referencia) usado cuando el macrobloque se codifica sobre la base de trama. In order to solve this problem, in this embodiment, the tables of combinations of reference image numbers and predictive parameters such as those shown in FIG. 14 and 15 are prepared in a predictive parameter controller 203 in FIG. 2. Assume that when a macroblock is to be encoded on the field basis, the same predictive parameter is used as that corresponding to a reference image number (reference frame index number) used when the macroblock is encoded on the frame base.

La FIG. 14 muestra una tabla usada cuando el macrobloque se codifica sobre una base de campo y una imagen que se codificará es un campo superior. Las filas superiores e inferiores de cada columna de índice de campo corresponden al campo superior y al campo inferior, respectivamente. Según se muestra en la FIG. 14, el índice de trama j y el índice de campo k están relacionados de manera que cuando k = 2j en el campo superior, k = 2j + 1 en el campo inferior. El número de trama de referencia m y el número de campo de referencia n están relacionados de manera que cuando n = 2m en el campo superior, n = 2m + 1 en el campo inferior. FIG. 14 shows a table used when the macroblock is encoded on a field basis and an image to be encoded is a higher field. The upper and lower rows of each field index column correspond to the upper and lower fields, respectively. As shown in FIG. 14, the frame index j and the field index k are related so that when k = 2j in the upper field, k = 2j + 1 in the lower field. The reference frame number m and the reference field number n are related so that when n = 2m in the upper field, n = 2m + 1 in the lower field.

La FIG. 15 muestra una tabla usada cuando el macrobloque se codifica sobre una base de campo, y una imagen que se codificará es un campo inferior. Como en la tabla mostrada en la FIG. 14, las filas superiores e inferiores de cada columna de índice de campo corresponden a un campo superior y al campo inferior, respectivamente. En la tabla de la FIG. 15, el índice de trama j y el índice de campo k están relacionados de manera que cuando k = 2 + 1 en el campo superior, k = 2j en el campo inferior. Esto hace posible asignar un valor pequeño como índice de campo k a un campo inferior en fase. La relación entre número de trama de referencia m y número de campo de referencia n es la misma que en la tabla de la FIG. 14. FIG. 15 shows a table used when the macroblock is encoded on a field basis, and an image to be encoded is a lower field. As in the table shown in FIG. 14, the upper and lower rows of each field index column correspond to an upper field and the lower field, respectively. In the table of FIG. 15, the frame index j and the field index k are related so that when k = 2 + 1 in the upper field, k = 2j in the lower field. This makes it possible to assign a small value as field index k to a lower field in phase. The relationship between reference frame number m and reference field number n is the same as in the table of FIG. 14.

Cuando el macrobloque se va a codificar sobre una base de campo, se codifican un índice de trama y un índice de campo como información de índice usando las tablas mostradas en las FIG. 14 y 15. Cuando el macrobloque se va a codificar sobre una base de trama, sólo el índice de trama común a las tablas de las FIG. 14 y 15 se codifica por índice como información de índice. When the macroblock is to be encoded on a field basis, a frame index and a field index are encoded as index information using the tables shown in FIG. 14 and 15. When the macroblock is to be encoded on a frame basis, only the frame rate common to the tables in FIG. 14 and 15 is coded by index as index information.

En esta forma de realización, los parámetros predictivos se asignan a una trama y un campo usando una tabla. Sin embargo, pueden prepararse por separado una tabla para tramas y una tabla para campos para una imagen o sección. In this embodiment, the predictive parameters are assigned to a frame and a field using a table. However, a table for frames and a table for fields for an image or section can be prepared separately.

Cada forma de realización descrita anteriormente ha ilustrado el esquema de codificaEach embodiment described above has illustrated the coding scheme

5 ción/decodificación de vídeo usando transformación ortogonal sobre una base de bloque. Sin embargo, incluso si se usa otra técnica de transformación como transformación de tren de ondas, puede usarse la técnica de la presente invención que se ha descrito en las formas de realización anteriores. 5 tion / video decoding using orthogonal transformation on a block base. However, even if another transformation technique is used as a wave train transformation, the technique of the present invention described in the previous embodiments can be used.

El procesamiento de codificación y decodificación de vídeo según la presente invención The video encoding and decoding processing according to the present invention

10 puede implementarse como hardware (aparato) o software usando un ordenador. Algún procesamiento puede implementarse mediante hardware, y el otro procesamiento puede realizarse mediante software. Según la presente invención, puede proporcionarse un programa para hacer que un ordenador ejecute la codificación de vídeo o decodificación de vídeo anterior o un medio de almacenamiento que almacene el programa. 10 can be implemented as hardware (device) or software using a computer. Some processing can be implemented by hardware, and other processing can be done by software. According to the present invention, a program can be provided to make a computer execute the previous video encoding or decoding of video or a storage medium that stores the program.

15 Aplicabilidad industrial 15 Industrial Applicability

Según se ha descrito anteriormente, el procedimiento y el aparato de codificación/decodificación de vídeo según la presente invención son adecuados para el campo de pro20 cesamiento de imágenes en el que se codifica y decodifica un vídeo que cambia de luminancia As described above, the method and the video encoding / decoding apparatus according to the present invention are suitable for the field of image processing in which a luminance-changing video is encoded and decoded.

con el tiempo, como un vídeo de fundido o un vídeo de disolución, en particular. over time, such as a fade video or a dissolution video, in particular.

Claims (2)

REIVINDICACIONES 1. Un procedimiento de codificación de vídeo para realizar codificación predictiva por compensación de movimiento en una imagen de vídeo de entrada que tiene luminancia (Y) y dos diferencias de color (Cr, Cb) que comprende: 1. A video coding method for performing predictive coding by motion compensation in an input video image that has luminance (Y) and two color differences (Cr, Cb) comprising: la selección de una combinación a partir de una pluralidad de combinaciones indexadas de una imagen de referencia, un factor de ponderación preparado para cada luminancia y dos diferencias de color y un desplazamiento preparado para cada luminancia y dos diferencias de color para un bloque que se codificará de la imagen de vídeo de entrada; the selection of a combination from a plurality of indexed combinations of a reference image, a weighting factor prepared for each luminance and two color differences and a displacement prepared for each luminance and two color differences for a block to be encoded of the input video image; la obtención de información de índice (215) que indica la combinación indexada seleccionada; obtaining index information (215) indicating the selected indexed combination; la generación de una imagen de predicción de compensación de movimiento (212) para el bloque que se codificará añadiendo el desplazamiento a la imagen de referencia multiplicado por el factor de ponderación, según un vector de movimiento (214) para el bloque que se codificará; the generation of a motion compensation prediction image (212) for the block to be encoded by adding the offset to the reference image multiplied by the weighting factor, according to a motion vector (214) for the block to be encoded; la generación de una señal de error de predicción para el bloque que se codificará the generation of a prediction error signal for the block to be encoded calculando un error entre la imagen de vídeo de entrada y la imagen de predicción de calculating an error between the input video image and the prediction image of compensación de movimiento; motion compensation; la generación cuantificada de un coeficiente de transformación ortogonal (210) para the quantified generation of an orthogonal transformation coefficient (210) for el bloque que se codificará sometiendo la señal de error de predicción a transformación the block to be encoded by subjecting the prediction error signal to transformation ortogonal y cuantificación; y orthogonal and quantification; Y la codificación del coeficiente de transformación ortogonal cuantificado, la información del vector de movimiento y la información de índice. the coding of the quantified orthogonal transformation coefficient, the motion vector information and the index information. 2. Un aparato de codificación de vídeo para realizar codificación predictiva de compensación de movimiento en una imagen de vídeo de entrada que tiene una luminancia (Y) y dos diferencias de color (Cr, Cb) que comprende: 2. A video coding apparatus for performing predictive coding of motion compensation in an input video image having a luminance (Y) and two color differences (Cr, Cb) comprising: medios para seleccionar una combinación a partir de una pluralidad de combinaciones indexadas de una imagen de referencia, un factor de ponderación preparado para cada luminancia y dos diferencias de color y un desplazamiento preparado para cada luminancia y dos diferencias de color para un bloque que se codificará de la imagen de vídeo de entrada; means for selecting a combination from a plurality of indexed combinations of a reference image, a weighting factor prepared for each luminance and two color differences and a displacement prepared for each luminance and two color differences for a block to be encoded of the input video image; medios (203) para obtener información de índice (215) que indica la combinación inmeans (203) for obtaining index information (215) indicating the combination in dexada seleccionada; medios (204) para generar una imagen de predicción de compensación de movimiento para el bloque que se codificará añadiendo el desplazamiento a la imagen de referencia multiplicado por el factor de ponderación, según un vector de movimiento (214) para el bloque que se codificará; dexada selected; means (204) for generating a motion compensation prediction image for the block to be encoded by adding the offset to the reference image multiplied by the weighting factor, according to a motion vector (214) for the block to be encoded; medios (101) para generar una señal de error de predicción para el bloque que se 5 codificará calculando un error entre la imagen de vídeo de entrada y la imagen de predicción de compensación de movimiento; means (101) for generating a prediction error signal for the block to be encoded by calculating an error between the input video image and the motion compensation prediction image; medios (103, 104) para generar cuantificado un coeficiente de transformación ortogonal para el bloque que se codificará sometiendo la señal de error de predicción a transformación ortogonal y cuantificación; y means (103, 104) for generating an orthogonal transformation coefficient quantified for the block to be encoded by subjecting the prediction error signal to orthogonal transformation and quantification; Y 10 medios (111) para codificar el coeficiente de transformación ortogonal cuantificado, la información del vector de movimiento y la información de índice. 10 means (111) for encoding the quantified orthogonal transformation coefficient, the motion vector information and the index information.
ES03717655T 2002-04-18 2003-04-18 PROCEDURE AND DEVICE FOR THE CODING OF MOVING IMAGES. Expired - Lifetime ES2351306T3 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002-116718 2002-04-18
JP2002116718 2002-04-18
JP2002-340042 2002-11-22

Publications (1)

Publication Number Publication Date
ES2351306T3 true ES2351306T3 (en) 2011-02-02

Family

ID=37390619

Family Applications (2)

Application Number Title Priority Date Filing Date
ES07006031T Expired - Lifetime ES2355656T3 (en) 2002-04-18 2003-04-18 PROCEDURE AND DEVICE FOR VIDEO DECODIFICATION.
ES03717655T Expired - Lifetime ES2351306T3 (en) 2002-04-18 2003-04-18 PROCEDURE AND DEVICE FOR THE CODING OF MOVING IMAGES.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES07006031T Expired - Lifetime ES2355656T3 (en) 2002-04-18 2003-04-18 PROCEDURE AND DEVICE FOR VIDEO DECODIFICATION.

Country Status (4)

Country Link
JP (319) JP4127714B2 (en)
CN (3) CN101631247B (en)
ES (2) ES2355656T3 (en)
NO (1) NO339262B1 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0858940A (en) * 1994-08-25 1996-03-05 Mukai Kogyo Kk Conveyer device
US7075502B1 (en) 1998-04-10 2006-07-11 E Ink Corporation Full color reflective display with multichromatic sub-pixels
JP4015934B2 (en) 2002-04-18 2007-11-28 株式会社東芝 Video coding method and apparatus
ES2355656T3 (en) * 2002-04-18 2011-03-29 Kabushiki Kaisha Toshiba PROCEDURE AND DEVICE FOR VIDEO DECODIFICATION.
CN101222638B (en) * 2007-01-08 2011-12-07 华为技术有限公司 Multi-video encoding and decoding method and device
KR101365444B1 (en) * 2007-11-19 2014-02-21 삼성전자주식회사 Method and apparatus for encoding/decoding moving image efficiently through adjusting a resolution of image
TWI447954B (en) 2009-09-15 2014-08-01 Showa Denko Kk Light-emitting diode, light-emitting diode lamp and lighting apparatus
JP5440927B2 (en) 2009-10-19 2014-03-12 株式会社リコー Distance camera device
JP2011087202A (en) 2009-10-19 2011-04-28 Sony Corp Storage device and data communication system
CN103826130B (en) * 2010-04-08 2017-03-01 株式会社东芝 Picture decoding method and picture decoding apparatus
CN103826131B (en) * 2010-04-08 2017-03-01 株式会社东芝 Picture decoding method and picture decoding apparatus
WO2011125211A1 (en) 2010-04-08 2011-10-13 株式会社 東芝 Image encoding method and image decoding method
JP5325157B2 (en) * 2010-04-09 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program
JP5482407B2 (en) 2010-04-28 2014-05-07 株式会社リコー Information processing apparatus, image processing apparatus, image processing system, screen customization method, screen customization program, and recording medium recording the program
CN106067973B (en) * 2010-05-19 2019-06-18 Sk电信有限公司 Video decoding apparatus
JP2012032611A (en) 2010-07-30 2012-02-16 Sony Corp Stereoscopic image display apparatus
JP5757075B2 (en) 2010-09-15 2015-07-29 ソニー株式会社 Transmitting apparatus, transmitting method, receiving apparatus, receiving method, program, and broadcasting system
KR101755601B1 (en) 2010-11-04 2017-07-10 삼성디스플레이 주식회사 Liquid Crystal Display integrated Touch Screen Panel
KR20120080122A (en) * 2011-01-06 2012-07-16 삼성전자주식회사 Apparatus and method for encoding and decoding multi-view video based competition
WO2012093879A2 (en) * 2011-01-06 2012-07-12 삼성전자주식회사 Competition-based multiview video encoding/decoding device and method thereof
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
KR101953384B1 (en) 2011-03-06 2019-03-04 엘지전자 주식회사 Intra prediction method of chrominance block using luminance sample, and apparatus using same
GB2491589B (en) 2011-06-06 2015-12-16 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of image
MX2013013912A (en) * 2011-06-27 2013-12-16 Panasonic Corp Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device.
US9426482B2 (en) * 2011-06-28 2016-08-23 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US8599652B2 (en) 2011-07-14 2013-12-03 Tdk Corporation Thermally-assisted magnetic recording medium and magnetic recording/reproducing device using the same
JP5830993B2 (en) * 2011-07-14 2015-12-09 ソニー株式会社 Image processing apparatus and image processing method
CN103124346B (en) * 2011-11-18 2016-01-20 北京大学 A kind of determination method and system of residual prediction
BR112014015171B1 (en) * 2011-12-22 2020-10-06 Samsung Electronics Co., Ltd VIDEO DECODING DEVICE
CN110536141B (en) 2012-01-20 2021-07-06 索尼公司 Complexity reduction for significance map coding
WO2014007514A1 (en) * 2012-07-02 2014-01-09 엘지전자 주식회사 Method for decoding image and apparatus using same
TWI492373B (en) * 2012-08-09 2015-07-11 Au Optronics Corp Method for fabricating flexible display module
US9724920B2 (en) 2013-03-20 2017-08-08 Hewlett-Packard Development Company, L.P. Molded die slivers with exposed front and back surfaces
JP6087747B2 (en) 2013-06-27 2017-03-01 Kddi株式会社 Video encoding device, video decoding device, video system, video encoding method, video decoding method, and program
US9863808B2 (en) 2014-01-08 2018-01-09 Asahi Kasei Microdevices Corporation Output-current detection chip for diode sensors, and diode sensor device
JP6619930B2 (en) 2014-12-19 2019-12-11 株式会社Adeka Polyolefin resin composition
CN108027816B (en) * 2015-10-28 2021-10-26 株式会社东芝 Data management system, data management method, and recording medium
AU2017224004B2 (en) 2016-02-24 2021-10-28 Magic Leap, Inc. Polarizing beam splitter with low light leakage
DE102019103438A1 (en) 2019-02-12 2020-08-13 Werner Krammel Vehicle with tilting frame and spring damper system
CN114213441B (en) * 2021-12-27 2023-12-01 中国科学院长春应用化学研究所 Boron or phosphorus fused ring compound, preparation method thereof and light-emitting device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2938412B2 (en) * 1996-09-03 1999-08-23 日本電信電話株式会社 Method for compensating luminance change of moving image, moving image encoding device, moving image decoding device, recording medium recording moving image encoding or decoding program, and recording medium recording moving image encoded data
FR2755527B1 (en) * 1996-11-07 1999-01-08 Thomson Multimedia Sa MOTION COMPENSATED PREDICTION METHOD AND ENCODER USING SUCH A METHOD
CN1152576C (en) * 1997-07-08 2004-06-02 索尼公司 Video data coding device, coding method, transport unit and recording medium
JP2001333389A (en) * 2000-05-17 2001-11-30 Mitsubishi Electric Research Laboratories Inc Video reproduction system and method for processing video signal
ES2355656T3 (en) * 2002-04-18 2011-03-29 Kabushiki Kaisha Toshiba PROCEDURE AND DEVICE FOR VIDEO DECODIFICATION.

Also Published As

Publication number Publication date
JP4376303B2 (en) 2009-12-02
JP2009011007A (en) 2009-01-15
JP4637291B2 (en) 2011-02-23
JP4517020B2 (en) 2010-08-04
JP4538570B2 (en) 2010-09-08
JP4517033B2 (en) 2010-08-04
JP2010158063A (en) 2010-07-15
JP4427622B2 (en) 2010-03-10
JP4517014B2 (en) 2010-08-04
JP4538564B2 (en) 2010-09-08
JP4637290B2 (en) 2011-02-23
JP4256455B2 (en) 2009-04-22
JP2007068216A (en) 2007-03-15
JP4213766B1 (en) 2009-01-21
JP4338774B2 (en) 2009-10-07
JP2010172018A (en) 2010-08-05
JP2009207171A (en) 2009-09-10
JP2010206850A (en) 2010-09-16
JP4427627B2 (en) 2010-03-10
JP4560137B2 (en) 2010-10-13
JP2010172024A (en) 2010-08-05
JP2011024261A (en) 2011-02-03
JP2009239940A (en) 2009-10-15
JP4320370B2 (en) 2009-08-26
JP4406051B2 (en) 2010-01-27
JP4355767B2 (en) 2009-11-04
JP4406063B2 (en) 2010-01-27
JP4517041B2 (en) 2010-08-04
JP2010158064A (en) 2010-07-15
JP4406053B1 (en) 2010-01-27
JP4282752B2 (en) 2009-06-24
JP2009136006A (en) 2009-06-18
JP4517039B2 (en) 2010-08-04
JP2009219136A (en) 2009-09-24
JP2010028847A (en) 2010-02-04
JP2010283897A (en) 2010-12-16
JP2010016868A (en) 2010-01-21
JP2010028842A (en) 2010-02-04
JP2010022034A (en) 2010-01-28
JP2011030271A (en) 2011-02-10
JP2009225464A (en) 2009-10-01
JP2008199651A (en) 2008-08-28
JP4355764B2 (en) 2009-11-04
JP4478742B2 (en) 2010-06-09
JP4406059B2 (en) 2010-01-27
JP4427624B2 (en) 2010-03-10
JP2009165182A (en) 2009-07-23
JP2009239949A (en) 2009-10-15
JP2010016869A (en) 2010-01-21
JP2010045809A (en) 2010-02-25
JP2009136010A (en) 2009-06-18
JP4331259B2 (en) 2009-09-16
JP2010074846A (en) 2010-04-02
JP4406086B1 (en) 2010-01-27
JP4538561B2 (en) 2010-09-08
JP4517024B2 (en) 2010-08-04
JP4538551B2 (en) 2010-09-08
JP2010172021A (en) 2010-08-05
JP2010028852A (en) 2010-02-04
JP2010158072A (en) 2010-07-15
JP2011004447A (en) 2011-01-06
JP2010183626A (en) 2010-08-19
JP4307526B2 (en) 2009-08-05
JP2010028834A (en) 2010-02-04
JP4478743B2 (en) 2010-06-09
JP4406067B2 (en) 2010-01-27
JP4376309B2 (en) 2009-12-02
JP4406078B1 (en) 2010-01-27
JP2014057363A (en) 2014-03-27
JP2010104058A (en) 2010-05-06
JP2010028844A (en) 2010-02-04
JP2010158066A (en) 2010-07-15
JP4208955B2 (en) 2009-01-14
JP4338772B2 (en) 2009-10-07
JP4406056B2 (en) 2010-01-27
JP4307532B2 (en) 2009-08-05
JP4338778B2 (en) 2009-10-07
JP4496315B2 (en) 2010-07-07
JP4406061B2 (en) 2010-01-27
JP2009136013A (en) 2009-06-18
JP2011030269A (en) 2011-02-10
JP2009239937A (en) 2009-10-15
JP2010028845A (en) 2010-02-04
JP4355758B2 (en) 2009-11-04
JP4208947B2 (en) 2009-01-14
JP4406057B2 (en) 2010-01-27
JP4406065B2 (en) 2010-01-27
JP2010028850A (en) 2010-02-04
JP2009136016A (en) 2009-06-18
JP4538546B2 (en) 2010-09-08
JP4538539B2 (en) 2010-09-08
JP4376302B1 (en) 2009-12-02
JP4496305B2 (en) 2010-07-07
JP2010022038A (en) 2010-01-28
JP2010283900A (en) 2010-12-16
JP4496304B1 (en) 2010-07-07
JP4406089B1 (en) 2010-01-27
JP2009296645A (en) 2009-12-17
JP2010016864A (en) 2010-01-21
JP4406066B1 (en) 2010-01-27
JP4406079B1 (en) 2010-01-27
JP5481518B2 (en) 2014-04-23
JP4406072B2 (en) 2010-01-27
JP4538571B2 (en) 2010-09-08
JP4637292B2 (en) 2011-02-23
JP2010124507A (en) 2010-06-03
JP2009136007A (en) 2009-06-18
JP2010016867A (en) 2010-01-21
JP4478747B2 (en) 2010-06-09
JP4307539B2 (en) 2009-08-05
JP4478751B2 (en) 2010-06-09
JP4355759B2 (en) 2009-11-04
JP4517016B2 (en) 2010-08-04
JP4538552B2 (en) 2010-09-08
JP2010158059A (en) 2010-07-15
JP4517032B2 (en) 2010-08-04
JP4625542B1 (en) 2011-02-02
JP2010074850A (en) 2010-04-02
JP4538569B2 (en) 2010-09-08
JP4496314B2 (en) 2010-07-07
JP4478745B2 (en) 2010-06-09
JP4538549B1 (en) 2010-09-08
JP4406054B2 (en) 2010-01-27
JP5921656B2 (en) 2016-05-24
JP4496308B2 (en) 2010-07-07
JP4637287B2 (en) 2011-02-23
JP4338775B2 (en) 2009-10-07
JP4427617B2 (en) 2010-03-10
JP4376308B1 (en) 2009-12-02
JP4282753B2 (en) 2009-06-24
JP2010158076A (en) 2010-07-15
JP4517023B1 (en) 2010-08-04
JP2010098755A (en) 2010-04-30
JP4560140B2 (en) 2010-10-13
JP4496309B2 (en) 2010-07-07
JP4376312B1 (en) 2009-12-02
ES2355656T3 (en) 2011-03-29
JP4307538B2 (en) 2009-08-05
CN101631248A (en) 2010-01-20
JP2010158069A (en) 2010-07-15
JP2010172042A (en) 2010-08-05
JP2009290879A (en) 2009-12-10
JP2009055640A (en) 2009-03-12
JP2009081878A (en) 2009-04-16
JP2010178395A (en) 2010-08-12
JP2011004446A (en) 2011-01-06
JP4307528B2 (en) 2009-08-05
JP2010022036A (en) 2010-01-28
JP2010104047A (en) 2010-05-06
JP2010124495A (en) 2010-06-03
JP2010045810A (en) 2010-02-25
JP4376305B1 (en) 2009-12-02
JP2009278644A (en) 2009-11-26
JP4406081B1 (en) 2010-01-27
JP4460630B2 (en) 2010-05-12
JP4282758B2 (en) 2009-06-24
JP4538543B2 (en) 2010-09-08
JP4538547B2 (en) 2010-09-08
JP2010016876A (en) 2010-01-21
JP2009219135A (en) 2009-09-24
JP2009290881A (en) 2009-12-10
JP2010124502A (en) 2010-06-03
JP2010104054A (en) 2010-05-06
JP2009296652A (en) 2009-12-17
JP2010172022A (en) 2010-08-05
JP2010028848A (en) 2010-02-04
JP2010074847A (en) 2010-04-02
JP4517040B2 (en) 2010-08-04
JP4496300B1 (en) 2010-07-07
JP2010124501A (en) 2010-06-03
JP4427610B2 (en) 2010-03-10
JP4427612B2 (en) 2010-03-10
JP4307525B2 (en) 2009-08-05
JP4427626B2 (en) 2010-03-10
JP2008211855A (en) 2008-09-11
JP2008182763A (en) 2008-08-07
JP2009207173A (en) 2009-09-10
JP2010028833A (en) 2010-02-04
JP2010124499A (en) 2010-06-03
JP2010124508A (en) 2010-06-03
JP2007068215A (en) 2007-03-15
JP2009136021A (en) 2009-06-18
JP2010172027A (en) 2010-08-05
JP2009296649A (en) 2009-12-17
JP2010104041A (en) 2010-05-06
JP2010104057A (en) 2010-05-06
JP2009278643A (en) 2009-11-26
JP4127716B2 (en) 2008-07-30
JP4478741B2 (en) 2010-06-09
JP4406073B2 (en) 2010-01-27
JP4127715B2 (en) 2008-07-30
JP4460640B2 (en) 2010-05-12
JP2009296646A (en) 2009-12-17
JP4234781B1 (en) 2009-03-04
JP2010104046A (en) 2010-05-06
JP2009219137A (en) 2009-09-24
JP4538568B2 (en) 2010-09-08
JP2010172020A (en) 2010-08-05
JP2010172035A (en) 2010-08-05
JP2011030270A (en) 2011-02-10
JP4208953B2 (en) 2009-01-14
JP2009136003A (en) 2009-06-18
JP2010172041A (en) 2010-08-05
JP2010104042A (en) 2010-05-06
JP2009071888A (en) 2009-04-02
JP2009033770A (en) 2009-02-12
JP4307535B2 (en) 2009-08-05
JP4320368B2 (en) 2009-08-26
JP4406064B1 (en) 2010-01-27
JP2010022032A (en) 2010-01-28
JP2010098759A (en) 2010-04-30
JP4460635B2 (en) 2010-05-12
JP4478746B2 (en) 2010-06-09
JP4282754B2 (en) 2009-06-24
JP4376313B2 (en) 2009-12-02
JP2008199649A (en) 2008-08-28
JP2010158077A (en) 2010-07-15
JP2009207172A (en) 2009-09-10
JP4438901B1 (en) 2010-03-24
JP2009050020A (en) 2009-03-05
JP2010016877A (en) 2010-01-21
JP4282755B2 (en) 2009-06-24
JP4127717B2 (en) 2008-07-30
JP2010104050A (en) 2010-05-06
JP4355761B2 (en) 2009-11-04
JP4427621B2 (en) 2010-03-10
JP4438904B1 (en) 2010-03-24
JP4406071B2 (en) 2010-01-27
JP2010183627A (en) 2010-08-19
JP2010154580A (en) 2010-07-08
JP2011004445A (en) 2011-01-06
JP2010028846A (en) 2010-02-04
JP4438902B1 (en) 2010-03-24
JP4427620B2 (en) 2010-03-10
JP2010104051A (en) 2010-05-06
JP2009136017A (en) 2009-06-18
JP2010172029A (en) 2010-08-05
JP4406069B2 (en) 2010-01-27
JP2009278650A (en) 2009-11-26
JP2010035184A (en) 2010-02-12
JP2010098750A (en) 2010-04-30
JP2009081889A (en) 2009-04-16
JP4637276B2 (en) 2011-02-23
JP4256457B2 (en) 2009-04-22
JP4427613B2 (en) 2010-03-10
JP4406076B2 (en) 2010-01-27
JP4478750B2 (en) 2010-06-09
JP4538540B2 (en) 2010-09-08
JP4538544B2 (en) 2010-09-08
JP2009278648A (en) 2009-11-26
NO339262B1 (en) 2016-11-21
JP4538550B2 (en) 2010-09-08
JP4355756B2 (en) 2009-11-04
JP4338773B2 (en) 2009-10-07
JP4517021B2 (en) 2010-08-04
JP2009136005A (en) 2009-06-18
JP2009165181A (en) 2009-07-23
JP2010158075A (en) 2010-07-15
JP2009081879A (en) 2009-04-16
JP4427608B2 (en) 2010-03-10
JP2010206849A (en) 2010-09-16
JP2008211857A (en) 2008-09-11
JP2010016873A (en) 2010-01-21
JP2010200365A (en) 2010-09-09
JP2008263641A (en) 2008-10-30
JP2009071884A (en) 2009-04-02
JP2009071886A (en) 2009-04-02
JP4307536B2 (en) 2009-08-05
JP4247305B1 (en) 2009-04-02
JP2010183628A (en) 2010-08-19
JP2009077425A (en) 2009-04-09
JP2010183629A (en) 2010-08-19
JP4637284B2 (en) 2011-02-23
JP2010178387A (en) 2010-08-12
JP4517027B1 (en) 2010-08-04
JP4637285B2 (en) 2011-02-23
JP4355766B2 (en) 2009-11-04
JP2010178396A (en) 2010-08-12
JP4355755B2 (en) 2009-11-04
JP4637282B2 (en) 2011-02-23
JP4355769B2 (en) 2009-11-04
CN100508609C (en) 2009-07-01
JP4338771B2 (en) 2009-10-07
JP4406088B1 (en) 2010-01-27
JP2011004439A (en) 2011-01-06
JP2010104040A (en) 2010-05-06
JP2010022037A (en) 2010-01-28
JP2010206848A (en) 2010-09-16
JP2010074853A (en) 2010-04-02
JP4307529B2 (en) 2009-08-05
JP2015043638A (en) 2015-03-05
JP2010172033A (en) 2010-08-05
JP2010104044A (en) 2010-05-06
JP2009225463A (en) 2009-10-01
JP2010028836A (en) 2010-02-04
JP2010206832A (en) 2010-09-16
JP2010158065A (en) 2010-07-15
JP2009239939A (en) 2009-10-15
JP4460637B2 (en) 2010-05-12
JP2010041732A (en) 2010-02-18
JP4460636B2 (en) 2010-05-12
JP4208954B2 (en) 2009-01-14
JP4538541B1 (en) 2010-09-08
JP4406080B1 (en) 2010-01-27
JP4560138B2 (en) 2010-10-13
JP4637277B2 (en) 2011-02-23
JP4637288B2 (en) 2011-02-23
JP2009219134A (en) 2009-09-24
JP2010172026A (en) 2010-08-05
JP2009239947A (en) 2009-10-15
JP2010172032A (en) 2010-08-05
JP2011024260A (en) 2011-02-03
JP4517036B2 (en) 2010-08-04
JP2010028840A (en) 2010-02-04
JP4256456B2 (en) 2009-04-22
JP4517030B2 (en) 2010-08-04
JP4460631B2 (en) 2010-05-12
JP2007053799A (en) 2007-03-01
JP2009136011A (en) 2009-06-18
JP4406083B1 (en) 2010-01-27
JP2010124496A (en) 2010-06-03
JP2009207175A (en) 2009-09-10
JP2011024259A (en) 2011-02-03
JP2010074852A (en) 2010-04-02
JP2010158078A (en) 2010-07-15
JP2010104048A (en) 2010-05-06
JP2009296648A (en) 2009-12-17
JP2010028843A (en) 2010-02-04
JP2010098753A (en) 2010-04-30
JP4460638B2 (en) 2010-05-12
JP2009239950A (en) 2009-10-15
JP2010124505A (en) 2010-06-03
JP2009239942A (en) 2009-10-15
JP2010136429A (en) 2010-06-17
JP2010104045A (en) 2010-05-06
JP4256462B2 (en) 2009-04-22
JP4256461B2 (en) 2009-04-22
JP4538554B2 (en) 2010-09-08
JP2009239945A (en) 2009-10-15
JP2010104052A (en) 2010-05-06
JP2010028839A (en) 2010-02-04
JP2010098748A (en) 2010-04-30
JP2010098756A (en) 2010-04-30
JP2010172023A (en) 2010-08-05
JP2011004442A (en) 2011-01-06
JP4376315B2 (en) 2009-12-02
JP2010172025A (en) 2010-08-05
JP4427614B2 (en) 2010-03-10
JP4355760B2 (en) 2009-11-04
JP4538556B2 (en) 2010-09-08
JP2010124500A (en) 2010-06-03
JP2010161816A (en) 2010-07-22
JP2009239941A (en) 2009-10-15
JP2010074849A (en) 2010-04-02
JP2010098749A (en) 2010-04-30
CN101631248B (en) 2011-09-14
JP2009136018A (en) 2009-06-18
JP2009011006A (en) 2009-01-15
JP4478739B2 (en) 2010-06-09
JP4376301B2 (en) 2009-12-02
JP2010283898A (en) 2010-12-16
JP4496312B2 (en) 2010-07-07
JP2010016870A (en) 2010-01-21
JP4637283B2 (en) 2011-02-23
JP4538560B2 (en) 2010-09-08
JP4427611B2 (en) 2010-03-10
JP4127714B2 (en) 2008-07-30
JP2010028841A (en) 2010-02-04
JP2007068217A (en) 2007-03-15
JP2009112045A (en) 2009-05-21
JP2010098757A (en) 2010-04-30
JP2009071887A (en) 2009-04-02
JP2010178397A (en) 2010-08-12
JP2010074851A (en) 2010-04-02
JP2010206851A (en) 2010-09-16
JP2010016875A (en) 2010-01-21
CN101631247B (en) 2011-07-27
JP2007104699A (en) 2007-04-19
JP4427623B2 (en) 2010-03-10
JP4438899B1 (en) 2010-03-24
JP4517037B2 (en) 2010-08-04
JP4208945B2 (en) 2009-01-14
JP2009136004A (en) 2009-06-18
JP2010022033A (en) 2010-01-28
JP2009296644A (en) 2009-12-17
JP2009165180A (en) 2009-07-23
JP4406074B2 (en) 2010-01-27
JP4355770B2 (en) 2009-11-04
JP4517026B2 (en) 2010-08-04
JP4538555B2 (en) 2010-09-08
JP2009225465A (en) 2009-10-01
JP2010172034A (en) 2010-08-05
JP2007053800A (en) 2007-03-01
JP4234780B2 (en) 2009-03-04
JP4637289B2 (en) 2011-02-23
JP2010028835A (en) 2010-02-04
JP4355757B2 (en) 2009-11-04
JP2009296650A (en) 2009-12-17
JP4478734B2 (en) 2010-06-09
JP4517012B1 (en) 2010-08-04
JP2010022035A (en) 2010-01-28
JP2010016874A (en) 2010-01-21
JP2010016871A (en) 2010-01-21
JP4406060B1 (en) 2010-01-27
JP4320369B2 (en) 2009-08-26
JP4460634B2 (en) 2010-05-12
JP2009278645A (en) 2009-11-26
JP2010172036A (en) 2010-08-05
JP4637279B2 (en) 2011-02-23
JP2010158061A (en) 2010-07-15
JP2009290884A (en) 2009-12-10
JP2010104056A (en) 2010-05-06
JP4496313B2 (en) 2010-07-07
JP4438898B1 (en) 2010-03-24
JP2008301538A (en) 2008-12-11
JP4478752B2 (en) 2010-06-09
JP2009290880A (en) 2009-12-10
JP4406077B1 (en) 2010-01-27
JP4438903B1 (en) 2010-03-24
JP4517025B2 (en) 2010-08-04
JP4247304B2 (en) 2009-04-02
JP4427619B2 (en) 2010-03-10
JP2010124497A (en) 2010-06-03
JP2011004444A (en) 2011-01-06
JP2010124506A (en) 2010-06-03
JP4438897B1 (en) 2010-03-24
JP4406068B2 (en) 2010-01-27
JP4496302B2 (en) 2010-07-07
JP4538567B1 (en) 2010-09-08
JP4637278B2 (en) 2011-02-23
JP4256458B2 (en) 2009-04-22
JP4538565B2 (en) 2010-09-08
JP4320371B2 (en) 2009-08-26
JP4517015B1 (en) 2010-08-04
JP4478744B2 (en) 2010-06-09
JP4406082B1 (en) 2010-01-27
JP4376306B2 (en) 2009-12-02
JP2009011008A (en) 2009-01-15
JP2010098751A (en) 2010-04-30
JP4282757B2 (en) 2009-06-24
JP4517029B2 (en) 2010-08-04
JP4538566B2 (en) 2010-09-08
JP4478740B2 (en) 2010-06-09
JP2009038840A (en) 2009-02-19
JP2010172030A (en) 2010-08-05
JP2009077424A (en) 2009-04-09
JP2009017589A (en) 2009-01-22
JP2010016865A (en) 2010-01-21
JP4405584B2 (en) 2010-01-27
JP4460639B2 (en) 2010-05-12
JP4256459B2 (en) 2009-04-22
JP4478733B2 (en) 2010-06-09
JP4307527B2 (en) 2009-08-05
JP4406052B2 (en) 2010-01-27
JP4517017B1 (en) 2010-08-04
JP2010028851A (en) 2010-02-04
JP2008199650A (en) 2008-08-28
JP2010041733A (en) 2010-02-18
JP4376310B1 (en) 2009-12-02
JP2010283899A (en) 2010-12-16
JP2010158067A (en) 2010-07-15
JP2010158070A (en) 2010-07-15
JP2009077423A (en) 2009-04-09
JP4282756B2 (en) 2009-06-24
JP4406070B2 (en) 2010-01-27
JP4538553B2 (en) 2010-09-08
JP4665062B2 (en) 2011-04-06
JP2008211856A (en) 2008-09-11
JP4517035B2 (en) 2010-08-04
JP4247306B1 (en) 2009-04-02
JP2009239944A (en) 2009-10-15
JP2010124503A (en) 2010-06-03
JP2009136015A (en) 2009-06-18
JP2011004438A (en) 2011-01-06
JP2010028849A (en) 2010-02-04
JP2009136014A (en) 2009-06-18
JP4637286B2 (en) 2011-02-23
JP4376304B2 (en) 2009-12-02
JP4460641B2 (en) 2010-05-12
JP2010074848A (en) 2010-04-02
JP2009165179A (en) 2009-07-23
JP2009118514A (en) 2009-05-28
JP5738968B2 (en) 2015-06-24
JP2010028838A (en) 2010-02-04
JP4538559B2 (en) 2010-09-08
JP4406049B1 (en) 2010-01-27
JP2010161815A (en) 2010-07-22
JP4127713B2 (en) 2008-07-30
JP4478748B2 (en) 2010-06-09
JP4406048B2 (en) 2010-01-27
JP2011004441A (en) 2011-01-06
JP2009017590A (en) 2009-01-22
JP4538542B2 (en) 2010-09-08
JP4406058B2 (en) 2010-01-27
JP4517034B2 (en) 2010-08-04
JP4320366B2 (en) 2009-08-26
JP4496307B2 (en) 2010-07-07
JP2010124504A (en) 2010-06-03
JP4406047B2 (en) 2010-01-27
JP4127718B2 (en) 2008-07-30
JP4320367B2 (en) 2009-08-26
JP2010158062A (en) 2010-07-15
JP2009296651A (en) 2009-12-17
JP4338776B2 (en) 2009-10-07
JP2009038839A (en) 2009-02-19
JP2009050019A (en) 2009-03-05
JP4355765B2 (en) 2009-11-04
JP4427625B2 (en) 2010-03-10
JP2010098754A (en) 2010-04-30
JP2010028827A (en) 2010-02-04
JP4376307B2 (en) 2009-12-02
JP2009022051A (en) 2009-01-29
JP2010172037A (en) 2010-08-05
JP2009165177A (en) 2009-07-23
JP2010183625A (en) 2010-08-19
JP2011004440A (en) 2011-01-06
JP2010028825A (en) 2010-02-04
CN1863315A (en) 2006-11-15
JP4517011B2 (en) 2010-08-04
JP2009239948A (en) 2009-10-15
JP2010158074A (en) 2010-07-15
JP4376314B1 (en) 2009-12-02
JP4496311B2 (en) 2010-07-07
JP4307534B2 (en) 2009-08-05
JP4637280B2 (en) 2011-02-23
JP2010016872A (en) 2010-01-21
JP2010158060A (en) 2010-07-15
JP2010028837A (en) 2010-02-04
CN101631247A (en) 2010-01-20
JP2010172039A (en) 2010-08-05
JP2010158073A (en) 2010-07-15
JP2010104055A (en) 2010-05-06
JP4307523B2 (en) 2009-08-05
JP4355762B2 (en) 2009-11-04
JP4355768B2 (en) 2009-11-04
JP2010028824A (en) 2010-02-04
JP2010161814A (en) 2010-07-22
JP2010206852A (en) 2010-09-16
JP4307522B2 (en) 2009-08-05
JP2009239943A (en) 2009-10-15
JP2009290882A (en) 2009-12-10
JP4478735B2 (en) 2010-06-09
JP4309469B2 (en) 2009-08-05
JP4307530B2 (en) 2009-08-05
JP2009278649A (en) 2009-11-26
JP2009136012A (en) 2009-06-18
JP2010124498A (en) 2010-06-03
JP2009136009A (en) 2009-06-18
JP2009278646A (en) 2009-11-26
JP2010172019A (en) 2010-08-05
JP4427609B2 (en) 2010-03-10
JP2009071885A (en) 2009-04-02
JP4496303B2 (en) 2010-07-07
JP4234783B2 (en) 2009-03-04
JP4307524B2 (en) 2009-08-05
JP4406085B1 (en) 2010-01-27
JP4538558B2 (en) 2010-09-08
JP4307537B2 (en) 2009-08-05
JP4406050B2 (en) 2010-01-27
JP4538563B2 (en) 2010-09-08
JP4460632B2 (en) 2010-05-12
JP4208952B2 (en) 2009-01-14
JP4427615B2 (en) 2010-03-10
JP2009165178A (en) 2009-07-23
JP4355771B2 (en) 2009-11-04
JP4560139B2 (en) 2010-10-13
JP4560136B2 (en) 2010-10-13
JP2010016863A (en) 2010-01-21
JP2009239946A (en) 2009-10-15
NO20150299L (en) 2004-01-29
JP2009296647A (en) 2009-12-17
JP2010200366A (en) 2010-09-09
JP4438900B1 (en) 2010-03-24
JP4538545B2 (en) 2010-09-08
JP4376311B2 (en) 2009-12-02
JP4478738B2 (en) 2010-06-09
JP4478736B1 (en) 2010-06-09
JP4427616B2 (en) 2010-03-10
JP4256465B2 (en) 2009-04-22
JP4208946B2 (en) 2009-01-14
JP2009278647A (en) 2009-11-26
JP2010158071A (en) 2010-07-15
JP4307531B2 (en) 2009-08-05
JP4406084B1 (en) 2010-01-27
JP4517031B2 (en) 2010-08-04
JP4208913B2 (en) 2009-01-14
JP4478749B2 (en) 2010-06-09
JP2009207174A (en) 2009-09-10
JP4406075B2 (en) 2010-01-27
JP2010022039A (en) 2010-01-28
JP2009290883A (en) 2009-12-10
JP2010104053A (en) 2010-05-06
JP2009296619A (en) 2009-12-17
JP2010158053A (en) 2010-07-15
JP4517028B2 (en) 2010-08-04
JP2010028826A (en) 2010-02-04
JP4517019B2 (en) 2010-08-04
JP2009136019A (en) 2009-06-18
JP2010172040A (en) 2010-08-05
JP2009278642A (en) 2009-11-26
JP2010158052A (en) 2010-07-15
JP2007060713A (en) 2007-03-08
JP4496306B2 (en) 2010-07-07
JP4427618B2 (en) 2010-03-10
JP4460633B2 (en) 2010-05-12
JP4538562B2 (en) 2010-09-08
JP2010172031A (en) 2010-08-05
JP4478737B2 (en) 2010-06-09
JP2012161092A (en) 2012-08-23
JP2010098758A (en) 2010-04-30
JP4234784B1 (en) 2009-03-04
JP4406062B1 (en) 2010-01-27
JP4355763B2 (en) 2009-11-04
JP4538548B2 (en) 2010-09-08
JP2010098752A (en) 2010-04-30
JP2009239938A (en) 2009-10-15
JP2010172028A (en) 2010-08-05
JP4496301B2 (en) 2010-07-07
JP4256460B2 (en) 2009-04-22
JP4625543B1 (en) 2011-02-02
JP4517013B2 (en) 2010-08-04
JP2010172038A (en) 2010-08-05
JP2010158058A (en) 2010-07-15
JP4517022B2 (en) 2010-08-04
JP4338777B2 (en) 2009-10-07
JP2010158079A (en) 2010-07-15
JP4406055B2 (en) 2010-01-27
JP4517038B2 (en) 2010-08-04
JP4307533B2 (en) 2009-08-05
JP4496310B2 (en) 2010-07-07
JP4234782B1 (en) 2009-03-04
JP2010016866A (en) 2010-01-21
JP2009136008A (en) 2009-06-18
JP2010104043A (en) 2010-05-06
JP4538557B2 (en) 2010-09-08
JP2010178386A (en) 2010-08-12
JP4406087B1 (en) 2010-01-27
JP4517018B2 (en) 2010-08-04
JP2009136020A (en) 2009-06-18
JP2010104049A (en) 2010-05-06
JP2011004443A (en) 2011-01-06
JP2010158068A (en) 2010-07-15
JP2010022031A (en) 2010-01-28
JP2010028828A (en) 2010-02-04
JP4637281B2 (en) 2011-02-23

Similar Documents

Publication Publication Date Title
ES2351306T3 (en) PROCEDURE AND DEVICE FOR THE CODING OF MOVING IMAGES.
ES2375221T3 (en) VIDEO CODING PROCEDURE AND APPLIANCE.