ES2355656T3 - Procedimiento y aparato para decodificación de vídeo . - Google Patents

Procedimiento y aparato para decodificación de vídeo . Download PDF

Info

Publication number
ES2355656T3
ES2355656T3 ES07006031T ES07006031T ES2355656T3 ES 2355656 T3 ES2355656 T3 ES 2355656T3 ES 07006031 T ES07006031 T ES 07006031T ES 07006031 T ES07006031 T ES 07006031T ES 2355656 T3 ES2355656 T3 ES 2355656T3
Authority
ES
Spain
Prior art keywords
decoded
image
video
block
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES07006031T
Other languages
English (en)
Inventor
Takeshi Chujoh
Shinichiro Koto
Yoshihiro Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of ES2355656T3 publication Critical patent/ES2355656T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Un procedimiento para decodificación de vídeo para decodificar datos codificados obtenidos sometiendo a un vídeo (100) que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el procedimiento para decodificación de vídeo: una etapa de recibir datos codificados obtenidos codificando, para un bloque que ha de ser decodificado, un coeficiente de transformada ortogonal cuantificado de una señal de error de predicción concerniente a la luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) que indica una combinación de una pluralidad de combinaciones indexadas que comprende una imagen de referencia, un factor de ponderación para cada una de la luminancia y las dos diferencias de color y una desviación para cada una de la luminancia y las dos diferencias de color; una etapa de deducir la imagen de referencia, el factor de ponderación y la desviación a partir de la información de índice para el bloque que ha de ser decodificado; una etapa de generar la señal de error de predicción para el bloque que ha de ser decodificado sometiendo el coeficiente de transformada ortogonal cuantificado para invertir la cuantificación e invertir la transformada ortogonal; una etapa de generar una imagen de predicción (412) para el bloque que ha de ser decodificado multiplicando la imagen de referencia por el factor de ponderación y sumando la desviación, basándose en el vector de movimiento para el bloque que ha de ser decodificado; y una etapa de generar una señal de imagen decodificada (310) para el bloque que ha de ser decodificado calculando una suma de la señal de error de predicción y la imagen de predicción.

Description

Campo técnico
La presente se refiere a un procedimiento y aparato para codificación/decodificación de vídeo que codifican/decodifican un vídeo que se atenúa y un vídeo que se desvanece, en particular, con elevada eficiencia.
Técnica anterior 5
La codificación intertrama predictiva por compensación de movimiento se usa como uno de los modos de codificación en un esquema estándar para codificación de vídeo como el ITU-TH.261, el H.263, el ISO/IEC MPEG-2, o el MPEG-4. Como modelo predictivo en la codificación intertrama predictiva por compensación de movimiento, se usa un modelo que presenta la eficiencia predictiva más elevada cuando no se produce cambio de brillo en la dirección del tiempo. En el caso de un vídeo que se atenúa con cambio en el brillo de las imágenes, no se conoce hasta el momento 10 ningún procedimiento que realice una predicción apropiada frente a un cambio en el brillo de una imagen cuando, por ejemplo, una imagen normal se intensifica desde una imagen negra. Por lo tanto, para mantener la calidad de imagen también en un vídeo que se atenúa, se requiere un gran número de bits.
Para resolver este problema, por ejemplo, en la patente japonesa Nº 3166716, “Fade Countermeasure Video Encoder and Encoding Method”, se detecta una parte de vídeo que se atenúa para cambiar la asignación del número de 15 bits. Más específicamente, en el caso de un vídeo que desaparece progresivamente, se asigna un gran número de bits a la parte inicial de desaparición progresiva que cambia de luminancia. En general, la última parte de la desaparición progresiva se vuelve una imagen monocroma, y por consiguiente puede ser codificada fácilmente. Por esta razón, el número de bits asignados a esta parte es reducido. Esto hace posible mejorar la calidad de imagen general sin aumentar excesivamente el número total de bits. 20
En la patente japonesa Nº 2938412, “Video Luminance Change Compensation Method, Video Encoding Apparatus, Video Decoding Apparatus, Recording Medium on Which Video Encoding or Decoding Program Is Recorded, and Recording Medium on Which Encoded Data of Video is Recorded”, se propone un esquema de codificación para hacer frente apropiadamente a un vídeo que se atenúa compensando una imagen de referencia de acuerdo con dos parámetros, por ejemplo, una cantidad de cambio de luminancia y una cantidad de cambio de contraste. 25
En el documento de Thomas Wiegand y Berand Girod, “Multi-frame motion-compensated prediction for video transmission”, Kluwer Academic Publishers 2001, se propone un esquema de codificación basado en una pluralidad de memorias intermedias de trama. En este esquema, se ha hecho un intento de mejorar la eficiencia predictiva generando selectivamente una imagen de predicción de una pluralidad de tramas de referencia guardadas en las memorias intermedias de trama. 30
Según las técnicas convencionales, para codificar un vídeo que se atenúa o un vídeo que se desvanece en tanto que manteniendo elevada calidad de imagen, se requiere un gran número de bits. Por lo tanto, no puede esperarse una mejora en la eficiencia de codificación.
Explicación de la invención
Es un objeto de la presente invención proporcionar un procedimiento y aparato para codificación/decodificación 35 de vídeo en tanto que manteniendo elevada calidad de imagen que pueda codificar un vídeo que cambia de luminancia a lo largo del tiempo, por ejemplo, un vídeo que se atenúa o un vídeo que se desvanece, en particular, con elevada eficiencia.
Según un primer aspecto de la presente invención, se proporciona un procedimiento para decodificación de vídeo para decodificar datos codificados obtenidos sometiendo un vídeo que tiene una luminancia y dos diferencias de 40 color a codificación de predicción, comprendiendo el procedimiento para decodificación de vídeo:
una etapa de recibir datos codificados obtenidos codificando, para un bloque que ha de ser decodificado, un coeficiente de transformada ortogonal cuantificado de una señal de error de predicción concerniente a la luminancia y dos diferencias de color, información de un vector de movimiento e información de un índice que indica una combinación de una pluralidad de combinaciones indexadas que comprende una imagen de referencia, un factor de ponderación 45 para cada una de la luminancia y las dos diferencias de color y una desviación para cada una de la luminancia y las dos diferencias de color;
una etapa de deducir la imagen de referencia, el factor de ponderación y la desviación a partir de la información de índice para el bloque que ha de ser decodificado;
una etapa de generar la señal de error de predicción para el bloque que ha de ser decodificado sometiendo el 50 coeficiente de transformada ortogonal cuantificado para invertir la cuantificación e invertir la transformada ortogonal;
una etapa de generar una imagen de predicción para el bloque que ha de ser decodificado multiplicando la imagen de referencia por el factor de ponderación y sumando la desviación, basándose en el vector de movimiento para
el bloque que ha de ser decodificado; y
una etapa de generar una señal de imagen decodificada para el bloque que ha de ser decodificado calculando una suma de la señal de error de predicción y la imagen de predicción.
En un segundo aspecto, la presente invención proporciona un aparato para decodificación de vídeo para decodificar datos codificados obtenidos sometiendo un vídeo que tiene una luminancia y dos diferencias de color a 5 codificación de predicción, comprendiendo el aparato para decodificación de vídeo:
medios para recibir datos codificados obtenidos codificando, para un bloque que ha de ser decodificado, un coeficiente de transformada ortogonal cuantificado de una señal de error de predicción que concierne a la luminancia y dos diferencias de color, información de un vector de movimiento e información de índice que indica una combinación de una pluralidad de combinaciones indexadas que comprenden una imagen de referencia, un factor de ponderación para 10 cada una de la luminancia y las dos diferencias de color y una desviación para cada una de la luminancia y las dos diferencias de color;
medios para deducir la imagen de referencia, el factor de ponderación y la desviación a partir de la información de índice para el bloque que ha de ser decodificado;
medios para generar la señal de error de predicción para el bloque que ha de ser decodificado sometiendo a 15 los coeficientes de transformada ortogonal cuantificados a cuantificación inversa y transformada ortogonal inversa;
medios para generar una imagen de predicción por compensación de movimiento para el bloque que ha de ser decodificado multiplicando la imagen de referencia por el factor de ponderación y sumando la desviación, basándose en el vector de movimiento para el bloque que ha de ser decodificado; y
medios para generar una señal de imagen decodificada para el bloque que ha de ser decodificado calculando 20 una suma de la señal de error de predicción y la imagen de predicción por compensación de movimiento.
Como se describió anteriormente, según la presente invención, se prepara una pluralidad de esquemas predictivos diferentes usando combinaciones de números de imágenes de referencia y parámetros predictivos o combinaciones de una pluralidad de parámetros predictivos que corresponden a números de imágenes de referencia designadas. Esto hace posible generar una señal de imagen de predicción apropiada, basándose en un esquema 25 predictivo con eficiencia predictiva más elevada, con respecto a una señal de vídeo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo que se atenúa o un vídeo que se desvanece.
Además, la señal de vídeo es una señal que incluye una señal de imagen obtenida para cada trama de una señal progresiva, una señal de imagen obtenida para cada trama obtenida combinando dos campos de una señal 30 entrelazada, y una señal de imagen obtenida para cada campo de una señal entrelazada. Cuando la señal de vídeo es una señal de imagen a nivel de trama, el número de señal de imagen de referencia indica una señal de imagen de referencia a nivel de trama. Cuando la señal de vídeo es una señal de imagen a nivel de campo, el número de señal de imagen de referencia indica una señal de imagen de referencia a nivel de campo.
Esto hace posible generar una señal de imagen de predicción apropiada, basándose en un esquema predictivo 35 con eficiencia predictiva más elevada, con respecto a tal señal de vídeo que incluye tanto una estructura de trama como una estructura de campo que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo que se atenúa o un vídeo que se desvanece.
Además, la información de un propio número de imágenes de referencia o parámetro predictivo no se envía desde el lado de codificación al lado de decodificación, sino que se envía información de índice que indica una 40 combinación de un número de imágenes de referencia y un parámetro predictivo. La realización 2 no está comprendida en las reivindicaciones.
Breve descripción de los dibujos
La FIG. 1 es un diagrama de bloques que muestra la disposición de un aparato para codificación de vídeo según la primera realización de la presente invención; 45
la FIG. 2 es un diagrama de bloques que muestra la disposición detallada de un generador de memoria de trama/imagen de predicción de la FIG. 1;
la FIG. 3 es una vista que muestra un ejemplo de una tabla de combinaciones de números de tramas de referencia y parámetros predictivos, que se usa en la primera realización;
la FIG. 4 es un diagrama de flujo que muestra un ejemplo de una secuencia para seleccionar un esquema 50 predictivo (una combinación de un número de tramas de referencia y un parámetro predictivo) para cada macrobloque y determinar un modo de codificación en la primera realización;
la FIG. 5 es un diagrama de bloques que muestra la disposición de un aparato para decodificación de vídeo según la primera realización;
la FIG. 6 es un diagrama de bloques que muestra la disposición detallada del generador de memoria de trama/imagen de predicción de la FIG. 5;
la FIG. 7 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un 5 caso en el que el número de tramas de referencia es uno y se envía un número de tramas de referencia como información de modo según la segunda realización de la presente invención;
la FIG. 8 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es dos y se envía un número de tramas de referencia como información de modo según la segunda realización; 10
la FIG. 9 es una vista que muestra un ejemplo de una tabla de combinaciones de números de imágenes de referencia y parámetros predictivos en un caso en el que el número de tramas de referencia es uno según la tercera realización de la presente invención;
la FIG. 10 es una vista que muestra un ejemplo de una tabla sólo para señales de luminancia según la tercera realización; 15
la FIG. 11 es una vista que muestra un ejemplo de una sintaxis para cada bloque cuando ha de codificarse información de índice;
la FIG. 12 es una vista que muestra un ejemplo específico de un flujo de bits codificado cuando ha de generarse una imagen de predicción usando una imagen de referencia;
la FIG. 13 es una vista que muestra un ejemplo específico de un flujo de bits codificado cuando ha de generarse 20 una imagen de predicción usando dos imágenes de referencia;
la FIG. 14 es una vista que muestra un ejemplo de una tabla de números de tramas de referencia, números de campos de referencia, y parámetros predictivos cuando la información que ha de ser codificada es un campo superior según la cuarta realización de la presente invención; y
la FIG. 15 es una vista que muestra un ejemplo de una tabla de números de tramas de referencia, números de 25 campos de referencia, y parámetros predictivos cuando la información que ha de ser codificada es un campo inferior según la cuarta realización de la presente invención.
Mejor modo de llevar a cabo la invención
Las realizaciones de la presente invención se describirán a continuación con referencia a las varias vistas de los dibujos adjuntos. 30
[Primera realización]
(Acerca del lado de codificación)
La FIG. 1 muestra la disposición de un aparato para codificación de vídeo según la primera realización de la presente invención. Una señal de vídeo 100 es introducida en el aparato para codificación de vídeo, por ejemplo, a nivel de trama. La señal de vídeo 100 es introducida en un sustractor 101. El sustractor 101 calcula la diferencia entre la 35 señal de vídeo 100 y una señal de imagen de predicción 212 para generar una señal de error predictivo. Un conmutador de selección de modo 102 selecciona la señal de error predictivo o la señal de vídeo 100. Un transformador ortogonal 103 somete a la señal seleccionada a una transformación ortogonal, por ejemplo, una transformada de discreta del coseno (DCT). El transformador ortogonal 103 genera información de coeficiente de transformación ortogonal, por ejemplo, información de coeficiente de DCT. La información de coeficiente de transformación ortogonal es cuantificada 40 por un cuantificador 104 y bifurcada en dos recorridos. Una información de coeficiente de transformación ortogonal de cuantificación 210 bifurcada en dos recorridos es guiada a un codificador de longitud variable 111.
La otra información de coeficiente de transformación ortogonal de cuantificación 210 bifurcada en los dos recorridos es sometida secuencialmente a procesamiento inverso al del cuantificador 104 y el transformador ortogonal 103 mediante un decuantificador o cuantificador inverso 105 y el transformador ortogonal inverso 106 para ser 45 reconstruida en una señal de error predictivo. Después, un sumador 107 suma la señal de error predictivo reconstruida a la señal de imagen de predicción 212 introducida a través de un conmutador 109 para generar una señal de vídeo decodificada local 211. La señal de vídeo decodificada local 211 es introducida en un generador de memoria de trama/imagen de predicción 108.
El generador de memoria de trama/imagen de predicción 108 selecciona una de una pluralidad de 50 combinaciones de números de tramas de referencia y parámetros predictivos preparados. La suma lineal de la señal de
vídeo (señal de vídeo decodificada local 211) de la trama de referencia indicada por el número de tramas de referencia de la combinación seleccionada se calcula de acuerdo con el parámetro predictivo de la combinación seleccionada, y la señal resultante se suma a una desviación basándose en el parámetro predictivo. Con esta operación, en este caso, se genera una señal de imagen de referencia a nivel de trama. Posteriormente, el generador de memoria de trama/imagen de predicción 108 compensa el movimiento de la señal de imagen de referencia usando un vector de movimiento para 5 generar la señal de imagen de predicción 212.
En este procedimiento el generador de memoria de trama/imagen de predicción 108 genera información de vector de movimiento 214 e información de índice 215 que indican una combinación seleccionada de un número de tramas de referencia y un parámetro predictivo, y envía información necesaria para la selección de un modo de codificación a un selector de modo 110. La información de vector de movimiento 214 y la información de índice 215 son 10 introducidas en un codificador de longitud variable 111. El generador de memoria de trama/imagen de predicción 108 se describirá detalladamente después.
El selector de modo 110 selecciona un modo de codificación basándose en macrobloques basándose en información predictiva P procedente del generador de memoria de trama/imagen de predicción 108, es decir, selecciona el modo de codificación intratrama o el modo de codificación intertrama predictiva de movimiento compensado, y 15 produce señales de control de conmutador M y S.
En el modo de codificación intratrama, los conmutadores 102 y 109 son conmutados al lado A por las señales de control de conmutador M y S, y la señal de vídeo de entrada 100 es introducida en el transformador ortogonal 103. En el modo de codificación intertrama, los conmutadores 102 y 109 son conmutados al lado B por las señales de control de conmutador M y S. Como consecuencia, la señal de error predictivo procedente del sustractor 101 es introducida en 20 el transformador ortogonal 103, y la señal de imagen de predicción 212 procedente del generador de memoria de trama/imagen de predicción 108 es introducida en el sumador 107. La información de modo 213 es producida desde el selector de modo 110 e introducida en el codificador de longitud variable 111.
El codificador de longitud variable 111 somete a la información de coeficiente de transformación ortogonal de cuantificación 210, la información de modo 213, la información de vector de movimiento 214, y la información de índice 25 215 a codificación de longitud variable. Los códigos de longitud variable generados por esta operación son multiplexados por un multiplicador 114. Luego los datos resultantes son suavizados por una memoria intermedia de salida 115. Los datos codificados 116 producidos desde la memoria intermedia de salida 115 son enviados a un sistema de transmisión o sistema de almacenamiento (no mostrado).
Un controlador de codificación 113 controla una unidad de codificación 112. Más específicamente, el 30 controlador de codificación 113 monitoriza la cantidad de memoria intermedia de la memoria intermedia de salida 115, y controla parámetros de codificación cono el tamaño de la etapa de cuantificación del cuantificador 104 para hacer constante la cantidad de memoria intermedia.
(Acerca del generador de memoria de trama/imagen de predicción 108)
La FIG. 2 muestra la disposición detallada del generador de memoria de trama/imagen de predicción 108 de la 35 FIG. 1. Haciendo referencia a la FIG. 2, la señal de vídeo decodificada local 211 introducida desde el sumador 107 de la FIG. 1 se almacena en un conjunto de memorias de trama 202 bajo el control de un controlador de memoria 201. El conjunto de memorias de trama 202 tiene una pluralidad de (N) memorias de trama FM1 a FMN para guardar temporalmente la señal de vídeo decodificada local 211 como una trama de referencia.
En un controlador de parámetros predictivos 203 se prepara de antemano como una tabla una pluralidad de 40 combinaciones de números de tramas de referencia y parámetros predictivos. El controlador de parámetros predictivos 203 selecciona, basándose en la señal de vídeo 100, una combinación del número de tramas de referencia de una trama de referencia y un parámetro predictivo que se usan para generar la señal de imagen de predicción 212, y produce la información de índice 215 que indica la combinación seleccionada.
Un evaluador de movimiento de multitrama 204 genera una señal de imagen de referencia de acuerdo con la 45 combinación del número de tramas de referencia y la información de índice seleccionada por el controlador de parámetros predictivos 203. El evaluador de movimiento de multitrama 204 evalúa la cantidad de movimiento y el error predictivo a partir de esta señal de imagen de referencia y la señal de vídeo introducida 100, y produce la información de vector de movimiento 214 que minimiza el error predictivo. Un compensador de movimiento de multitrama 205 lleva a cabo la compensación de movimiento para cada bloque usando una señal de imagen de referencia seleccionada por el 50 evaluador de movimiento de multitrama 204 de acuerdo con el vector de movimiento para generar la señal de imagen de predicción 212.
El controlador de memoria 201 establece un número de tramas de referencia como una señal de vídeo decodificada lineal para cada trama, y almacena cada trama en una de las memorias de trama FM1 a FMN del conjunto de memorias de trama 202. Por ejemplo, las tramas respectivas están numeradas secuencialmente desde la trama más 55 cercana hasta la imagen de entrada. Puede establecerse el mismo número de tramas de referencia para diferentes tramas. En este caso, por ejemplo, se usan parámetros predictivos diferentes. Se selecciona una trama cercana a la
imagen de entrada de las memorias de trama FM1 a FMN y se envía al controlador de parámetros predictivos 203.
(Acerca de la tabla de combinaciones de números de tramas de referencia y parámetros predictivos)
La FIG. 3 muestra un ejemplo de la tabla de combinaciones de números de tramas de referencia y parámetros predictivos, que se prepara en el controlador de parámetros predictivos 203. “Índice” corresponde a imágenes de predicción que pueden seleccionarse para cada bloque. En este caso, hay ocho tipos de imágenes de predicción. Un 5 número de imágenes de referencia n es el número de un vídeo decodificado local usado como trama de referencia y, en este caso, indica el número de un vídeo decodificado local que corresponde a n tramas anteriores.
Cuando la señal de imagen de predicción 212 se genera usando las señales de imagen de una pluralidad de tramas de referencia almacenadas en el conjunto de memorias de trama 202, se designa una pluralidad de números de tramas de referencia, y se designan (el número de tramas de referencia + 1) coeficientes como parámetros predictivos 10 para cada una de una señal de luminancia (Y) y señales de diferencia de color (Cb y Cr). En este caso, como se indica por las ecuaciones (1) a (3), n asume el número de tramas de referencia, se preparan n + 1 parámetros predictivos Di (i =,..., n + 1) para la señal de luminancia Y; n + parámetros predictivos Ei (i =,...,n + 1), para la señal de diferencia de color Cb; y n + 1 parámetros predictivos Fi (i =,...,n + 1), para la señal de diferencia de color Cr:
(1) 15 ninititDYDY11
(2) ninititECbECb11
(3) ninititFCrFCr11
Esta operación se describirá más detalladamente con referencia a la FIG. 3. Haciendo referencia a la FIG. 3, el último número de cada parámetro predictivo representa una desviación, y el primer número de cada parámetro predictivo representa un factor de ponderación (coeficiente predictivo). Para el índice 0, el número de tramas de 20 referencia viene dado por n = 2, el número de tramas de referencia es 1, y los parámetros predictivos son 1 y 0 para cada una de la señal de luminancia Y y las señales de diferencia de color Cr y Cb. Que los parámetros predictivos sean 1 y 0 como en este caso indica que una señal de vídeo decodificada local que corresponde al número de tramas de referencia “1” es multiplicada por 1 y sumada a desviación 0. En otras palabras, la señal de vídeo decodificada local que corresponde al número de tramas de referencia 1 se convierte en una señal de imagen de referencia sin ningún cambio. 25
Para el índice 1, se usan dos tramas de referencia como señales de vídeo decodificadas locales que corresponden a los números de tramas de referencia 1 y 2. De acuerdo con los parámetros predictivos 2, -1, y 0 para la señal de luminancia Y, la señal de vídeo decodificada local que corresponde al número de tramas de referencia 1 se duplica, y la señal de vídeo decodificada local que corresponde al número de tramas de referencia 2 se resta de la señal resultante. Luego se suma desviación 0 a la señal resultante. Es decir, se realiza predicción por extrapolación a partir de 30 las señales de vídeo decodificadas locales de dos tramas para generar una señal de imagen de referencia. Para las señales de diferencia de color Cr y Cb, como los parámetros predictivos son 1, 0, y 0, la señal de vídeo decodificada local que corresponde al número de tramas de referencia 1 se usa como señal de imagen de referencia sin ningún cambio. Este esquema predictivo que corresponde a índice 1 es especialmente efectivo para un vídeo que se desvanece. 35
Para índice 2, de acuerdo con los parámetros 5/4 y 16, la señal de vídeo decodificada local que corresponde al número de tramas de referencia 1 es multiplicada por 5/4 y sumada con desviación 16. Para las señales de diferencia de color Cr y Cb, como el parámetro predictivo es 1, las señales de diferencia de color Cr y Cb se convierten en señales de imágenes de referencia sin ningún cambio. Este esquema predictivo es especialmente efectivo para un vídeo que se intensifica a partir de una trama negra. 40
De esta manera, pueden seleccionarse señales de imágenes de referencia basándose en una pluralidad de esquemas predictivos con diferentes combinaciones de los números de tramas de referencia que han de usarse y parámetros predictivos. Esto hace posible que esta realización haga frente apropiadamente a un vídeo que se atenúa y un vídeo que se desvanece que han sufrido deterioro de la calidad de imagen debido a la ausencia de un esquema predictivo apropiado. 45
(Acerca de la secuencia para seleccionar el esquema de predicción y determinar el modo de codificación)
A continuación se describirá, con referencia a la FIG. 4, un ejemplo de una secuencia específica para seleccionar un esquema predictivo (una combinación de un número de tramas de referencia y un parámetro predictivo) para cada macrobloque y determinar un modo de codificación en esta realización.
En primer lugar, se establece un valor asumible máximo como la variable min_D (etapa S101). LOOP1 (etapa S102) indica una repetición para la selección de un esquema predictivo en codificación intertrama, y la variable i representa el valor de “índice” en la FIG. 3. En este caso, para obtener un vector de movimiento óptimo para cada esquema predictivo, se calcula un valor de evaluación D de cada índice (cada combinación de un número de tramas de referencia y un parámetro predictivo) a partir del número de bits asociados con la información de vector de movimiento 5 214 (el número de bits de un código de longitud variable producido desde el codificador de longitud variable 111 en correspondencia con la información de vector de movimiento 214) y una suma de valor absoluto de error predictivo, y se selecciona un vector de movimiento que minimiza el valor de evaluación D (etapa S103). El valor de evaluación D se compara con min_D (etapa S104). Si el valor de evaluación D es menor que min_D, el valor de evaluación D se establece como min_D, e índice i se asigna a min_i (etapa S105). 10
Luego se calcula un valor de evaluación D para codificación intratrama (etapa S106). El valor de evaluación D se compara con min_D (etapa S107). Si esta comparación indica que min_D es menor que el valor de evaluación D, se determina el modo MODO como codificación intertrama, y se asigna min_i a la información de índice ÍNDICE (etapa S108). Si el valor de evaluación D es menor, se determina el modo MODO como codificación intratrama (etapa S109). En este caso, el valor de evaluación D se establece como el valor estimado del número de bits con el mismo tamaño de 15 la etapa de cuantificación.
(Acerca del lado de decodificación)
A continuación se describirá un aparato para decodificación de vídeo que corresponde al aparato para codificación de vídeo mostrado en la FIG. 1. La FIG. 5 muestra la disposición del aparato para decodificación de vídeo según esta realización. Los datos codificados 300 enviados desde el aparato para codificación de vídeo mostrado en la 20 FIG. 1 y enviados a través de un sistema de transmisión o sistema de almacenamiento son almacenados temporalmente en una memoria intermedia de entrada 301 y demultiplexados por un demultiplexor 302 para cada trama basándose en una sintaxis. Los datos resultantes son introducidos en un decodificador de longitud variable 303. El decodificador de longitud variable 303 decodifica el código de longitud variable de cada sintaxis de los datos codificados 300 para reproducir un coeficiente de transformación ortogonal de cuantificación, la información de modo 413, la 25 información de vector de movimiento 414, y la información de índice 415.
De la información reproducida, el coeficiente de transformación ortogonal de cuantificación es decuantificado por un decuantificador 304 y transformado ortogonalmente a la inversa por un transformador ortogonal inverso 305. Si la información de modo 413 indica el modo de codificación intratrama, se produce una señal de vídeo de reproducción desde el transformador ortogonal inverso 305. Esta señal se produce luego como una señal de vídeo de reproducción 30 310 a través de un sumador 306.
Si la información de modo 413 indica el modo de codificación intertrama, se produce una señal de error predictivo desde el transformador ortogonal inverso 305, y se conecta un conmutador de selección de modo 309. La señal de imagen de predicción 412 producida desde un generador de memoria de trama/imagen de predicción 308 se suma a la señal de error predictivo mediante el sumador 306. Como consecuencia, se produce la señal de vídeo de 35 reproducción 310. La señal de vídeo de reproducción 310 se almacena como una señal de imagen de referencia en el generador de memoria de trama/imagen de predicción 308.
La información de modo 413, la información de vector de movimiento 414, y la información de índice 415 son introducidas en el generador de memoria de trama/imagen de predicción 308. La información de modo 413 también es introducida en el conmutador de selección de modo 309. En el modo de codificación intratrama, se desconecta el 40 conmutador de selección de modo 309. En el modo de codificación intertrama, se conecta el conmutador.
Al igual que el generador de memoria de trama/imagen de predicción 108 del lado de codificación en la FIG. 1, el generador de memoria de trama/imagen de predicción 308 incluye una pluralidad de combinaciones preparadas de números de imágenes de referencia y parámetros predictivos como una tabla, y selecciona una combinación indicada por la información de índice 415 de la tabla. La suma lineal de la señal de vídeo (señal de vídeo de reproducción 210) 45 de la trama de referencia indicada por el número de tramas de referencia de la combinación seleccionada se calcula de acuerdo con el parámetro predictivo de la combinación seleccionada, y se suma una desviación basada en el parámetro predictivo a la señal resultante. Con esta operación, se genera una señal de imagen de referencia. Posteriormente, se compensa el movimiento de la señal de imagen de referencia generada usando el vector de movimiento indicado por la información de vector de movimiento 414, generando así una señal de imagen de predicción 412. 50
(Acerca del generador de memoria de trama/imagen de predicción 308)
La FIG. 6 muestra la disposición detallada del generador de memoria de trama/imagen de predicción 308 de la FIG. 5. Haciendo referencia a la FIG. 6, la señal de vídeo de reproducción 310 producida desde el sumador 306 de la FIG. 5 se almacena en el conjunto de memorias de trama 402 bajo el control de un controlador de memoria 401. El conjunto de memorias de trama 402 tiene una pluralidad de (N) memorias de trama FM1 a FMN para guardar 55 temporalmente la señal de vídeo de reproducción 310 como trama de referencia.
Un controlador de parámetros predictivos 403 tiene de antemano combinaciones de números de tramas de
referencia y parámetros predictivos como una tabla al igual que la mostrada en la FIG. 3. El controlador de parámetros predictivos 403 selecciona una combinación del número de tramas de referencia de una trama de referencia y un parámetro predictivo que se usan para generar la señal de imagen de predicción 412, basándose en la información de índice 415 procedente del decodificador de longitud variable 303 de la FIG. 5. Una pluralidad de compensadores de movimiento de multitrama 404 generan una señal de imagen de referencia de acuerdo con una combinación de un 5 número de tramas de referencia e información de índice, que se selecciona mediante el controlador de parámetros predictivos 403, y realiza compensación de movimiento para cada bloque usando esta señal de imagen de referencia de acuerdo con el vector de movimiento indicado por la información de vector de movimiento 414 procedente del decodificador de longitud variable 303 de la FIG. 5, generando así la señal de imagen de predicción 412.
[Segunda realización] 10
A continuación se describirá la segunda realización de la presente invención con referencia a las FIGS. 7 y 8. Como las disposiciones generales de un aparato para codificación de vídeo y un aparato para decodificación de vídeo en esta realización son casi las mismas que las de la primera realización, sólo se describirán las diferencias respecto a la primera realización.
En esta realización, se describe un ejemplo de la manera de expresar parámetros predictivos basados en un 15 esquema capaz de designar una pluralidad de números de tramas de referencia de acuerdo con información de modo de una base de macrobloques. Un número de tramas de referencia es discriminado por la información de modo para cada macrobloque. Por lo tanto, esta realización usa una tabla de parámetros predictivos como se muestra en las FIGS. 7 y 8 en lugar de usar una tabla de combinaciones de números de tramas de referencia y parámetros predictivos como en la primera realización. Es decir, la información de índice no indica un número de tramas de referencia, y sólo se 20 designa una combinación de parámetros predictivos.
La tabla de la FIG. 7 muestra un ejemplo de una combinación de parámetros predictivos cuando el número de tramas de referencia es uno. Como parámetros predictivos, se designan (el número de tramas de referencia + 1) parámetros, es decir, dos parámetros (un factor de ponderación y una desviación), para cada una de una señal de luminancia (Y) y señales de diferencia de color (Cb y Cr). 25
La tabla de la FIG. 8 muestra un ejemplo de una combinación de parámetros predictivos cuando el número de tramas de referencia es dos. En este caso, como parámetros predictivos, se designan (el número de tramas de referencia + 1) parámetros, es decir, tres parámetros (dos factores de ponderación y una desviación), para cada una de una señal de luminancia (Y) y señales de diferencia de color (Cb y Cr). Esta tabla se prepara para el lado de codificación y el lado de decodificación como en la primera realización. 30
[Tercera realización]
La tercera realización de la presente invención se describirá con referencia a las FIGS. 9 y 10. Como las disposiciones generales de un aparato para codificación de vídeo y un aparato para decodificación de vídeo en esta realización son casi las mismas que las de la primera realización, más adelante sólo se describirán las diferencias respecto a la primera y segunda realizaciones. 35
En la primera y segunda realizaciones, se gestiona un vídeo a nivel de trama. En esta realización, sin embargo, se gestiona un vídeo a nivel de imagen. Si existen tanto una señal progresiva como una señal entrelazada como señales de imágenes de entrada, las imágenes no son codificadas necesariamente a nivel de trama. En consideración a esto, una imagen asume (a) una imagen de una trama de una señal progresiva, (b) una imagen de una trama generada combinando dos campos de una señal entrelazada, o (c) una imagen de un campo de una señal entrelazada. 40
Si que ha de ser codificada es una imagen con una estructura de trama como (a) o (b), una imagen de referencia usada en predicción por compensación de movimiento también se gestiona como una trama independientemente de si la imagen codificada, que es la imagen de referencia, tiene una estructura de trama o estructura de campo. A esta imagen se le asigna un número de imagen de referencia. Asimismo, si una imagen que ha de ser codificada es una imagen con una estructura de campo como (c), una imagen de referencia usada en predicción 45 por compensación de movimiento también se gestiona como un campo independientemente de si la imagen codificada, que es la imagen de referencia, tiene una estructura de trama o estructura de campo. A esta imagen se le asigna un número de imagen de referencia.
Las ecuaciones (4), (5) y (6) son ejemplos de ecuaciones predictivas para números de imágenes de referencia y parámetros predictivos, que se preparan en el controlador de parámetros predictivos 203. Estos ejemplos son 50 ecuaciones predictivas para generar una señal de imagen de predicción mediante predicción por compensación de movimiento usando una señal de imagen de referencia.
(4) ))()2)()(((211iDLiRiDclipYYLYY
(5) 128)()2)128)(()(((211iELiRiEclipCbcLCbc
(6) 128)()2)128)(()(((211iFLiRiFclipCrcLCrc
donde Y es una señal de imagen de predicción de una señal de luminancia, Cb y Cr son señales de imágenes de predicción de dos señales de diferencia de color, RY(i), RCb(i) y RCr(i) son los valores de píxeles de la señal de luminancia y dos señales de diferencia de color de una señal de imagen de referencia con índice i, D1(i) y D2(i) son el coeficiente predictivo y la desviación de la señal de luminancia con índice i, E1(i) y E2(i) son el coeficiente predictivo y la 5 desviación de la señal de diferencia de color Cb con índice i, y F1(i) y F2(i) son el coeficiente predictivo y la desviación de la señal de diferencia de color Cr con índice i. El índice i indica un valor desde 0 (el número máximo de imágenes de referencia – 1), y codificado para cada bloque que ha de ser codificado (por ejemplo, para cada macrobloque). Luego, los datos resultantes se transmiten al aparato para decodificación de vídeo.
Los parámetros predictivos D1(i), D2(i), E1(i), E2(i), F1(i) y F2(i) se representan por valores determinados de 10 antemano entre el aparato para codificación de vídeo y el aparato para decodificación de vídeo o una unidad de codificación como una trama, un campo o una rebanada, y se codifican junto con datos codificados que han de ser transmitidos desde el aparato para codificación de vídeo hasta el aparato para decodificación de vídeo. Con esta operación, estos parámetros son compartidos por los dos aparatos.
Las ecuaciones (4), (5) y (6) son ecuaciones predictivas en las que las potencias de 2, es decir, 2, 4, 8, 16,...se 15 seleccionan como los denominadores de coeficientes predictivos por los que se multiplican las señales de imágenes de referencia. Las ecuaciones predictivas pueden eliminar la necesidad de división y ser calculadas por desplazamientos aritméticos. Esto hace posible evitar un gran aumento del coste de cálculo debido a división.
En las ecuaciones (4), (5) y (6), “>>” de a >> b representa un operador para desplazar aritméticamente un número entero a a la derecha b bits. La función “clip” representa una función de recorte para establecer el valor que hay 20 en “()” como 0 cuando es menor que 0, y establecer el valor como 255 cuando es mayor que 255.
En este caso, asumiendo que LY es la cantidad de desplazamiento de una señal de luminancia, y LC es la cantidad de desplazamiento de una señal de diferencia de color. Como estas cantidades de desplazamiento LY y LC, se usan valores determinados de antemano entre el aparato para codificación de vídeo y el aparato para decodificación de vídeo. El aparato para codificación de vídeo codifica las cantidades de desplazamiento LY y LC, junto con una tabla y 25 datos codificados, en una unidad de codificación predeterminada, por ejemplo, una trama, un campo o una rebanada, y transmite los datos resultantes al aparato para decodificación de vídeo. Esto permite que los dos aparatos compartan las cantidades de desplazamiento LY y LC.
En esta realización, las tablas de combinaciones de números de imágenes de referencia y parámetros predictivos como las mostradas en las FIGS. 9 y 10 se preparan en el controlador de parámetros predictivos 203 de la 30 FIG. 2. Haciendo referencia a las FIGS. 9 y 10, el índice i corresponde a imágenes de predicción que pueden seleccionarse para cada bloque. En este caso, están presentes cuatro tipos de imágenes de predicción en correspondencia con 0 a 3 del índice i. El “número de imagen de referencia” es, en otras palabras, el número de una señal de vídeo decodificada local usada como imagen de referencia.
“Indicador” es un indicador que indica si se aplica o no una ecuación predictiva que usa un parámetro predictivo 35 a un número de imagen de referencia indicado por el índice i. Si Indicador es “0”, se realiza predicción por compensación de movimiento usando la señal de vídeo decodificada local que corresponde al número de imagen de referencia indicado por el índice i sin usar ningún parámetro predictivo. Si Indicador es “1”, se genera una imagen de predicción según las ecuaciones (4), (5) y (6) usando un vídeo decodificado local y un parámetro predictivo que corresponden al número de referencia indicado por el índice i, realizando así predicción por compensación de 40 movimiento. Esta información de Indicador también es codificada, junto con una tabla y datos codificados, usando un valor determinado de antemano entre el aparato para codificación de vídeo y el aparato para decodificación de vídeo o en una unidad de codificación predeterminada, por ejemplo, una trama, un campo, o una rebanada, en el aparato para codificación de vídeo. Los datos resultantes se transmiten al aparato para decodificación de vídeo. Esto permite que los dos aparatos compartan la información del Indicador. 45
En estos casos, se genera una imagen de predicción usando un parámetro predictivo cuando el índice i = 0 con respecto a un número de imagen de referencia 105, y se realiza predicción por compensación de movimiento sin usar ningún parámetro predictivo cuando i = 1. Como se describió anteriormente, puede existir una pluralidad de esquemas predictivos para el mismo número de imagen de referencia.
La tabla mostrada en la FIG. 9 tiene parámetros predictivos D1(i), D2(i), E1(i), E2(i), F1(i) y F2(i) asignados a una 50 señal de luminancia y dos señales de diferencia de color en correspondencia con las ecuaciones (4), (5) y (6). La FIG. 10 muestra un ejemplo de una tabla en la que los parámetros predictivos se asignan sólo a señales de luminancia. En general, el número de bits de una señal de diferencia de color no es muy grande comparado con el número de bits de una señal de luminancia. Por esta razón, para reducir la cantidad de cálculo requerido para generar una imagen de predicción y el número de bits transmitidos en una tabla, se prepara una tabla, en la que se omiten los parámetros 55 predictivos para señales de diferencia de color como se muestra en la FIG. 10 y se asignan parámetros predictivos sólo a señales de luminancia. En este caso, sólo se usa la ecuación (4) como ecuación predictiva.
Las ecuaciones (7) a (12) son ecuaciones predictivas en un caso en el que se usa una pluralidad (dos en este caso) de imágenes de referencia.
(7) )()2)()(()(211iDLiRiDiPYLYYY
(8) 128)()2)128)(()(()(211iELiRiEiPCLCbCbC
(9) 5 128)()2)128)(()(()(211iFLiRiFiPCLCrCrC
(10) )1)1)()(((jPiPclipYYY
(11) )1)1)()(((jPiPclipCbCbCb
(12) )1)1)()(((jPiPclipCrCrCr
Los pedazos de información de los parámetros predictivos D1(i), D2(i), E1(i), E2(i), F1(i), F2(i), LY y LC e Indicador son valores determinados de antemano entre el aparato para codificación de vídeo y el aparato para decodificación de 10 vídeo o codificados, junto con datos codificados, en una unidad de codificación como una trama, un campo, o una rebanada, y se transmiten desde el aparato para codificación de vídeo hasta el aparato para decodificación de vídeo. Esto permite que los dos aparatos compartan estos pedazos de información.
Si una imagen que ha de ser decodificada es una imagen que tiene una estructura de trama, una imagen de referencia usada para predicción por compensación de movimiento también se gestiona como una trama 15 independientemente de si una imagen decodificada como imagen de referencia tiene una estructura de trama o estructura de campo. A esta imagen se le asigna un número de imagen de referencia. Asimismo, si una imagen que ha de ser programada es una imagen que tiene una estructura de campo, una imagen de referencia usada para predicción por compensación de movimiento también se gestiona como un campo independientemente de si una imagen codificada como imagen de referencia tiene una estructura de trama o estructura de campo. A esta imagen se le asigna 20 un número de imagen de referencia.
(Acerca de la sintaxis de la información de índice)
La FIG. 11 muestra un ejemplo de una sintaxis en un caso en el que la información de índice está codificada en cada bloque. En primer lugar, para cada bloque está presente información de modo MODO. De acuerdo con la información de modo MODO, se determina si la información de índice IDi que indica el valor del índice i y la información 25 de índice IDj que indica el valor del índice j están codificadas o no. La información codificada de la información de vector de movimiento MVi para la predicción por compensación de movimiento del índice i y la información de vector de movimiento MVj para la compensación predictiva de movimiento del índice j se suman como información de vector de movimiento para cada bloque después de la información de índice codificada.
(Acerca de la estructura de datos del flujo de bits codificados). 30
La FIG. 12 muestra un ejemplo específico de un flujo de bits codificado para cada bloque cuando se genera una imagen de predicción usando una imagen de referencia. La información de índice IDi se pone después de la información de modo MODO, y la información de vector de movimiento MVi se pone a continuación. La información de vector de movimiento MVi es generalmente información de vector bidimensional. Dependiendo de un procedimiento de compensación de movimiento en un bloque que se indica mediante información de modo, puede enviarse además una 35 pluralidad de vectores bidimensionales.
La FIG. 13 muestra un ejemplo específico de un flujo de bits codificado para cada bloque cuando se genera una imagen de predicción usando dos imágenes de referencia. La información de índice IDj y la información de índice IDj se ponen después de la información de modo MODO, y la información de vector de movimiento MVi y la información de vector de movimiento MVj se ponen a continuación. La información de vector de movimiento MVi y la información de 40 vector de movimiento j son generalmente información de vector bidimensional. Dependiendo de un procedimiento de compensación de movimiento en un bloque indicado mediante información de modo, puede enviarse además una pluralidad de vectores bidimensionales.
Obsérvese que las estructuras anteriores de una sintaxis y un flujo de bits pueden aplicarse por igual a todas las realizaciones. 45
[Cuarta realización]
A continuación se describirá la cuarta realización de la presente invención con referencia a las FIGS. 14 y 15. Como las disposiciones generales de un aparato para codificación de vídeo y un aparato para decodificación de vídeo
en esta realización son casi las mismas que las de la primera realización, sólo se describirán las diferencias respecto a la primera, la segunda y la tercera realización. En la tercera realización, la codificación a nivel de trama y la codificación a nivel de campo se cambian para cada imagen. En la cuarta realización, la codificación a nivel de trama y la codificación a nivel de campo se cambian para cada macrobloque.
Cuando la codificación a nivel de trama y la codificación a nivel de campo se cambian para cada macrobloque, 5 el mismo número de imagen de referencia indica diferentes imágenes, incluso dentro de la misma imagen, dependiendo de si un macrobloque se codifica al nivel de trama o al nivel de campo. Por esta razón, con las tablas mostradas en las FIGS. 9 y 10 usadas en la tercera realización, no puede generarse una señal de imagen de predicción apropiada.
Para resolver este problema, en esta realización, en un controlador de parámetros predictivos 203 de la FIG. 2 se preparan tablas de combinaciones de números de imágenes de referencia y parámetros predictivos como las 10 mostradas en las FIGS. 14 y 15. Supongamos que cuando un macrobloque ha de ser codificado al nivel de campo, se usa el mismo parámetro predictivo que el que corresponde a un número de imagen de referencia (número de índice de trama de referencia) usado cuando se codifica el macrobloque al nivel de trama.
La FIG. 14 muestra una tabla usada cuando un macrobloque se codifica a nivel de campo y una imagen que ha de ser codificada es un campo superior. Las filas superior e inferior de cada columna de índice de campo corresponden 15 al campo superior y el campo inferior, respectivamente. Como se muestra en la FIG. 14, el índice de trama j y el índice de campo k están relacionados de manera que cuando k = 2j en el campo superior, k = 2j + 1 en el campo inferior. El número de tramas de referencia m y el número de campo de referencia n están relacionados de manera que cuando n = 2m en el campo superior, n = 2m + 1 en el campo inferior.
La FIG. 15 muestra una tabla usada cuando el macrobloque se codifica a nivel de campo, y una imagen que ha 20 de ser codificada es un campo inferior. Como en la tabla mostrada en la FIG. 14, las filas superior e inferior de cada columna de índice de campo corresponden a un campo superior y el campo inferior, respectivamente. En la tabla de la FIG. 15, el índice de trama j y el índice de campo k están relacionados de manera que cuando k = 2 + 1 en el campo superior, K = 2j en el campo inferior. Esto hace posible asignar un pequeño valor como índice de campo k a un campo inferior en fase. La relación entre el número de tramas de referencia m y el número de campo de referencia n es la 25 misma que la de la tabla de la FIG. 14.
Cuando el macrobloque ha de ser codificado a nivel de campo, un índice de trama y un índice de campo se codifican como información de índice usando las tablas mostradas en las FIGS. 14 y 15. Cuando el macrobloque ha de ser codificado a nivel de trama, sólo el índice de trama común a las tablas de las FIGS. 14 y 15 su índice es codificado como información de índice. 30
En esta realización, los parámetros predictivos se asignan a una trama y un campo usando una tabla. Sin embargo, pueden prepararse por separado una tabla para tramas y una tabla para campos para una imagen o una rebanada.
Cada realización descrita anteriormente ha ejemplificado el esquema de codificación/decodificación de vídeo usando transformación ortogonal a nivel de bloque. Sin embargo, aunque se use otra técnica de transformación como 35 transformación de ondas pequeñas, puede usarse la técnica de la presente invención que se ha descrito en las realizaciones anteriores.
El procesamiento para codificación y decodificación de vídeo según la presente invención puede implementarse como hardware (un aparato) o software usando un ordenador. Algo del procesamiento puede implementarse por hardware, y el otro procesamiento puede realizarse por software. Según la presente invención, 40 puede proporcionarse un programa para hacer que un ordenador ejecute la codificación de vídeo o la decodificación de vídeo anteriores o que un medio de almacenamiento almacene el programa.
Aplicabilidad industrial
Como se ha descrito anteriormente, el procedimiento y aparato para codificación/decodificación de vídeo según la presente invención son adecuados para el campo de procesamiento de imagen en el que un vídeo que cambia de 45 luminancia a lo largo del tiempo, como un vídeo que se atenúa o un vídeo que se desvanece, en particular, es codificado y decodificado.

Claims (2)

  1. REIVINDICACIONES
    1. Un procedimiento para decodificación de vídeo para decodificar datos codificados obtenidos sometiendo a un vídeo (100) que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el procedimiento para decodificación de vídeo:
    una etapa de recibir datos codificados obtenidos codificando, para un bloque que ha de ser decodificado, un 5 coeficiente de transformada ortogonal cuantificado de una señal de error de predicción concerniente a la luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) que indica una combinación de una pluralidad de combinaciones indexadas que comprende una imagen de referencia, un factor de ponderación para cada una de la luminancia y las dos diferencias de color y una desviación para cada una de la luminancia y las dos diferencias de color; 10
    una etapa de deducir la imagen de referencia, el factor de ponderación y la desviación a partir de la información de índice para el bloque que ha de ser decodificado;
    una etapa de generar la señal de error de predicción para el bloque que ha de ser decodificado sometiendo el coeficiente de transformada ortogonal cuantificado para invertir la cuantificación e invertir la transformada ortogonal;
    una etapa de generar una imagen de predicción (412) para el bloque que ha de ser decodificado multiplicando 15 la imagen de referencia por el factor de ponderación y sumando la desviación, basándose en el vector de movimiento para el bloque que ha de ser decodificado; y
    una etapa de generar una señal de imagen decodificada (310) para el bloque que ha de ser decodificado calculando una suma de la señal de error de predicción y la imagen de predicción.
  2. 2. Un aparato para decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un 20 vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el aparato para decodificación de vídeo:
    medios (301, 302, 303) para recibir datos codificados obtenidos codificando, para un bloque que ha de ser decodificado, un coeficiente de transformada ortogonal cuantificado de una señal de error de predicción que concierne a la luminancia y dos diferencias de color, información de un vector de movimiento e información de índice que indica una 25 combinación de una pluralidad de combinaciones indexadas que comprenden una imagen de referencia, un factor de ponderación para cada una de la luminancia y las dos diferencias de color y una desviación para cada una de la luminancia y las dos diferencias de color;
    medios (403) para deducir la imagen de referencia, el factor de ponderación y la desviación a partir de la información de índice para el bloque que ha de ser decodificado; 30
    medios (304, 305) para generar la señal de error de predicción para el bloque que ha de ser decodificado sometiendo a los coeficientes de transformada ortogonal a cuantificación inversa y transformada ortogonal inversa;
    medios (308) para generar una imagen de predicción por compensación de movimiento (412) para el bloque que ha de ser decodificado multiplicando la imagen de referencia por el factor de ponderación y sumando la desviación, basándose en el vector de movimiento para el bloque que ha de ser decodificado; y 35
    medios (306) para generar una señal de imagen decodificada (310) para el bloque que ha de ser decodificado calculando una suma de la señal de error de predicción y la imagen de predicción por compensación de movimiento.
ES07006031T 2002-04-18 2003-04-18 Procedimiento y aparato para decodificación de vídeo . Expired - Lifetime ES2355656T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002116718 2002-04-18
JP2002-116718 2002-04-18
JP2002-340042 2002-11-22

Publications (1)

Publication Number Publication Date
ES2355656T3 true ES2355656T3 (es) 2011-03-29

Family

ID=37390619

Family Applications (2)

Application Number Title Priority Date Filing Date
ES03717655T Expired - Lifetime ES2351306T3 (es) 2002-04-18 2003-04-18 Procedimiento y dispositivo para la codificación de imágen en movimiento.
ES07006031T Expired - Lifetime ES2355656T3 (es) 2002-04-18 2003-04-18 Procedimiento y aparato para decodificación de vídeo .

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES03717655T Expired - Lifetime ES2351306T3 (es) 2002-04-18 2003-04-18 Procedimiento y dispositivo para la codificación de imágen en movimiento.

Country Status (4)

Country Link
JP (319) JP4127714B2 (es)
CN (3) CN100508609C (es)
ES (2) ES2351306T3 (es)
NO (1) NO339262B1 (es)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0858940A (ja) * 1994-08-25 1996-03-05 Mukai Kogyo Kk コンベア装置
US7075502B1 (en) 1998-04-10 2006-07-11 E Ink Corporation Full color reflective display with multichromatic sub-pixels
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN100508609C (zh) * 2002-04-18 2009-07-01 株式会社东芝 运动图像编码/解码方法和装置
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
KR101365444B1 (ko) * 2007-11-19 2014-02-21 삼성전자주식회사 영상의 해상도의 조정을 통하여 동영상을 효율적으로부호화/복호화하는 방법 및 장치
JP5461892B2 (ja) 2009-06-05 2014-04-02 株式会社ミツトヨ 顕微鏡
TWI562398B (en) 2009-09-15 2016-12-11 Showa Denko Kk Light-emitting diode, light-emitting diode lamp and lighting apparatus
JP5440927B2 (ja) 2009-10-19 2014-03-12 株式会社リコー 測距カメラ装置
JP2011087202A (ja) 2009-10-19 2011-04-28 Sony Corp 記憶装置およびデータ通信システム
CN103826130B (zh) * 2010-04-08 2017-03-01 株式会社东芝 图像解码方法以及图像解码装置
CN103826131B (zh) * 2010-04-08 2017-03-01 株式会社东芝 图像解码方法以及图像解码装置
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
JP5325157B2 (ja) * 2010-04-09 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム
JP5482407B2 (ja) 2010-04-28 2014-05-07 株式会社リコー 情報処理装置、画像処理装置、画像処理システム、画面カスタマイズ方法、画面カスタマイズプログラム、及びそのプログラムを記録した記録媒体
US9706204B2 (en) * 2010-05-19 2017-07-11 Sk Telecom Co., Ltd. Image encoding/decoding device and method
JP2012032611A (ja) 2010-07-30 2012-02-16 Sony Corp 立体画像表示装置
JP5757075B2 (ja) 2010-09-15 2015-07-29 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
KR101755601B1 (ko) 2010-11-04 2017-07-10 삼성디스플레이 주식회사 터치 스크린 패널 일체형 액정표시장치
WO2012093879A2 (ko) * 2011-01-06 2012-07-12 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
ES2933424T3 (es) 2011-03-06 2023-02-08 Lg Electronics Inc Método de predicción intra para bloques de crominancia
GB2491589B (en) 2011-06-06 2015-12-16 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of image
RU2598799C2 (ru) * 2011-06-27 2016-09-27 Сан Пэтент Траст Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений, устройство декодирования изображений и устройство кодирования-декодирования изображений
CA3016913C (en) 2011-06-28 2020-03-10 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US8599652B2 (en) 2011-07-14 2013-12-03 Tdk Corporation Thermally-assisted magnetic recording medium and magnetic recording/reproducing device using the same
JP5830993B2 (ja) * 2011-07-14 2015-12-09 ソニー株式会社 画像処理装置及び画像処理方法
CN103124346B (zh) * 2011-11-18 2016-01-20 北京大学 一种残差预测的确定方法及系统
US9571843B2 (en) * 2011-12-22 2017-02-14 Samsung Electronics Co., Ltd. Video encoding method using offset adjustment according to classification of pixels by maximum encoding units and apparatus thereof, and video decoding method and apparatus thereof
CN103460701B (zh) 2012-01-20 2017-06-09 索尼公司 有效度图编码的复杂度降低
WO2014007514A1 (ko) * 2012-07-02 2014-01-09 엘지전자 주식회사 영상 디코딩 방법 및 이를 이용하는 장치
US9724920B2 (en) 2013-03-20 2017-08-08 Hewlett-Packard Development Company, L.P. Molded die slivers with exposed front and back surfaces
JP6087747B2 (ja) 2013-06-27 2017-03-01 Kddi株式会社 映像符号化装置、映像復号装置、映像システム、映像符号化方法、映像復号方法、およびプログラム
CN105899918B (zh) 2014-01-08 2018-01-16 旭化成微电子株式会社 二极管型传感器的输出电流检测ic芯片以及二极管型传感器装置
JP6619930B2 (ja) 2014-12-19 2019-12-11 株式会社Adeka ポリオレフィン系樹脂組成物
JP6434162B2 (ja) * 2015-10-28 2018-12-05 株式会社東芝 データ管理システム、データ管理方法およびプログラム
IL261104B2 (en) 2016-02-24 2023-09-01 Magic Leap Inc Polarizing beam splitter with low light leakage
JP2018189977A (ja) * 2018-07-12 2018-11-29 株式会社ニコン 電子機器
DE102019103438A1 (de) 2019-02-12 2020-08-13 Werner Krammel Fahrzeug mit Neigerahmen und Federdämpfersystem
EP3751852A1 (en) * 2019-06-12 2020-12-16 intoPIX s.a. Encoder and method of encoding a sequence of frames
JP7402714B2 (ja) 2020-03-05 2023-12-21 東洋エンジニアリング株式会社 流動床型造粒装置または流動床/噴流床型造粒装置
CN114213441B (zh) * 2021-12-27 2023-12-01 中国科学院长春应用化学研究所 硼杂或磷杂稠环化合物及其制备方法和发光器件

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2938412B2 (ja) * 1996-09-03 1999-08-23 日本電信電話株式会社 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体
FR2755527B1 (fr) * 1996-11-07 1999-01-08 Thomson Multimedia Sa Procede de prediction compensee en mouvement et codeur utilisant un tel procede
CA2264834C (en) * 1997-07-08 2006-11-07 Sony Corporation Video data encoder, video data encoding method, video data transmitter, and video data recording medium
JP2001333389A (ja) * 2000-05-17 2001-11-30 Mitsubishi Electric Research Laboratories Inc ビデオ再生システムおよびビデオ信号処理方法
CN100508609C (zh) * 2002-04-18 2009-07-01 株式会社东芝 运动图像编码/解码方法和装置

Also Published As

Publication number Publication date
JP4309469B2 (ja) 2009-08-05
JP4517020B2 (ja) 2010-08-04
JP4538570B2 (ja) 2010-09-08
JP4517036B2 (ja) 2010-08-04
JP4406067B2 (ja) 2010-01-27
JP2009136010A (ja) 2009-06-18
JP4560136B2 (ja) 2010-10-13
JP4517037B2 (ja) 2010-08-04
JP2010045809A (ja) 2010-02-25
JP4406048B2 (ja) 2010-01-27
JP4307524B2 (ja) 2009-08-05
JP2010172025A (ja) 2010-08-05
JP4256462B2 (ja) 2009-04-22
JP4376309B2 (ja) 2009-12-02
JP2010158079A (ja) 2010-07-15
JP4247305B1 (ja) 2009-04-02
JP4406080B1 (ja) 2010-01-27
JP4560138B2 (ja) 2010-10-13
JP4637277B2 (ja) 2011-02-23
JP4637288B2 (ja) 2011-02-23
JP2010158077A (ja) 2010-07-15
JP2010124505A (ja) 2010-06-03
JP4234783B2 (ja) 2009-03-04
NO20150299L (no) 2004-01-29
JP2010022031A (ja) 2010-01-28
JP4538551B2 (ja) 2010-09-08
CN101631248A (zh) 2010-01-20
JP2009136008A (ja) 2009-06-18
JP2010104045A (ja) 2010-05-06
JP4438901B1 (ja) 2010-03-24
JP4478748B2 (ja) 2010-06-09
JP4234780B2 (ja) 2009-03-04
JP4538553B2 (ja) 2010-09-08
JP2009219136A (ja) 2009-09-24
JP4406047B2 (ja) 2010-01-27
JP4427622B2 (ja) 2010-03-10
JP2009071886A (ja) 2009-04-02
JP2009219134A (ja) 2009-09-24
JP4496306B2 (ja) 2010-07-07
JP2010022036A (ja) 2010-01-28
JP2010028834A (ja) 2010-02-04
JP2009296646A (ja) 2009-12-17
JP4406082B1 (ja) 2010-01-27
JP2010022033A (ja) 2010-01-28
JP4376314B1 (ja) 2009-12-02
JP2010104053A (ja) 2010-05-06
JP2009081889A (ja) 2009-04-16
JP4355757B2 (ja) 2009-11-04
JP2008211855A (ja) 2008-09-11
JP2009290883A (ja) 2009-12-10
JP4406072B2 (ja) 2010-01-27
JP2010158069A (ja) 2010-07-15
JP2010104042A (ja) 2010-05-06
JP2010172021A (ja) 2010-08-05
JP4405584B2 (ja) 2010-01-27
JP4307535B2 (ja) 2009-08-05
JP4320368B2 (ja) 2009-08-26
JP4406064B1 (ja) 2010-01-27
JP2009165179A (ja) 2009-07-23
JP2009239937A (ja) 2009-10-15
JP2010104051A (ja) 2010-05-06
JP4478747B2 (ja) 2010-06-09
JP4307522B2 (ja) 2009-08-05
JP4338777B2 (ja) 2009-10-07
JP4538542B2 (ja) 2010-09-08
JP4355762B2 (ja) 2009-11-04
JP4208913B2 (ja) 2009-01-14
JP4637287B2 (ja) 2011-02-23
JP2009017590A (ja) 2009-01-22
JP2008199650A (ja) 2008-08-28
JP2010041733A (ja) 2010-02-18
JP4517041B2 (ja) 2010-08-04
JP2010172027A (ja) 2010-08-05
JP2009296645A (ja) 2009-12-17
JP2010016864A (ja) 2010-01-21
JP4538549B1 (ja) 2010-09-08
JP2009165178A (ja) 2009-07-23
JP4460637B2 (ja) 2010-05-12
JP4376301B2 (ja) 2009-12-02
JP4637276B2 (ja) 2011-02-23
JP2010158075A (ja) 2010-07-15
JP4427614B2 (ja) 2010-03-10
JP2010074852A (ja) 2010-04-02
JP4406051B2 (ja) 2010-01-27
JP2010098757A (ja) 2010-04-30
JP4234784B1 (ja) 2009-03-04
JP4406062B1 (ja) 2010-01-27
JP4478749B2 (ja) 2010-06-09
JP4517013B2 (ja) 2010-08-04
JP4496314B2 (ja) 2010-07-07
JP2009296644A (ja) 2009-12-17
JP2010028828A (ja) 2010-02-04
JP4538568B2 (ja) 2010-09-08
JP2009296648A (ja) 2009-12-17
JP2010028843A (ja) 2010-02-04
JP2010098753A (ja) 2010-04-30
JP4307528B2 (ja) 2009-08-05
JP2010098750A (ja) 2010-04-30
JP2009278648A (ja) 2009-11-26
JP4637278B2 (ja) 2011-02-23
JP2009278650A (ja) 2009-11-26
JP2010035184A (ja) 2010-02-12
JP4478736B1 (ja) 2010-06-09
JP2009011006A (ja) 2009-01-15
JP2009136003A (ja) 2009-06-18
JP2008182763A (ja) 2008-08-07
JP2009207173A (ja) 2009-09-10
JP2010028833A (ja) 2010-02-04
JP2010124499A (ja) 2010-06-03
JP2010161816A (ja) 2010-07-22
JP4538567B1 (ja) 2010-09-08
JP4538557B2 (ja) 2010-09-08
JP4406069B2 (ja) 2010-01-27
JP4406054B2 (ja) 2010-01-27
JP2010172028A (ja) 2010-08-05
JP2011024260A (ja) 2011-02-03
JP4496308B2 (ja) 2010-07-07
JP2010098758A (ja) 2010-04-30
JP4478743B2 (ja) 2010-06-09
JP2010016863A (ja) 2010-01-21
JP4376311B2 (ja) 2009-12-02
JP2010022038A (ja) 2010-01-28
JP2010283900A (ja) 2010-12-16
JP4307531B2 (ja) 2009-08-05
JP4338776B2 (ja) 2009-10-07
JP2009055640A (ja) 2009-03-12
JP2009081878A (ja) 2009-04-16
JP2010178395A (ja) 2010-08-12
JP2011004446A (ja) 2011-01-06
JP4438898B1 (ja) 2010-03-24
JP2010154580A (ja) 2010-07-08
JP4406063B2 (ja) 2010-01-27
JP4538544B2 (ja) 2010-09-08
JP2009225465A (ja) 2009-10-01
JP2010172034A (ja) 2010-08-05
JP4282755B2 (ja) 2009-06-24
JP2009136018A (ja) 2009-06-18
JP4460634B2 (ja) 2010-05-12
JP2009296649A (ja) 2009-12-17
JP2010104041A (ja) 2010-05-06
JP2010104057A (ja) 2010-05-06
JP4208954B2 (ja) 2009-01-14
JP4538541B1 (ja) 2010-09-08
JP2010098759A (ja) 2010-04-30
JP4234781B1 (ja) 2009-03-04
JP4517032B2 (ja) 2010-08-04
JP2010158064A (ja) 2010-07-15
JP4406078B1 (ja) 2010-01-27
JP2010158078A (ja) 2010-07-15
JP4517026B2 (ja) 2010-08-04
JP4538555B2 (ja) 2010-09-08
JP4376303B2 (ja) 2009-12-02
JP4517027B1 (ja) 2010-08-04
JP4637285B2 (ja) 2011-02-23
JP2010022032A (ja) 2010-01-28
JP4320366B2 (ja) 2009-08-26
JP4496307B2 (ja) 2010-07-07
JP4355761B2 (ja) 2009-11-04
JP4427621B2 (ja) 2010-03-10
JP2009136019A (ja) 2009-06-18
JP2010172040A (ja) 2010-08-05
JP2010158052A (ja) 2010-07-15
JP2010022037A (ja) 2010-01-28
JP4406076B2 (ja) 2010-01-27
JP4355767B2 (ja) 2009-11-04
JP2010104052A (ja) 2010-05-06
JP2007060713A (ja) 2007-03-08
JP4517031B2 (ja) 2010-08-04
JP4282754B2 (ja) 2009-06-24
JP2010098752A (ja) 2010-04-30
JP2009239948A (ja) 2009-10-15
JP2010158074A (ja) 2010-07-15
JP2011004441A (ja) 2011-01-06
JP2009071887A (ja) 2009-04-02
JP4282758B2 (ja) 2009-06-24
JP2010028850A (ja) 2010-02-04
JP2010124502A (ja) 2010-06-03
JP4427616B2 (ja) 2010-03-10
JP4496304B1 (ja) 2010-07-07
JP2008211857A (ja) 2008-09-11
JP2010158065A (ja) 2010-07-15
JP4538569B2 (ja) 2010-09-08
JP2010200366A (ja) 2010-09-09
JP4517014B2 (ja) 2010-08-04
JP4538564B2 (ja) 2010-09-08
JP4637290B2 (ja) 2011-02-23
JP2009239942A (ja) 2009-10-15
JP2011004438A (ja) 2011-01-06
JP2010161815A (ja) 2010-07-22
JP2010283899A (ja) 2010-12-16
JP4460632B2 (ja) 2010-05-12
JP4427627B2 (ja) 2010-03-10
JP4560137B2 (ja) 2010-10-13
JP2010206851A (ja) 2010-09-16
JP4256457B2 (ja) 2009-04-22
JP4427613B2 (ja) 2010-03-10
JP2008263641A (ja) 2008-10-30
JP4282756B2 (ja) 2009-06-24
JP2009038840A (ja) 2009-02-19
JP2010028841A (ja) 2010-02-04
JP2009136005A (ja) 2009-06-18
JP2009165181A (ja) 2009-07-23
JP2010016876A (ja) 2010-01-21
JP2010124503A (ja) 2010-06-03
JP2010104058A (ja) 2010-05-06
JP4478741B2 (ja) 2010-06-09
JP2010172026A (ja) 2010-08-05
JP4538539B2 (ja) 2010-09-08
JP2010124497A (ja) 2010-06-03
JP2010158059A (ja) 2010-07-15
JP2009239944A (ja) 2009-10-15
JP2010104047A (ja) 2010-05-06
JP4376302B1 (ja) 2009-12-02
JP4496305B2 (ja) 2010-07-07
JP4438902B1 (ja) 2010-03-24
JP4406089B1 (ja) 2010-01-27
JP4560140B2 (ja) 2010-10-13
JP2009136006A (ja) 2009-06-18
JP2010158073A (ja) 2010-07-15
JP4478745B2 (ja) 2010-06-09
JP4427611B2 (ja) 2010-03-10
JP2010178387A (ja) 2010-08-12
JP4256456B2 (ja) 2009-04-22
JP4517030B2 (ja) 2010-08-04
JP2010158062A (ja) 2010-07-15
JP2010172019A (ja) 2010-08-05
JP4234782B1 (ja) 2009-03-04
JP2010158067A (ja) 2010-07-15
JP2010158070A (ja) 2010-07-15
JP2010074849A (ja) 2010-04-02
JP2010098749A (ja) 2010-04-30
JP2011004443A (ja) 2011-01-06
JP4256460B2 (ja) 2009-04-22
JP4625543B1 (ja) 2011-02-02
JP4406053B1 (ja) 2010-01-27
JP4460638B2 (ja) 2010-05-12
JP2009136009A (ja) 2009-06-18
JP4538550B2 (ja) 2010-09-08
JP4478733B2 (ja) 2010-06-09
JP2008199651A (ja) 2008-08-28
JP4127715B2 (ja) 2008-07-30
JP4460640B2 (ja) 2010-05-12
JP2011030270A (ja) 2011-02-10
JP2010028824A (ja) 2010-02-04
JP2010161814A (ja) 2010-07-22
JP2010206852A (ja) 2010-09-16
JP2009022051A (ja) 2009-01-29
JP2010172037A (ja) 2010-08-05
JP2010022035A (ja) 2010-01-28
JP2010172035A (ja) 2010-08-05
JP2009077424A (ja) 2009-04-09
JP2009136017A (ja) 2009-06-18
JP2010124501A (ja) 2010-06-03
JP2010124507A (ja) 2010-06-03
JP4517019B2 (ja) 2010-08-04
JP2010124504A (ja) 2010-06-03
JP2009136014A (ja) 2009-06-18
JP2010028838A (ja) 2010-02-04
JP2010104049A (ja) 2010-05-06
JP2010028849A (ja) 2010-02-04
JP4406074B2 (ja) 2010-01-27
JP4406055B2 (ja) 2010-01-27
JP4406058B2 (ja) 2010-01-27
JP4517034B2 (ja) 2010-08-04
JP2009239945A (ja) 2009-10-15
JP4637284B2 (ja) 2011-02-23
JP2010104055A (ja) 2010-05-06
JP4307530B2 (ja) 2009-08-05
JP2010016875A (ja) 2010-01-21
JP2009290880A (ja) 2009-12-10
JP2010183629A (ja) 2010-08-19
JP2010028846A (ja) 2010-02-04
JP2010172041A (ja) 2010-08-05
JP2009225463A (ja) 2009-10-01
JP2010028836A (ja) 2010-02-04
JP2010206832A (ja) 2010-09-16
JP2008211856A (ja) 2008-09-11
JP4637291B2 (ja) 2011-02-23
NO339262B1 (no) 2016-11-21
JP2009219135A (ja) 2009-09-24
JP2009290881A (ja) 2009-12-10
JP2009077425A (ja) 2009-04-09
JP4427609B2 (ja) 2010-03-10
JP4247306B1 (ja) 2009-04-02
JP2010124496A (ja) 2010-06-03
JP2010028837A (ja) 2010-02-04
JP2010206848A (ja) 2010-09-16
JP4208955B2 (ja) 2009-01-14
CN101631247A (zh) 2010-01-20
JP2009278646A (ja) 2009-11-26
JP4406084B1 (ja) 2010-01-27
JP4376308B1 (ja) 2009-12-02
JP2011030271A (ja) 2011-02-10
JP4282757B2 (ja) 2009-06-24
JP2009136021A (ja) 2009-06-18
JP2010028825A (ja) 2010-02-04
JP4307526B2 (ja) 2009-08-05
JP4256458B2 (ja) 2009-04-22
JP2010074853A (ja) 2010-04-02
JP4320369B2 (ja) 2009-08-26
JP2009290879A (ja) 2009-12-10
JP4355763B2 (ja) 2009-11-04
JP2010206849A (ja) 2010-09-16
JP2009239950A (ja) 2009-10-15
JP4460641B2 (ja) 2010-05-12
JP2009136020A (ja) 2009-06-18
JP2010172038A (ja) 2010-08-05
JP4307537B2 (ja) 2009-08-05
JP4406075B2 (ja) 2010-01-27
JP2010158063A (ja) 2010-07-15
JP2011004442A (ja) 2011-01-06
JP2010104044A (ja) 2010-05-06
JP4637279B2 (ja) 2011-02-23
CN100508609C (zh) 2009-07-01
JP4496303B2 (ja) 2010-07-07
JP4406065B2 (ja) 2010-01-27
JP2007104699A (ja) 2007-04-19
JP4355758B2 (ja) 2009-11-04
JP4538545B2 (ja) 2010-09-08
JP4538546B2 (ja) 2010-09-08
JP4478746B2 (ja) 2010-06-09
JP4496313B2 (ja) 2010-07-07
JP2008199649A (ja) 2008-08-28
JP2010158076A (ja) 2010-07-15
JP4208945B2 (ja) 2009-01-14
JP2010022034A (ja) 2010-01-28
JP2009296647A (ja) 2009-12-17
JP4338775B2 (ja) 2009-10-07
JP4427617B2 (ja) 2010-03-10
JP2010074850A (ja) 2010-04-02
JP2009136015A (ja) 2009-06-18
JP4517023B1 (ja) 2010-08-04
JP2010172018A (ja) 2010-08-05
JP4460639B2 (ja) 2010-05-12
JP2009017589A (ja) 2009-01-22
JP2011004445A (ja) 2011-01-06
JP4338773B2 (ja) 2009-10-07
JP4517021B2 (ja) 2010-08-04
JP4427618B2 (ja) 2010-03-10
JP4460633B2 (ja) 2010-05-12
JP2010172024A (ja) 2010-08-05
JP2011024261A (ja) 2011-02-03
JP4517040B2 (ja) 2010-08-04
JP4427615B2 (ja) 2010-03-10
JP2010074848A (ja) 2010-04-02
JP2010028852A (ja) 2010-02-04
JP4538571B2 (ja) 2010-09-08
JP4538565B2 (ja) 2010-09-08
JP4208952B2 (ja) 2009-01-14
JP4355764B2 (ja) 2009-11-04
JP4478742B2 (ja) 2010-06-09
JP4320371B2 (ja) 2009-08-26
JP2009207174A (ja) 2009-09-10
JP4517028B2 (ja) 2010-08-04
JP4478752B2 (ja) 2010-06-09
JP4637292B2 (ja) 2011-02-23
JP2010158068A (ja) 2010-07-15
JP2009239946A (ja) 2009-10-15
JP4538543B2 (ja) 2010-09-08
JP4538547B2 (ja) 2010-09-08
JP2009239949A (ja) 2009-10-15
JP4307538B2 (ja) 2009-08-05
JP2009296652A (ja) 2009-12-17
JP2014057363A (ja) 2014-03-27
JP2009081879A (ja) 2009-04-16
JP4427623B2 (ja) 2010-03-10
JP4438899B1 (ja) 2010-03-24
JP4637283B2 (ja) 2011-02-23
JP2010172022A (ja) 2010-08-05
JP2009165180A (ja) 2009-07-23
JP4355770B2 (ja) 2009-11-04
JP2010158072A (ja) 2010-07-15
JP2011004447A (ja) 2011-01-06
JP4538548B2 (ja) 2010-09-08
JP2009136013A (ja) 2009-06-18
JP4256465B2 (ja) 2009-04-22
JP2007068216A (ja) 2007-03-15
JP4517035B2 (ja) 2010-08-04
JP4427610B2 (ja) 2010-03-10
JP4427612B2 (ja) 2010-03-10
JP5921656B2 (ja) 2016-05-24
JP4478734B2 (ja) 2010-06-09
JP2009165177A (ja) 2009-07-23
JP2010183625A (ja) 2010-08-19
JP2011004440A (ja) 2011-01-06
JP2009136012A (ja) 2009-06-18
JP2009011008A (ja) 2009-01-15
JP2010098751A (ja) 2010-04-30
JP2010045810A (ja) 2010-02-25
JP4256455B2 (ja) 2009-04-22
JP2010158058A (ja) 2010-07-15
JP4406083B1 (ja) 2010-01-27
JP2009207172A (ja) 2009-09-10
JP4496300B1 (ja) 2010-07-07
JP2010172020A (ja) 2010-08-05
JP4496309B2 (ja) 2010-07-07
JP4256461B2 (ja) 2009-04-22
JP4538554B2 (ja) 2010-09-08
JP4282753B2 (ja) 2009-06-24
JP2010016869A (ja) 2010-01-21
JP2010028848A (ja) 2010-02-04
JP2010028839A (ja) 2010-02-04
JP2010098748A (ja) 2010-04-30
JP2010098756A (ja) 2010-04-30
JP2010124500A (ja) 2010-06-03
JP4307529B2 (ja) 2009-08-05
JP4355769B2 (ja) 2009-11-04
JP2010016867A (ja) 2010-01-21
JP4307527B2 (ja) 2009-08-05
JP4517039B2 (ja) 2010-08-04
JP2015043638A (ja) 2015-03-05
JP4376305B1 (ja) 2009-12-02
JP4247304B2 (ja) 2009-04-02
JP4427619B2 (ja) 2010-03-10
JP4376313B2 (ja) 2009-12-02
JP2009239939A (ja) 2009-10-15
JP2009011007A (ja) 2009-01-15
JP4478739B2 (ja) 2010-06-09
JP4406061B2 (ja) 2010-01-27
JP4406050B2 (ja) 2010-01-27
JP4307539B2 (ja) 2009-08-05
JP4538563B2 (ja) 2010-09-08
JP4517022B2 (ja) 2010-08-04
JP4307523B2 (ja) 2009-08-05
JP4517033B2 (ja) 2010-08-04
JP2009219137A (ja) 2009-09-24
CN1863315A (zh) 2006-11-15
JP4460631B2 (ja) 2010-05-12
JP4478744B2 (ja) 2010-06-09
JP4517029B2 (ja) 2010-08-04
JP2009207171A (ja) 2009-09-10
JP4376307B2 (ja) 2009-12-02
JP4338771B2 (ja) 2009-10-07
JP4406088B1 (ja) 2010-01-27
JP2007053799A (ja) 2007-03-01
JP2009136011A (ja) 2009-06-18
JP4406070B2 (ja) 2010-01-27
JP2010028826A (ja) 2010-02-04
JP2010206850A (ja) 2010-09-16
JP5738968B2 (ja) 2015-06-24
JP4282752B2 (ja) 2009-06-24
JP4355765B2 (ja) 2009-11-04
JP4427625B2 (ja) 2010-03-10
JP2009278642A (ja) 2009-11-26
JP4625542B1 (ja) 2011-02-02
JP2009207175A (ja) 2009-09-10
JP2009225464A (ja) 2009-10-01
JP2010104046A (ja) 2010-05-06
JP2009239938A (ja) 2009-10-15
JP4538562B2 (ja) 2010-09-08
JP4406077B1 (ja) 2010-01-27
JP4438903B1 (ja) 2010-03-24
JP4517025B2 (ja) 2010-08-04
JP2009136004A (ja) 2009-06-18
JP2011004439A (ja) 2011-01-06
JP4355759B2 (ja) 2009-11-04
JP2011004444A (ja) 2011-01-06
JP4406079B1 (ja) 2010-01-27
JP2010283898A (ja) 2010-12-16
JP2010028847A (ja) 2010-02-04
JP4127717B2 (ja) 2008-07-30
JP2010183626A (ja) 2010-08-19
JP4127716B2 (ja) 2008-07-30
JP4208947B2 (ja) 2009-01-14
JP4406057B2 (ja) 2010-01-27
JP2010183627A (ja) 2010-08-19
JP4406066B1 (ja) 2010-01-27
JP2010022039A (ja) 2010-01-28
JP2010028840A (ja) 2010-02-04
JP2009165182A (ja) 2009-07-23
JP2010104048A (ja) 2010-05-06
JP2009077423A (ja) 2009-04-09
JP2010041732A (ja) 2010-02-18
JP2010098755A (ja) 2010-04-30
JP4637289B2 (ja) 2011-02-23
JP2010283897A (ja) 2010-12-16
JP2010016868A (ja) 2010-01-21
JP4320370B2 (ja) 2009-08-26
JP2010028842A (ja) 2010-02-04
JP2010172030A (ja) 2010-08-05
JP4517012B1 (ja) 2010-08-04
CN101631248B (zh) 2011-09-14
CN101631247B (zh) 2011-07-27
JP2010124506A (ja) 2010-06-03
JP4406068B2 (ja) 2010-01-27
JP4496302B2 (ja) 2010-07-07
JP2010104050A (ja) 2010-05-06
JP4538561B2 (ja) 2010-09-08
JP2009278645A (ja) 2009-11-26
JP2010172036A (ja) 2010-08-05
JP2009278644A (ja) 2009-11-26
JP4307525B2 (ja) 2009-08-05
JP4427626B2 (ja) 2010-03-10
JP2010098754A (ja) 2010-04-30
JP4496311B2 (ja) 2010-07-07
JP2010104043A (ja) 2010-05-06
JP2010074847A (ja) 2010-04-02
JP2010016871A (ja) 2010-01-21
JP4478738B2 (ja) 2010-06-09
JP4208953B2 (ja) 2009-01-14
JP2009296651A (ja) 2009-12-17
JP4478735B2 (ja) 2010-06-09
JP4355771B2 (ja) 2009-11-04
JP4560139B2 (ja) 2010-10-13
JP2009239943A (ja) 2009-10-15
JP2009290882A (ja) 2009-12-10
JP2010136429A (ja) 2010-06-17
JP4496301B2 (ja) 2010-07-07
JP4307536B2 (ja) 2009-08-05
JP4208946B2 (ja) 2009-01-14
JP2010124498A (ja) 2010-06-03
JP2009050020A (ja) 2009-03-05
JP2010016877A (ja) 2010-01-21
JP2010172039A (ja) 2010-08-05
JP4406073B2 (ja) 2010-01-27
JP4460636B2 (ja) 2010-05-12
JP4496315B2 (ja) 2010-07-07
JP4406085B1 (ja) 2010-01-27
JP2008301538A (ja) 2008-12-11
JP4637281B2 (ja) 2011-02-23
JP4338774B2 (ja) 2009-10-07
ES2351306T3 (es) 2011-02-02
JP2010104054A (ja) 2010-05-06
JP4406081B1 (ja) 2010-01-27
JP2007053800A (ja) 2007-03-01
JP2010178396A (ja) 2010-08-12
JP4538560B2 (ja) 2010-09-08
JP4517024B2 (ja) 2010-08-04
JP4665062B2 (ja) 2011-04-06
JP2010028845A (ja) 2010-02-04
JP4460630B2 (ja) 2010-05-12
JP4331259B2 (ja) 2009-09-16
JP2010158071A (ja) 2010-07-15
JP2009296619A (ja) 2009-12-17
JP2010158053A (ja) 2010-07-15
JP2009239941A (ja) 2009-10-15
JP4355768B2 (ja) 2009-11-04
JP2009296650A (ja) 2009-12-17
JP4355756B2 (ja) 2009-11-04
JP2009290884A (ja) 2009-12-10
JP2010104056A (ja) 2010-05-06
JP2010016874A (ja) 2010-01-21
JP4338772B2 (ja) 2009-10-07
JP4406056B2 (ja) 2010-01-27
JP2010172029A (ja) 2010-08-05
JP2010200365A (ja) 2010-09-09
JP2010104040A (ja) 2010-05-06
JP2010158060A (ja) 2010-07-15
JP2010028835A (ja) 2010-02-04
JP4406087B1 (ja) 2010-01-27
JP4376306B2 (ja) 2009-12-02
JP4438900B1 (ja) 2010-03-24
JP4517018B2 (ja) 2010-08-04
JP2009278649A (ja) 2009-11-26
JP4517015B1 (ja) 2010-08-04
JP2009239940A (ja) 2009-10-15
JP2010028851A (ja) 2010-02-04
JP2009239947A (ja) 2009-10-15
JP2010172032A (ja) 2010-08-05
JP2010178386A (ja) 2010-08-12
JP2010074846A (ja) 2010-04-02
JP4355766B2 (ja) 2009-11-04
JP2009118514A (ja) 2009-05-28
JP2007068217A (ja) 2007-03-15
JP2009112045A (ja) 2009-05-21
JP4427620B2 (ja) 2010-03-10
JP2010158061A (ja) 2010-07-15
JP4460635B2 (ja) 2010-05-12
JP2010183628A (ja) 2010-08-19
JP2009071884A (ja) 2009-04-02
JP2010074851A (ja) 2010-04-02
JP2009038839A (ja) 2009-02-19
JP2009050019A (ja) 2009-03-05
JP4538559B2 (ja) 2010-09-08
JP4427608B2 (ja) 2010-03-10
JP4213766B1 (ja) 2009-01-21
JP2010016873A (ja) 2010-01-21
JP2010016866A (ja) 2010-01-21
JP4338778B2 (ja) 2009-10-07
JP4355755B2 (ja) 2009-11-04
JP4637282B2 (ja) 2011-02-23
JP4307534B2 (ja) 2009-08-05
JP4438904B1 (ja) 2010-03-24
JP2009278643A (ja) 2009-11-26
JP2010028844A (ja) 2010-02-04
JP2010158066A (ja) 2010-07-15
JP4376312B1 (ja) 2009-12-02
JP2010016870A (ja) 2010-01-21
JP4376310B1 (ja) 2009-12-02
JP2011030269A (ja) 2011-02-10
JP4478737B2 (ja) 2010-06-09
JP2010172042A (ja) 2010-08-05
JP4307533B2 (ja) 2009-08-05
JP4496310B2 (ja) 2010-07-07
JP2009136007A (ja) 2009-06-18
JP2009278647A (ja) 2009-11-26
JP2010172033A (ja) 2010-08-05
JP2010124508A (ja) 2010-06-03
JP4406052B2 (ja) 2010-01-27
JP2010028827A (ja) 2010-02-04
JP4517038B2 (ja) 2010-08-04
JP2009071885A (ja) 2009-04-02
JP2010124495A (ja) 2010-06-03
JP4478740B2 (ja) 2010-06-09
JP4376315B2 (ja) 2009-12-02
JP4637280B2 (ja) 2011-02-23
JP4406049B1 (ja) 2010-01-27
JP2009071888A (ja) 2009-04-02
JP4538566B2 (ja) 2010-09-08
JP4406060B1 (ja) 2010-01-27
JP4517011B2 (ja) 2010-08-04
JP2010016872A (ja) 2010-01-21
JP4438897B1 (ja) 2010-03-24
JP5481518B2 (ja) 2014-04-23
JP4307532B2 (ja) 2009-08-05
JP2009033770A (ja) 2009-02-12
JP4256459B2 (ja) 2009-04-22
JP4355760B2 (ja) 2009-11-04
JP4538556B2 (ja) 2010-09-08
JP4496312B2 (ja) 2010-07-07
JP4478751B2 (ja) 2010-06-09
JP4478750B2 (ja) 2010-06-09
JP4538540B2 (ja) 2010-09-08
JP2009136016A (ja) 2009-06-18
JP4637286B2 (ja) 2011-02-23
JP2011024259A (ja) 2011-02-03
JP2012161092A (ja) 2012-08-23
JP4406071B2 (ja) 2010-01-27
JP4517016B2 (ja) 2010-08-04
JP4538552B2 (ja) 2010-09-08
JP4517017B1 (ja) 2010-08-04
JP2010172031A (ja) 2010-08-05
JP2010178397A (ja) 2010-08-12
JP2010172023A (ja) 2010-08-05
JP4376304B2 (ja) 2009-12-02
JP4127714B2 (ja) 2008-07-30
JP4406059B2 (ja) 2010-01-27
JP4427624B2 (ja) 2010-03-10
JP2010016865A (ja) 2010-01-21
JP4538558B2 (ja) 2010-09-08
JP4406086B1 (ja) 2010-01-27
JP4127718B2 (ja) 2008-07-30
JP4320367B2 (ja) 2009-08-26
JP4127713B2 (ja) 2008-07-30
JP2007068215A (ja) 2007-03-15

Similar Documents

Publication Publication Date Title
ES2355656T3 (es) Procedimiento y aparato para decodificación de vídeo .
ES2375221T3 (es) Procedimiento y aparato de codificación de vídeo.