MXPA04008392A - Metodo y aparato para codificar/decodificar video. - Google Patents

Metodo y aparato para codificar/decodificar video.

Info

Publication number
MXPA04008392A
MXPA04008392A MXPA04008392A MXPA04008392A MXPA04008392A MX PA04008392 A MXPA04008392 A MX PA04008392A MX PA04008392 A MXPA04008392 A MX PA04008392A MX PA04008392 A MXPA04008392 A MX PA04008392A MX PA04008392 A MXPA04008392 A MX PA04008392A
Authority
MX
Mexico
Prior art keywords
image
predictive
signal
prophetic
generating
Prior art date
Application number
MXPA04008392A
Other languages
English (en)
Inventor
Tenizawa Akiyuki
Original Assignee
Toshiba Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Kk filed Critical Toshiba Kk
Publication of MXPA04008392A publication Critical patent/MXPA04008392A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un aparato de codificacion de video comprende una memoria de tramas/generador 108 de imagen profetica que tiene un primer modo profetico para generar una senal 212 de imagen profetica al seleccionar una combinacion de entre una pluralidad de combinaciones de un numero de imagen de referencia y una pluralidad de parametros profeticos, y un segundo modo profetico para generar una senal de imagen profetica de acuerdo con un parametro profetico calculado basado en los numeros de imagenes de referencia de una pluralidad de imagenes de referencia y una distancia de imagen a imagen, y un codificador 111 de longitud variable para seleccionar cualquiera del primero y segundo modos de prediccion por el numero de imagenes de referencia, y codificar la informacion 210 de coeficiente de transformacion ortogonal que tiene que ver con una senal de error profetica de una senal 212 de imagen profetica con respecto a la senal 100 de video de entrada. La informacion 213 de modos que indica un modo de codificacion, la informacion 214 de vector de movimiento y la combinacion de numero de imagen de referencia seleccionados con la informacion 215 de indice de parametro profetico que indica la combinacion de la informacion 213 de imagen de referencia seleccionada.

Description

(84) ÍÉSS fÉíSj: a— n «/ /*1#S (AT, BE, BG, CH, CY, CZ,DB,D ,EB,ES,n,FR,GB, GR,HÜ,IE, IT,LU, C, NL, PT, RO, SE, SI, S , TR). and the inter-image distance of a plurality of reference images; and a variable length encoder (111) for selecting one of the fiist and the second predictíon mode according the number of reference images and encoding orthogonal conversión coefficient information (210) associated with the predictíon error signa! of the predictíon image signal (212) for the input moving picture signal (ICO), mode information (213) indicating the encoding mode, motion vector information (214), and índex information (215) indicating the combination of the selected reference image number and the predictíon parameter. 1 MÉTODO Y APARATO PARA CODIFICAR/DECODIFICAR VÍDEO Campo Técnico La invención se refiere a un método para codificar/decodificar efectivamente una imagen desvanecida y una imagen disuelta y un aparato para lo mismo.
Técnica Antecedente En un esquema estándar de decodificación de video tal como ITU-TH.261, H.263, ISO/IECMPEG-2 , y MPEG-4, una codificación de intertrama profética compensada por movimiento se utiliza como uno de los modos de codificación. Cuando un modelo profético se adopta en la codificación de intertrama profética compensada por movimiento, un modelo indica la eficiencia más alta profética cuando la luminosidad no varia en un eje de tiempo. En el caso de la imagen desvanecida donde la luminosidad de la imagen varia, por ejemplo, en el caso de aparición gradual de una imagen negra a una imagen normal, un método para realizar una predicción adecuadamente de acuerdo con un cambio de luminosidad de la imagen no se conoce. Consecuentemente, existe un problema en la necesidad del mayor número de bits codificados para el propósito de mantener una calidad de imagen en una imagen desvanecida . Por ejemplo la Patente o. 3166716 describe una 2 técnica para enfrentarse con el problema al detectar una área de imagen desvanecida y cambiar una asignación del número de bits codificados a la misma. Concretamente, en el caso de la imagen de desaparición gradual, el mayor número de bits codificado se asigna a una parte de inicio de la desaparición gradual donde varia el brillo. La última parte de la desaparición gradual normalmente reduce la asignación del número de bits codificados puesto que normalmente se vuelve una imagen monocroma que resulta al hacer la codificación fácil. Con tal forma, una calidad de imagen total se mejora sin incrementar el número total de bits codificados. Por otro lado, la Patente No. 2938412 describe un sistema de codificación que trata con el problema anterior en una imagen desvanecida al compensar una imagen de referencia de acuerdo con dos parámetros de una cantidad de cambio de luminancia y una cantidad de cambio de contraste. Thomas Wiegand y Berand Girod, "Predicción compensada de movimiento de multi-tramas para transmisión de video", Kluwer Academic Publishers 2001, proporciona un sistema de codificación basado en una pluralidad de registro de cuadro. Este sistema pretende mejorar una eficiencia profética al generar una imagen profética selectivamente de una pluralidad de tramas de referencia guardadas en los registro de cuadro. Sin embargo, el sistema de la Patente No. 3166716 3 mejora una calidad de imagen sin incrementar el número total de bits codificados al codificar una imagen desvanecida al detectar una área de imagen desvanecida, y cambiar una asignación del número de bits codificados . Por esta razón, existe la ventaja de que la codificación puede realizarse dentro de la estructura de un sistema de codificación existente. Sin embargo, puesto que la eficiencia de predicción no se mejora esencialmente, una mejora notable de la eficiencia de codificación no. puede esperarse. Por otro lado, el sistema de la Patente No. 2938412 tiene un mérito de que la eficiencia profética en una imagen desvanecida se mejora. Sin embargo, la eficiencia profética que es suficiente para la imagen asi llamada disuelta (referida como una imagen desvanecida transversal) la cual una imagen varia gradualmente de una imagen a otra imagen no puede obtenerse. El sistema de Thomas Wiegar.d y Berand Girod no puede tratar suficientemente con una imagen desvanecida y una imagen disuelta, y no puede mejorar una eficiencia profética a un si una pluralidad de tramas de referencia se preparan. De acuerdo con la técnica anterior como se describe en lo anterior, el mayor número de bits codificados se requiere para la imagen desvanecida y la imagen disuelta para codificarse con alta calidad de imagen. Existe un problema que la mejora de la eficiencia de codificación puede 4 esperarse .
Descripción de la Invención Un objeto de la presente invención es proporcionar un método de codificación de video, un método de decodificación de video, y un aparato para lo mismo que hacen posible codificar en alta eficiencia una imagen de video cuya luminancia varia con el tiempo tal como una imagen desvanecida y una imagen disuelta y disminuir una cantidad de cálculo . En un premier aspecto de la presente invención, en el caso de someter una señal de video de entrada a una codificación profética compensada por movimiento en un lado de codificación de video al utilizar por lo menos una señal de imagen de referencia y un vector de movimiento entre la señal de video de entrada y la señal de imagen de referencia, si el número de imagen de referencia utilizado por una codificación profética compensada por movimiento es sencilla, se utiliza un primer método de generación de señal de imagen profética para generar una señal de imagen profética de acuerdo con un número de imagen de referencia y un parámetro profético de una combinación seleccionada por cada región que va a codificarse de la señal de video de entrada, de una pluralidad de combinaciones de por lo menos un número de imagen de referencia con parámetros proféticos . 5 Por otro lado, cuando el número de imagen de referencia utilizado por una codificación profética compensada por movimiento es plural, se utiliza un segundo método de generación de la señal profética para generar una señal de imagen profética de acuerdo con un parámetro profético calculado cada región que va a codificarse basándose en los números de imágenes y una distancia de imagen a imagen de la pluralidad de imágenes de referencia. Una señal de error profética que expresa un error de una señal de imagen profética generada de esta forma con respecto a una señal de video de entrada se genera, y la información de índice que indica cualquiera de un conjunto de la señal de error profética y la información de vector de movimiento y un conjunto de una combinación seleccionada y los números de imágenes de referencia de una pluralidad de imágenes de referencia se codifica. En otro aspecto de la presente invención, cuando un tipo profético de una región que va a codificarse de una señal de video de entrada es un primer tipo profético para utilizar una imagen de referencia para una codificación profética compensada por movimiento, un primer método de generación de señal profética se utiliza. Cuando un tipo profético de una región que va a codificarse es un tipo profético bidireccional y el número de imagen de referencia utilizado por una codificación profética compensada por movimiento se utiliza, un segundo método de generaciones de señal profética se utiliza. Por otro lado, en un lado de decodificación de video, los datos codificados que incluyen una señal de error profética que representa un error de una señal de imagen profética con respecto a una señal de video, la información de vector de movimiento, y la información de índice que indica cualquiera de una combinación del número de imagen de referencia y un parámetro profético y los números de imagen de referencia de una pluralidad de imágenes de referencia se decodifican. Cuando la información de índice decodificada representa la combinación, una señal de imagen profética se genera de acuerdo con el número de imagen de referencia y el parámetro profético de la combinación. Cuando la información de índice decodificada representa el número de imagen de referencia de una pluralidad de imágenes de referencia, se genera una señal de imagen profética de acuerdo con el número de imagen de referencia y un parámetro profético calculado basado en una distancia de imagen a imagen de la pluralidad de imágenes de referencia. Una señal de video de reproducción se genera utilizando la señal de error profética y la señal de imagen profética generada de esta forma. De acuerdo con la presente invención como se describe de este modo, un primer método de generación de imagen profética para generar una señal de imagen profética 7 de número de imagen de referencias y un parámetro profético, y un segundo método de generación de imágenes proféticas para generar una señal de imagen profética utilizando un parámetro profético calculado basado en una distancia de trama a trama de la pluralidad seleccionada de imágenes de referencia se preparan, y cualquiera de las mismas se selecciona de acuerdo con el número de imagen de referencia y un tipo profético que se utilizan para una codificación profética compensada por movimiento . Como resultado, una señal de imagen profética apropiada puede generarse mediante un sistema profético con una eficiencia más alta profética para una señal de video de entrada a partir de la cual una señal de imagen profética no puede generarse apropiadamente por un sistema profético de una codificación de video normal, por ejemplo, una imagen desvanecida y una imagen disuelta, también. Además, puesto que es posible establecer el número de veces de multiplicación por pixel a la vez, una escala de hardware y un costo de operación puede reducirse en el lado de codificación y en el lado de decodificación. Además, la información que tiene que ver con un número de imagen de referencia y un parámetro profético no se envía desde el lado de codificación al lado de descodificación, pero la información de índice que indica la combinación de un número de imagen de referencia, con un parámetro profético, o la información de índice que indica la combinación de parámetros proféticos se envía en el caso de enviar el número de imagen de referencia separadamente. Como resultado, la eficiencia de codificación puede mejorarse.
Breve Descripción de los Dibujos La Figura 1 es un diagrama de bloque que muestra la configuración de un aparato de codificación de video con relación a la primera modalidad de la presente invención. La Figura 2 es un diagrama de bloque que muestra configuración detallada de una memoria de tramas y un generador de imagen profética en la modalidad. La Figura 3 es un diagrama que muestra un ejemplo de una tabla de combinación de acuerdo con un número de imagen de referencia y un parámetro profético para usarse en la modalidad. La Figura 4 es un diagrama que muestra una primera relación de posición entre dos imágenes de referencia y una imagen que va a codificarse en la modalidad. La Figura 5 es un diagrama que muestra una segunda relación de posición entre dos imágenes de referencia y una imagen que va a codificarse en la modalidad. La Figura 6 es un diagrama que muestra una tercera posición entre dos imágenes de referencia y una imagen que va a codificarse en la modalidad. 9 La Figura 7 es un diagrama que muestra una cuarta relación de posición entre dos imágenes de referencia y una imagen que va a codificarse en la modalidad. La Figura 8 es un diagrama de flujo que muestra un ejemplo de un procedimiento de una selección de un esquema profético cada macro-bloque (combinación de un número de imagen de referencia con un parámetro profético) y una determinación de modo de codificación. La Figura 9 es un diagrama de bloque que muestra la configuración de un aparato de decodificación de video con relación a la modernidad. La Figura 10 es un diagrama de bloque que ilustra una configuración detallada de una memoria de tráfico de tramas/generador de imágenes proféticas en la Figura 9. La Figura 11 es un diagrama que muestra un ejemplo de sintaxis cada bloque en el caso de la información de índice de codificación. La Figura 12 es un diagrama que muestra un ejemplo de una corriente de bits codificadas concreta en el caso para generar una imagen profética utilizando una imagen de referencia sencilla. La Figura 13 es un diagrama que muestra un ejemplo de una corriente de bits codificada concreta en el caso de generar una imagen profética utilizando dos imágenes de referencia . 10 La Figura 14 es un diagrama de flujo que muestra un procedimiento para cambiar un esquema profético de acuerdo con un tipo de región que va a codificarse con relación a una modalidad de la presente invención.
Mejor Modo para Llevar a Cabo la Invención Una modalidad de la presente invención ahora se describirá con referencia a los dibujos.
[Primera modalidad] (Con referencia al lado de codificación) La Figura 1 muestra la configuración de un aparato de codificación de video relacionado a la primera modalidad de la presente invención. Al aparato de codificación de video se ingresa una señal 100 de video en unidades de una trama, por ejemplo, en este ejemplo. Esta señal 100 de video se ingresa a un subtractor 101 para generar una señal de error profética con respecto a una señal 212 de imagen profética. Cualquiera de la señal de error profética y la señal 100 de video de entrada se selecciona con un conmutador 102 de selección de modo, y se somete a la transformación ortogonal, por ejemplo, transformación de coseno discreto (DCT) con un transformador 103 ortogonal. El transformador 103 ortogonal genera información de coeficiente transformada ortogonal, por ejemplo, información de coeficiente de DCT. La información de 11 coeficiente transformada ortogonal se cuantifica con un cuantificador 104, y la información 210 de coeficiente transformada ortogonal cuantificada se lleva a un codificador 111 de longitud variable. Además, la información 210 de coeficiente transformada ortogonal cuantificada se ingresa a un decodificador local. En este decodificador local, la información 210 de coeficiente transformada ortogonal cuantificada se somete a un proceso para ser inversiva a la del cuantificador 104 y el transformador 103 ortogonal con un descuantificador 105 y un transformador 106 ortogonal inverso, para reconstruir una señal similar a la señal de error profética. Después de esto, la señal reconstruida se agrega a una señal 212 de imagen profética ingresada a través de un conmutador 109 con un sumador 107 para generar una señal 211 de imagen decodificada local. La señal 211 de imagen decodifica local se ingresa a una memoria de tramas/generador 108 de imágenes proféticas. La memoria de trama/generador 108 de imagen profética selecciona una combinación de una pluralidad de combinaciones de un número de tramas de referencia y un parámetro profético que se preparan de antemano. La señal de imagen (señal 211 de imagen decodificada local) de la trama de referencia indicada por el número de tramas de referencia de la combinación seleccionada se somete a cálculo por una 12 suma lineal ele acuerdo con un parámetro profético en la combinación seleccionada. Además, en este ejemplo, una señal de imagen de referencia de una unidad de tramas se genera al agregar un desplazamiento a la suma lineal de acuerdo con el parámetro profético. Después de esto, la memoria de tramas/generador 108 de imágenes proféticas somete la señal de imagen de referencia a la compensación de movimiento utilizando un vector de movimiento para generar una señal 212 de imagen profética. En este proceso, la memoria de tramas/generador 108 de imágenes proféticas genera la información 214 de vector de movimiento y la información 215 de índice que indica la combinación seleccionada del número de tramas de referencia y el parámetro profético, y además envía la información que es necesaria para la selección de un modo de codificación al selector 212 de modos. La información 214 del vector de movimiento y la información 215 de índice se ingresan al codificador 111 de longitud variable. La memoria de tramas/generador 108 de imágenes proféticas se describirá en detalle posteriormente. Un selector 110 de modo selecciona un modo de codificación en unidades de un macro-bloque basándose en la información P profética a partir de la memoria de tramas /generador 108 de imágenes proféticas, es decir, selecciona cualquiera de una codificación de intra-trama y 13 una codificación de inter-trama profética compensada por movimiento para producir las señales M y S de control de conmutación . En el modo de codificación de intra-trama, los conmutadores 102 y 112 se conmutan al lado A por las señales M y S de control de conmutación, por lo cual la señal 100 de video de entrada se ingresa al transformador 103 ortogonal. En el modo de codificación de inter-trama, los conmutadores 102 y 112 se conmutan a un lado B mediante las señales M y S de control de conmutación, de manera que la señal de error profética del substractor 102 ingresa al transformador 103 ortogonal, y la señal 212 de imagen profética de la memoria de tramas /generador 108 de imágenes proféticas se ingresa al sumador 107. La información 213 de modos se produce a partir del selector 212 de modos y se ingresa al decodificador 111 de longitud variable. En el codificador 111 de longitud variable, la información 210 de coeficiente transformada ortogonal, la información 213 de modos, la información 214 del vector de movimiento y la información 215 de índice se someten a una codificación de longitud variable. Cada código de longitud variable generado de esta forma se multiplica y después se filtra por el compensador 115 de salida. De este modo, los datos 116 codificados producidos a partir del compensador 115 de salida se envían al sistema de transmisión o a un sistema de almacenaje no mostrado. El controlador 113 de codificación monitorea el control del codificador 112, concretamente, por ejemplo, un volumen de compensación del compensador 115 de salida, y controla un parámetro de codificación tal como el tamaño de la etapa de cuantificación del cuantificador 104 para el propósito de hacer al volumen de compensación constante.
(Con referencia a la memoria de tramas/generador 108 de imágenes proféticas) La Figura 2 muestra la configuración detallada de la memoria de tramas/generador 108 de imágenes proféticas en la Figura 1. En la Figura 2, la señal 211 de imagen decodificada local ingresada del sumador 107 en la Figura 1 se almacena en el conjunto 212 de memorias de tramas bajo el control del controlador 201 de memorias. El conjunto 202 de memoria de tramas comprende una pluralidad de (N) memorias FM1 a FMN de tramas para almacenar temporalmente la señal 211 de imagen decodificada local como una trama de referencia. El controlador 203 de parámetro profético prepara una pluralidad de combinaciones de un número de tramas de referencia y un parámetro profético como una tabla previamente. El controlador 203 paramétrico profético selecciona una combinación de un número de tramas de referencia de la trama de referencia utilizada para generar una señal 212 de imagen profética basándose en la señal 100 de videos de entrada y un parámetro profético, y produce la información 215 de índice que indica la combinación seleccionada . Una pluralidad de evaluadores 204 de movimiento de tramas cada uno genera una señal de imagen de referencia de acuerdo con la combinación del número de tramas de referencia y la información de índice, la cual se selecciona con el controlador 203 de parámetros proféticos . La pluralidad de evaluador 204 de movimiento de tramas se evalúa una cantidad de movimiento y un error profético a partir de esta señal de imagen de referencia y la señal 100 de imagen de entrada, y produce la información 214 de vector de movimiento que hace un mínimo de error de predicción. Una pluralidad de compensadores 205 de movimiento de tramas genera la señal 212 de imagen profética al someter la señal de imagen de referencia seleccionada con la pluralidad de evaluadores 204 de movimiento de trama cada bloque a la compensación de movimiento de acuerdo con el vector de movimiento.
(Con referencia a la generación de una imagen profética) Las siguientes ecuaciones (1), (2) y (3) cada una muestra un ejemplo de una ecuación profética utilizando un número de imagen de referencia y un parámetro profético que se preparan con el controlador 203 de parámetros proféticos.
Un ejemplo como se muestra aquí muestra las evaluaciones proféticas aplicadas a un caso donde una imagen que va a codificarse referida como representación P asi llamada se somete a una predicción compensada por movimiento utilizando una imagen de referencias sencilla (representación de referencia) para generar una señal de imagen profética, y un caso donde una imagen que va a codificarse preferida como ilustración asi llamada B se somete a una predicción compensada por movimiento utilizando una de dos imágenes de referencia, para generar una señal de imagen profética. 7 = clip (( ( * (0 + 2Lr~1)» LY + D2 (i)) (i) Cb = clip ^E^ x (RCb (z)-128 )+2ic-1)» Lc + E2 (i) + 128) (2) Cr = clip ((F (i x (RCr (?) - 128 )+ 2ic_1)» Lc + F2 (i) + ) (3) Y indica una señal de imagen profética de una señal de luminancia, Cb y Cr indican señales de imagines proféticas de señales de diferencia de dos colores, y RY(i), RCb(i) y RCr (i) indican la señal de luminancia y valores de pixeles de señales de diferencia de dos colores de la señal de imagen de referencia del índice i. DI (i) y D2 (i) indican un coeficiente profético de la señal de luminancia del índice i, y un 17 desplazamiento, respectivamente. El (i) y E2(i) indican un coeficiente profético de la señal Cb de diferencia de color del índice i y desplazamientos respectivamente. Fl(i) y F2 (i) indican un coeficiente profético de la señal Cr de diferencia de color del índice i, y un desplazamiento respectivamente. El índice i indica un valor de cero a (el número máximo de imágenes de referencia - 1) y se codifica cada bloque que va a codificarse (por ejemplo, cada macro-bloque) y se transmite por el aparato de decodificación de video. Los parámetros Di (i), D2 (i) , El (i), E2(i), Fl (i) , y F2 (i) de predicción son valores determinados entre el aparato de codificación de video y el aparato de decodificación previamente, o unidades de codificación predeterminadas tales como una trama, un campo o una pieza, y compartidos con ambos aparatos al ser codificados junto con los datos codificados y transmitidos desde al aparato de codificación de video al aparato de decodificación. Las ecuaciones (1), (2) y (3) son ecuaciones proféticas que hacen posible evitar un proceso de división al seleccionar el denominador del coeficiente profético multiplicado por la señal de imagen de referencia como dos exponentes, particularmente, 2, 4, 8, 16,..., y calcular por un cambio aritmético. Mediante esto, es posible evitar el incremento de un costo de cálculo por el proceso de división. En otras palabras, cuando >> en las ecuaciones (1) , 18 (2) y (3) asume un » b, es un operador que somete un número entero a en un cambio aritmético por b bits a la derecha. La función clip ( ) es una función de fragmentos que se establece en 0 cuando el valor dentro de ( ) es más pequeño que 0, y a 255 cuando es más grande que 255, y el número entero de 255 se regresa de 0. LY es una cantidad de cambio de una señal de luminancia, y LC es una cantidad de cambio de una señal de diferencia de color. Estas cantidades LY y LC de cambio utilizan valores determinados con un aparato de codificación de video y un aparato de decodificación previamente. Alternativamente, se comparten con ambos aparatos al ser codificados junto con una tabla y datos codificados en una unidad de codificación tal como una trama, un campo o una pieza, la cual se predetermina en un aparato de codificación de video, y se transmite al aparato de decodificación de video . En la presente modalidad, una tabla de combinaciones de un número de imagen de referencia y un parámetro profético, el cual se muestra en la FIGURA 3 se prepara en el controlador 203 de parámetros proféticos en la FIGURA 2. Esta tabla se utiliza cuando el número de imagen de referencia es 1., En la FIGURA 3, el Índice i corresponde a la imagen profética la cual puede seleccionarse de cada bloque. En este ejemplo, existen cuatro tipos de imágenes proféticas en correspondencia con 0-3 del Indice i. El número de imagen de referencia es, en otras palabras, el número de una imagen decodificada local utilizada como una imagen de referencia. La tabla mostrada en la FIGURA 3 incluye parámetros DI (i), D2(i), El (i), E2 (i) , Fl(i), y F2 (i) proféticos que se asignan a una señal de luminancia y dos señales de diferencia de color en correspondencia con ecuaciones las (1), (2) y (3) . La etiqueta es una etiqueta que indica si la ecuación profética que utiliza los parámetros proféticos se aplica al número de imagen de referencia designado por el índice i . Si la etiqueta es "0", la predicción compensada por movimiento se realiza utilizando la imagen decodificada local del número de imagen de referencia designado por el índice i sin utilizar el parámetro profético. Si la etiqueta es "1", la predicción compensada por movimiento se hace al generar una imagen profética de acuerdo con las ecuaciones (1), (2) y (3), utilizando el parámetro profético y la imagen decodificada local del número de imagen de referencia designada por el índice i. La información de etiqueta utiliza los valores determinados con un aparato de codificación de video y un aparato de decodificación previamente. Alternativamente, si se comparte con ambos aparatos para ser codificados junto con una tabla y datos 20 codificados en una unidad de codificación tal como una trama, un campo o una pieza, lo cual se predetermina en un aparato de codificación de video, y se transmite al aparato de decodificación de video. En estos ejemplos, cuando el Indice es i=0 con respecto al número 105 de imagen de referencia, una imagen profética se generas utilizando el parámetro profético. En el caso de i=0, la predicción compensada por movimiento se realiza sin utilizar el parámetro profético. Como se describe de este modo, puede existir una pluralidad de esquemas proféticos con respecto al mismo número de imagen de referencia. Las siguientes ecuaciones (4), (5) y (6) muestran un ejemplo de ecuaciones proféticas para un número de imagen de referencia y un parámetro profético preparado con el controlador 203 de parámetro profético cuando una señal de imagen profética se genera utilizando dos imágenes de referencia .
P = clip ((W0 (i, j)x R (i) + Wx (i, j)x R (j) + 2L-1 ) » L) (4) Puesto que la relación de la ecuación (5) se establece, la ecuación (4) puede transformarse como sigue: clip ((R(i) « L + W (i, y)x ~ R(!))+ 2L'1 ) » (7) Esto muestra un ejemplo de una ecuación profética para el caso de realizar una predicción bidireccional en el caso de una representación asi llamada B. Existen dos índices i Y j r Y R(i) y R(j) indican las imágenes de referencia que corresponden a los índices i y j respectivamente. Consecuentemente, se asume que dos puntos de información i y j se envían como la información de índices. W (j, j) indican coeficiente profético en los índices i y j . La función U utilizada para el cálculo de un coeficiente profético es una función que representa una distancia de imagen a imagen, y ü (i, j) representa una distancia entre la imagen de referencia designada por el índice i y la imagen de referencia designada por el índice j . n indica una posición de una imagen que va a codificarse actualmente. En la presente modalidad, se asume que la imagen más pasada tiene información de posición de un valor más pequeño. Consecuentemente,. si la imagen de referencia designada por el índice i es más futura en términos de tiempo que la imagen de referencia designada por el índice j, U (i, j) > 0. Si los índices i y j representan la misma imagen de referencia en términos de tiempo, U (i, j) = 0. Si la imagen de referencia designada por el índice i es más pasada en términos de tiempo que la imagen de referencia designada por el índice j, ü (i, j) <0. Cuando U (i, j) es 0, el coeficiente W profético asume 2L-1. Concretamente, una relación de posición temporal entre una imagen que va a ser codificada para codificarse actualmente y dos imágenes de referencia se expresa como se muestra en las FIGURAS 4 a 7 utilizando los índices i y j . La FIGURA 4 muestra un ejemplo donde la imagen n que va a codificarse se interpola entre la imagen de referencia designada por el índice i y la imagen de referencia designada por el índice j . Tn, Ti y Tj expresan posiciones de la imagen que va a codificarse, la imagen de referencia designada por el índice i, y la imagen de referencia designada por el índice j, respectivamente. El valor incrementa hacia la derecha. Consecuentemente, la relación de Ti <Tn <Tj se establece. La función U utilizada para el cálculo del coeficiente W profético se obtiene por U(n, i) = Tn - Ti, y U(j, i) = Tj -Ti dónde U(n, i)> 0, y U(j, i)> 0. 23 La FIGURA 5 muestra un ejemplo donde la imagen de referencia designada por el índice i y la imagen de referencia designada por el índice j ambas están en una posición pasada en términos de tiempo que la imagen n que va a codificarse. En otras palabras, U(n, i)> 0, y ü(j, i) =0. La FIGURA 6 muestra otro ejemplo en donde la imagen de referencia designada por el índice i y la imagen de referencia designada por el índice j ambas están en una posición pasada en términos de tiempo que la imagen n que va a codificarse. En otras palabras U(n, i)> 0, y U(j, i) = 0. La FIGURA 7 muestra un ejemplo donde la imagen de referencia designada por el índice i y la imagen de referencia designada por el índice j ambas están en una posición futura en términos de tiempo que la imagen n que va a codificarse. En otras palabras, U(n, i) < 0, y U(j, i) = 0. L es una cantidad de cambio en las ecuaciones (4) a (8) . La cantidad de cambio utiliza un valor determinado entre el aparato de codificación de video y el aparato de decodificación previamente, o se transmite desde el aparato de codificación de video al aparato de decodificación el cual será codificado junto con los datos codificados en una unidad de codificación predeterminada tal como una trama, un campo o una pieza, y compartidas con ambos aparatos. Además, la función del clip 2 en las ecuaciones (6) y (8) es una función para regresar un número entero que limita el valor máximo y el valor mínimo de los factores ponderados obtenidos por el cálculo a utilizar un valor (referido como simplemente un valor) dentro de ( ) del clip2 ( ) , es decir, una distancia de imagen a imagen. Una pluralidad de ejemplos de configuración que tienen que ver con esta función clip2 se muestra después de esto. Una primera configuración del clip2 de función es una función de fragmentos que hace -2^, cuando el valor es más pequeño que -2M, y (2M-1) , donde es más grande que (2M-1) . El número entero no es menor de -2M y no mayor a (2M-1) se regresa. Con tal configuración, si el píxel es de 8 bits, 9 bits son necesarios para la expresión del valor de (R ( ) - R (i) ) , y (M-t-10) bits son necesarios para la expresión del coeficiente W profético. Por lo tanto, es posible calcular un valor de imagen profético con una precisión de operación de (M+10) bits. M asume un número entero no negativo no menor a L. Una segunda configuración del clip2 de función asume una función que tiene una regla que se establece a 2L_1 cuando el valor es más pequeño que ~2M, y en 2L~^- cuando el valor es más grande que (2M-1) , y regresa un número entero no menor a -2M y no mayor a (2M-1) . Con esta configuración, cuando una relación de distancia entre dos imágenes de referencia es excepcional, todas las imágenes pueden someterse a una predicción promedio. 25 Una tercera configuración del clip2 de función es una función de fragmentos que se establece en 1 cuando el valor es más pequeño que 1, y 2^ cuando el valor es más grande que 2M, y una función que regresa un número entero no menor a 1 y no mayor a 2M. La diferencia con respecto a la primera configuración del clip2 de función es que el valor del coeficiente W profético no se vuelve negativo, resultando en que la relación de posición de la imagen de referencia se limita más. Consecuentemente, cuando aún si dos imágenes de referencia idénticas se combinan, es posible cambiar una predicción basándose en el coeficiente W profético y una predicción promedio entre si al invertir las formas designadas por los Índices i y j como las relaciones de las FIGURAS 5 y 6. Una cuarta configuración del clip2 de función es una función de fragmentos que se establece en 0 cuando el valor es más pequeño que 0, y 2L cuando el valor es más grande que 2-^, y una función que regresa un número entero no menor a 0 y no mayor a 2·^. Con tal configuración, el valor del coeficiente W profético se vuelve siempre un valor no negativo no mayor a 2L, de manera que se prohibe una predicción de extrapolación. Alternativamente, cualquiera de las dos imágenes de referencia se utilizan para la predicción en una predicción bidireccional , también. Una quinta configuración del clip2 de función es una función de fragmentos que se establece en 2L-1 cuando el valor es más pequeño que 1, y 2L-1 cuando el valor es más grande que 2^ , y una función que regresa un número entero no menor a 1 y no mayor a 2L-1. Con tal configuración, el valor del coeficiente W profético se vuelve siempre un valor no negativo no mayor a 2^-1, de manera que se prohibe una predicción de extrapolación. Alternativamente, se utiliza para una predicción promedio de dos imágenes de referencia. Cuando una distancia entre dos imágenes de referencia se desconoce o es indefinida, por ejemplo, cuando cualquiera de las imágenes de referencia o ambas de las mismas son imágenes de referencia para los antecedentes y el almacenaje, el coeficiente W profético asume que se establece en el valor de 2L-1. El coeficiente W profético puede calcularse de antemano en una unidad de codificación tal como una trama, un campo, o una pieza. Por lo tanto, aún cuando una señal de imagen profética se genera con dos imágenes de referencia, el cálculo por pixel puede completarse por la multiplicación de un tiempo.
P = clip (R(<)+ {W(i, j)x (R (j) - R (¡)) + 21'1)» L) (9) La ecuación (9) es otro ejemplo que modifica la ecuación (4) . En la ecuación (7), la operación para someter R(i) a un cambio aritmético por L bits a la izquierda se 27 necesitó previamente. Sin embargo, en la ecuación (10), el cambio aritmético se omite al sacarlo de un paréntesis . Como resultado, es efectivo que una cantidad de operación pueda disminuirse por la cantidad del cambio aritmético. De hecho, la orientación del redondeo cuando el cambio se hace variar con una relación grande y pequeña de los valores de R(i) y (R)j. Por consiguiente, el mismo resultado que la ecuación (4) no se obtiene. Las siguientes ecuaciones (10) a (20) pueden utilizarse reemplazando con las ecuaciones (4) a (8) . Esto es un método similar a un método para generar una imagen profética utilizando una imagen de referencia sencilla, es decir, un método para generar una imagen profética final al generar una imagen profética de una imagen de referencia sencilla del índice i y una imagen profética de una imagen de referencia sencilla del índice j y promediarlos . Puesto que la misma rutina de proceso como aquella que utiliza una imagen de referencia sencilla puede utilizarse hasta una media etapa del proceso, el método tiene una ventaja de hacer posible reducir una cantidad de hardware y una cantidad de códigos .
Py 0) = (wi( ) x Rv U) + 2L -l)» LY (ii) (12) (13) Per ( = ( x (Per ( - 128 ) + 2¿c_1 ) » c + 1 8 (14) (15) Cb = c/z (Pc¾ ()+ Pcb (j)+ l) » 1 (17 ) Cr ^clip(PCr(i)+PCr(j)+l)» 1 (18) 29 (19) (20) (Con referencia a un procedimiento para la selección de un esquema profético y una determinación de modo de codificación) . Un ejemplo de un procedimiento concreto de una selección de un esquema de predicción (combinación de un número de imagen de referencia con un parámetro profético) y una determinación de modo de codificación cada macro-bloque en la presente modalidad se describirá con referencia a la FIGURA 8. El valor máximo asumible se establece en una variable min_D (etapa S101) . L0OP1 (etapa S102) muestra un proceso de repetición para su uso en la selección de un esquema profético en la codificación de inter-trama . La variable i representa un valor del índice mostrado en la FIGURA 3. El valor D de evaluación de cada índice 30 (combinación de un número de tramas de referencia con un parámetro profético) se calcula a partir del número de bits codificados que tienen que ver con la información 214 del vector de movimiento (el número de bits codificados del código de longitud variable producidos del dispositivo 111 de codificación de longitud variable en correspondencia con la información 214 de vector de movimiento) y una suma de valor absoluto de error de predicción, de manera que el vector de movimiento óptimo puede derivarse para cada esquema profético. Un vector de movimiento que hace al valor D de evaluación un valor mínimo se selecciona (etapa S103) . Este valor D de evaluación se compara con min_D (etapa S104) . Si el valor D de evaluación es más pequeño que min D, el valor D de evaluación se asume min_D, y el índice i se sustituye en min_i (etapa S105) . El valor D de evaluación en el caso de codificación de intra-trama se calcula (etapa S106) . Este valor D de evaluación se compara con min_D (etapa S107) . Si, como resultado de esta comparación, min_D es más pequeño, el modo MODE se determina que es una codificación de inter-trama, y min_i se sustituye en el índice de información INDEX (etapa S108) . Si el valor D de evaluación es más pequeño, el modo MODE se determina que es una codificación de intra-trama (etapa S109) . El valor D de evaluación asume un valor estimado del número de bits codificados del mismo tamaño de 31 etapa de cuantificación . (Con referencia al lado de decodificación) Se describirá el aparato de decodificación de video que corresponde al aparato de codificación de video mostrado en la FIGURA 1. La FIGURA 9 muestra la configuración del aparato de decodificación de video relacionado con la presente modalidad. Los datos 300 codificados enviados fuera del aparato de codificación de video de la configuración mostrado en la FIGURA 1, y pasados a través de un sistema de transmisión o un sistema de almacenaje se guardan en un registro 301 de entrada una vez. Los datos 300 codificados del registro 301 de entrada se dividen basándose en la sintaxis por un desmultiplexor 302 por cada trama, y después ingresados al decodificador 303 de longitud variable. El decodificador 303 de longitud variable decodifica el código de longitud variable de cada sintaxis de los datos 300 codificados para reproducir los coeficientes transformados ortogonales cuantificados , la información 413 de modo, la información 414 del vector de movimiento y la información 415 de índice. El coeficiente transformado ortogonal cuantificado de la información reproducida se descuantifica con el descuantificador 304. El coeficiente descuantificado se somete a una transformación ortogonal inversa con el transformador 305 ortogonal inverso. Cuando la información 32 413 de modos indica el modo de codificación de intra-trama, una señal de imagen de reproducción se produce a partir del transformador 305 ortogonal inverso, y se produce como una señal 310 de imagen de reproducción final mediante el sumador 306. Cuando la información 413 de modos indica el modo de codificación de inter-trama se produce una señal de error profética del transformador 305 ortogonal inverso, y además un conmutador 308 de selección de modo se enciende. La señal 310 de imagen de reproducción se produce al agregar la señal de error profética y la señal 412 de imagen profética producida de la memoria de tramas /generador 308 de imagen profética con el sumador 306. La señal 310 de imagen de reproducción se almacena en la memoria de tramas/generador 308 de imagen profética como una señal de imagen de referencia . La información 413 de modos, la información 414 de vector de movimiento y la información 415 de índice se ingresan a la memoria de tramas/generador 308 de imagen profética. La información 413 de modos se ingresa al conmutador 309 de selección de modos, el cual se enciende en el caso de modo de codificación de inter-tramas y se apaga en el caso del modo de codificación de intra-tramas . La memoria de tramas /generador 308 de imagen profética prepara una tabla para una pluralidad de combinaciones del número de imagen de referencia y el parámetro profético que se preparan símilármente a la memoria de tramas/generador 108 de imagen profética del lado de codificación como se muestra en la FIGURA 1 y selecciona una combinación designada por la información 415 de índice de la tabla. La señal de imagen (la señal 310 de imagen de reproducción) de la imagen de referencia designada por el número de imagen de referencia de la combinación seleccionada se somete a una suma lineal de acuerdo con un parámetro profético de la combinación seleccionada. Además, en desplazamiento de acuerdo con el parámetro profético se agrega a la señal 310 de imagen reproducida. Como resultado, una señal de imagen de referencia se genera. Después de esto, la señal 412 de imagen profética se genera al someter la señal de imagen de referencia generada a la compensación por movimiento utilizando un vector de movimiento indicado por la información 414 de vector de movimiento. (Con referencia a la memoria de tramas/generador 308 de imagen profética) . La FIGURA 10 muestra la configuración detallada de la memoria de tramas/generador 308 de imagen profética en la FIGURA 9. En la FIGURA 10, la señal 310 de imagen reproducida producida del sumador 306 en la FIGURA 9 se almacena en el conjunto 402 de memorias de tramas con el control por un controlador 401 de memorias. El conjunto 402 de memorias de tramas comprende una pluralidad de (N) memorias FM1 a FMN de tramas para guardar temporalmente la señal 310 de imagen de reproducción como una imagen de referencia . El controlador 403 de parámetro profético prepara una combinación de tablas de un número de imagen de referencia con un parámetro profético como se muestra en la FIGURA 3, previamente, y selecciona la combinación del número de imagen de referencia de la imagen de referencia utilizada para la generación de la señal 412 de imagen profética con el parámetro profético basado en la información 415 de índice de los decodificadores 203 de longitud variable en la FIGURA 9. Una pluralidad de compensadores 404 de movimiento de tramas genera una señal de imagen de referencia de acuerdo con la combinación del número de imagen de referencia con la información de índice que se selecciona por el controlador 403 de parámetros proféticos . La señal 412 de imagen profética se genera al someter la señal de imagen de referencia a la compensación de movimiento en unidades de un bloque de acuerdo con un vector de movimiento indicado por la información 414 de vector de movimiento a partir del decodificador 303 de longitud variable en la FIGURA 9. (Con referencia a la sintaxis de información de índice) La FIGURA 11 muestra un ejemplo de la sintaxis cuando la información de índice de codificación está en cada bloque. Cada bloque tiene el modo de información MODE . Se determina si la información IDi de índice que indica un valor del índice i y la información IDj de índice que indica un valor del índice j se codifican de acuerdo con el modo de información MODE. Después de la información de índice codificada, la información MVi del vector de movimiento para la predicción compensada por movimiento del índice i y la información MVi del vector de movimientos para la predicción compensada por el movimiento del índice i e índice j se codifica como la información de vector de movimiento de cada bloque . (Con referencia a la estructura de datos de una corriente de bits de codificación) La FIGURA 12 muestra un ejemplo de una corriente de bits de codificación concreta cada bloque cuando genera una imagen profética utilizando una imagen de referencia sencilla. La información IDi de índice se dispone después del modo de información MODE y la información MVi de vector de movimiento se dispone después de esto. La información MVi del vector de movimiento normalmente es información de vector bidimensional . Además, una pluralidad de vectores bidimensionales pueden enviarse dependiendo del método de compensación de movimiento en el bloque que se designa por la información de modos . La FIGURA 13 muestra un ejemplo de una corriente de bits de codificación concreta cada bloque cuando genera una imagen profética utilizando dos imágenes de referencia. La 36 información IDi de índice y la información IDj de índice se disponen después del modo de información MODE, y la información MVi de vector de movimiento y la información MVj de vector de movimiento se disponen después de esto. La información MVi de vector de movimiento y la información j de vector de movimiento normalmente son información de vector bidimensional . Además, una pluralidad de vectores bidimensionales pueden enviarse dependiendo del método de compensación de movimiento en el bloque que se designa por la información de modos . De acuerdo con la presente modalidad como se discute en lo anterior, cuando una imagen profética se genera utilizando una imagen de referencia sencilla, la imagen profética se genera por una predicción lineal utilizando un coeficiente profético y un desplazamiento como los parámetros proféticos . Este método permite la generación de una imagen profética apropiada para una imagen de campo que corresponde a una imagen obtenida al combinar imágenes monocomas . En un método para seleccionar simplemente una combinación de una pluralidad de combinaciones de un número de imagen de referencia y un parámetro profético, cuando existe una pluralidad de imágenes de referencia, la multiplicación por píxel debe realizarse una pluralidad de veces. Esto incrementa una cantidad de cálculo. Sin embargo, la presente modalidad, la multiplicación necesaria puede ser una vez por 37 pixel . Por otro lado, cuando una imagen profética se genera por dos imágenes de referencia, la imagen profética se genera al obtener el promedio ponderado de las dos imágenes de referencia, utilizando un factor de ponderación y un desplazamiento que se obtienen de una distancia entre las dos imágenes de referencia. Este método hace posible generar una imagen profética apropiada para una imagen disuelta en la cual se mezclan dos imágenes. En este tiempo, si la ecuación utilizada en la presente modalidad se utiliza, una multiplicación necesaria puede ser una vez por pixel. De acuerdo con la presente modalidad como se describe de este modo, una imagen profética apropiada puede generarse para una imagen de alimentación asi como una imagen disuelta por una vez de multiplicación por pixel. Puesto que la multiplicación puede completarse una vez por pixel, una escala de hardware y un costo de operación pueden disminuirse en un lado de codificación y un lado de decodificación En la descripción anterior, el método para generar una imagen profética se cambia de acuerdo con el número de imagen de referencia. Sin embargo, el método para generar una representación profética puede cambiarse en unidades de imagen o en unidades de piezas de acuerdo con una diferencia de un tipo de predicción como se refiere a un tipo de ilustración asi llamado o un tipo de pieza. Cuando sólo 38 cualquiera de las imágenes de referencia en el caso de, por ejemplo, utilizar una representación B, la imagen profética no se genera utilizando el parámetro profético, sino la predicción compensada por movimiento se lleva a cabo utilizando imagen decodificada normal , Un procedimiento de generación de imagen profética que utiliza un método para cambiar un método de generación de imagen profética de acuerdo con una diferencia del tipo profético asi como el número de imagen de referencia se describe con referencia a la FIGURA 14. En este ejemplo, un método para generar una imagen profética se cambia en unidades de piezas. Un tipo profético (referido como un tipo de piezas) de una pieza que va a codificarse la cual es una región que va a codificarse se determina, y se divide en tres piezas, es decir, una pieza I en la cual una pieza que va a codificarse se somete a una codificación de intra-trama (predicción de intra-trama) , una pieza P la cual se predice utilizando una imagen de referencia sencilla (de una predicción) , y una pieza B la cual se predice utilizando dos imágenes de referencia máximas (predicción bidireccional) (etapa S201) . Si la pieza que va a codificarse es una pieza I como resultado de la determinación de la etapa S201, la codificación de mtra-trama se hace (codificación de intra-trama) (etapa S202) . Si la pieza que va a codificarse es una 39 pieza P, un esquema profético basado en la combinación de una imagen de referencia y un parámetro profético como se describe en lo anterior se adopta (etapa S203) . Si la pieza que va a codificarse es una pieza B, el número de imagen de referencia se verifica (etapa S204), y el esquema profético se cambia de acuerdo con el resultado. En otras palabras, si la pieza que va a codificarse es una pieza B, y la imagen de referencia es sencilla, la predicción compensativa del movimiento normal se adopta (etapa S205) . Si la pieza que va a codificarse es una pieza B, y se utilizan dos imágenes de referencia, un esquema profético que corresponde a una distancia de imagen a imagen de las dos imágenes de referencia se adopta (etapa S206) . [Segunda modalidad] Se explicará una segunda modalidad de la presente invención. Toda la configuración del aparato de codificación de video y el aparato de decodificación de video en la presente modalidad es aproximadamente similar a la de la primera modalidad. Por consiguiente, sólo una diferencia con respecto a la primera modalidad se describe. La presente modalidad muestra un ejemplo cuando la primera modalidad se combina con otro esquema. La siguiente ecuación (21) es una ecuación profética de una predicción bidireccional de la representación asi llamada B utilizando dos imágenes de 40 referencia, y un primer método para promediar la imagen profética compensada por movimiento de las dos imágenes de referencia simplemente.
P = (R(i) + R(j) + l)»l (21) En el primer método, la información de cambio (etiqueta de cambio) para cambiar entre una ecuación profética mostrada por cualquiera de las ecuaciones (4) a (6), ecuaciones (7) a (8), ecuación (9) o ecuaciones (10) a (20) y una ecuación profética mostrada por una ecuación (21) se codifican junto con los datos codificados en una unidad de codificación predeterminada tal como una representación, una trama, un campo y una pieza, y se transmiten desde un aparato de codificación de video a un aparato de decodificación para compartirse con ambos aparatos. En otras palabras, una ecuación profética mostrada en cualquiera de las ecuaciones (4) a (6), las ecuaciones (7) y (8), la ecuación (10) o las ecuaciones (10) a (20) y una ecuación profética mostrada por la ecuación (21) se cambia cuando se necesite. De acuerdo con el primer método, un promedio ponderado dependiendo de una distancia de imagen a imagen y un promedio simple de las imágenes de referencia puede cambiarse en forma adoptable, por lo cual la mejora de un pronóstico eficiente puede esperarse. Debido a que la ecuación (21) no incluye ninguna multiplicación, una cantidad 41 de cálculo no se incrementa. Las ecuaciones (22) a (27) y las ecuaciones (28) a (33) muestran un método para generar un parámetro profético para dos imágenes de referencia utilizando un parámetro profético cuando la imagen de referencia es sencilla. La presente modalidad muestra un ejemplo donde estos métodos se combinan con la primera modalidad. Al principio, las ecuaciones (22) a (27) muestran un segundo método para obtener un valor profético al promediar el valor de la ecuación profética cuando la imagen de referencia es sencilla . (22) (23) Per (0 = (F( l X (*c,( - 128 )+ lLC~l )» LC +F2(i) + m (24) Cb = clip ((Pa (/)+ PCb0 + 1) » 1) (26) Cr = clip {{PCr (/) 4- PCr(y)+ 1)» l) (27) PY(i), PCb (i) y PCr (i) son resultados a la mitad de un valor profético de la señal Y de luminancia, la señal Cb de diferencia de color y la señal Cr de diferencia de color respectivamente . En el segundo método, la información de cambio (etiqueta de cambio) para cambiar entre una ecuación profetica mostrada por cualquiera de las ecuaciones (4) a (6), las ecuaciones (7) a (8), la ecuación (9) o las ecuaciones (10) a (20) y una ecuación profética mostrada por las ecuaciones (22) a (27) se codifican junto con los datos codificados en una unidad de codificación predeterminada tal como una representación, una trama, un campo y una pieza, y se transmiten desde un aparato de codificación de video a un aparato de decodificación para compartirse con ambos aparatos. Como se describe de este modo, una ecuación profética mostrada en cualquiera de las ecuaciones (4) a (6), ecuaciones (7) y (8), y ecuación (9) o ecuaciones (10) a (20) y una ecuación profética mostrada por las ecuaciones (22) a (27) se cambian cuando se necesite. De acuerdo con el segundo método, un promedio ponderado dependiendo de una distancia de imagen a imagen y una imagen profética basada en una predicción lineal que utiliza dos imágenes de referencia simples pueden cambiarse en forma adoptable, por lo cual la mejora de un pronóstico eficiente puede esperarse. Sin embargo, de acuerdo con el tipo profético mostrado en las ecuaciones (22) a (27), aunque el número de multiplicación por pixel es dos veces, existe el mérito de que los grados de libertad del coeficiente 43 profético incremente. Por lo tanto, la mejora adicional de la eficacia profética puede esperarse. Las ecuaciones (28) a (33) muestran como otra ecuación profética un ejemplo de una ecuación profética lineal que utiliza dos imágenes de referencia generadas utilizando dos parámetros proféticos en el caso de una imagen de referencia sencilla.
Pr (i, j)= ( (0x RY (7) + D j) xRy{j) + 2X")» (LY + 1) +(D2(i) + D2(j) + )» 1 (28) PCb (W)= fe( x (Ra, (0 - 128 )+ E1(j) x (RCb (j) - 128 )+ 2ic )» (Lc + l)+ (E2(i) + E2(j) + 1)» 1+128 (29) Per ( j) - (0 x (?& (0 - 128 )+ FlU)x (RcrU) - 128 )+ 2^ ) » (Lc + 1 ( 2(i) + F2(j) + 1) » 1 + 128 (30) Y = clip(P7(i,j)) (31) Cb = clip (PCb(i,j)) (32) Cr = clip(PCr(i,j)) (33) En el tercer método, la información de cambio (etiqueta de cambio) para cambiar entre una ecuación profética mostrada por cualquiera de las ecuaciones (4) a (6), las ecuaciones (7) a (8), la ecuación (9) o ecuaciones 44 (10) a (20) y una ecuación profetica mostrada por las ecuaciones (28) a (33) se codifican junto con los datos codificados en una unidad de codificación predeterminada tal como una representación, una trama, un campo y una pieza, y se transmiten desde un aparato de codificación de video a un aparato de decodificación para compartirse con ambos aparatos. Como se describe de este modo, una ecuación profética mostrada en cualquiera de las ecuaciones (4) a (6), ecuaciones (7) y (8), la ecuación (9) o ecuaciones (10) a (20) y una ecuación profética mostrada por las ecuaciones (28) a (33) se cambian cuando se necesite. De acuerdo con el tercer método, un promedio ponderado dependiendo de una distancia de imagen a imagen y una imagen profética basada en una predicción lineal utilizando dos imágenes de referencia puede cambiarse en forma adoptable, por lo cual la mejora de una eficiencia profética puede esperarse. Sin embargo, de acuerdo con el tipo profético mostrado en las ecuaciones (28) a (33), aunque el número de multiplicación por pixel es dos veces, existe el mérito de que los grados de libertad del coeficiente profético incremente. Por lo tanto, la mejora adicional de la eficiencia profética puede esperarse. La modalidad anterior, se explica como un ejemplo de un sistema de codificación/decodificación de video que utiliza transformación ortogonal en unidades de bloque. Sin embargo, el método de la presente invención descrito en la modalidad anterior puede adoptarse a un caso con el uso de otra técnica de transformación tal como transformación de mini-ondas . Un proceso de codificación y decodificación de video que tiene que ver con la presente invención puede realizarse como hardware (aparato), y puede ejecutarse por una computadora utilizando software. Una parte del proceso puede realizarse con un hardware, y la otra parte puede ejecutarse por software. Consecuentemente, de acuerdo con la presente invención, puede proporcionarse un programa para hacer que una computadora ejecute un proceso de codificación o uno de decodificación de video o un medio de almacenaje almacenado en el programa. Como se discute en lo anterior, de acuerdo con la presente invención, una codificación/decodificación de video puede realizarse con un alta eficiencia y una pequeña cantidad de cálculo al hacer una predicción apropiada para una imagen de video cuya iluminancia varia en términos de tiempo tal como una imagen desvanecida y una imagen disuelta en particular.

Claims (18)

  1. 46
  2. REIVINDICACIONES 1. En un método de codificación de video para someter una señal de video de entrada en una codificación profética compensada por movimiento que utiliza por lo menos una señal de imagen de referencia y un vector de movimiento entre la señal de video de entrada y la señal de imagen de referencia, el método comprende: una etapa para generar una señal de imagen profética de acuerdo con un número de imagen de referencia y un parámetro profético de una combinació . seleccionada de una pluralidad de combinaciones de por lo menos un número de imagen de referencia y un parámetro profético, los cuales se preparan previamente, cada región que va a codificarse de la señal de video de entrada, cuando una imagen de referencia sencilla se utiliza en la codificación profética compensada por movimiento; una etapa para generar una señal de imagen profética de acuerdo con números de imágenes de referencia de una pluralidad de imágenes de referencia y parámetros proféticos calculados basados en una distancia de imagen a imagen de la pluralidad de imágenes de referencia cada región que va a codificarse, cuando una pluralidad de imágenes de referencia se utiliza en la codificación profética compensada por movimiento; una etapa para generar una señal de error profética 47 que representa un error de la señal de imagen profética con respecto a la señal de video de entrada; y una etapa para codificar la señal de error profética, la información de vector de movimiento y la información de Índice que indica una de la combinación seleccionada y los números de imágenes de referencia de la pluralidad de imágenes de referencia. 2. El método de codificación de video de acuerdo con la reivindicación 1, en donde la etapa para generar la señal de imagen profética por medio de la pluralidad de imágenes de referencia incluye codificar la región que va a codificarse por una predicción bidireccional .
  3. 3. El método de codificación de video de acuerdo con la reivindicación 1 ó 2, en donde la señal de imagen profética que genera la etapa incluye generar la imagen profética al ponderar la pluralidad de imágenes de referencia utilizando un factor de ponderación obtenido de la distancia de imagen a imagen.
  4. 4. El método de codificación de video de acuerdo con la reivindicación 3, en donde la señal de imagen profética que genera la etapa incluye generar la imagen profética al ponderar la pluralidad de imágenes de referencia utilizando un factor de ponderación que incluye un parámetro para limitar un valor máximo y un valor mínimo de la distancia de imagen a imagen. 48
  5. 5. El método de codificación de video de acuerdo con la reivindicación 1 ó 2 , en donde el parámetro profético incluye un factor de ponderación y un desplazamiento que se obtienen por la distancia de imagen a imagen, y la etapa de generar la señal de imagen profética incluye calcular una suma lineal para una señal de imagen de referencia diseñada por el número de imagen de referencia de acuerdo con el factor de ponderación y después agregar el desplazamiento al mismo .
  6. 6. El método de codificación de video de acuerdo con la reivindicación 1 ó 2 , en donde el factor de ponderación tiene un denominador de dos exponenciales.
  7. 7. El método de codificación de video de acuerdo con la reivindicación 1 ó 2, en donde la señal de video de entrada comprende una señal de luminancia y dos señales de diferencia de color, y el parámetro profético se prepara para cada señal de luminancia y cada dos señales de diferencia de color .
  8. 8. Un método de decodificación de video que comprende : una etapa para decodificar los datos codificados que incluye una señal de error profética que representa un error de la señal de imagen profética con respecto a la señal de video, la información de vector de movimiento y la información de índice que indica cualquiera de la combinación 49 de un número de imagen de referencia con un parámetro profético y los números de imágenes de referencia de una pluralidad de imágenes de referencia; una etapa para generar una señal de imagen profética de acuerdo con el número de imagen de referencia y el parámetro profético de la combinación, cuando la información de índice decodificada indique la combinación; una etapa para generar la señal de imagen profética de acuerdo con el número de imagen de referencia y el parámetro profético calculado basado en una distancia entre la pluralidad de imágenes de referencia, cuando la información de índice que puede dejar que la decodificación muestre un número de imagen de referencia de la pluralidad de imagen de referencia; y una etapa para generar una señal de video de reproducción utilizando la señal de imagen profética.
  9. 9. El método de decodificación de video de acuerdo con la reivindicación 8, en donde el parámetro profético incluye un factor de ponderación y un desplazamiento, y la etapa de generar la señal de imagen profética incluye someter una señal de imagen de referencia designada por el número de imagen de referencia a una suma lineal de acuerdo con el factor de ponderación incluido en la información de índice y después agregar el desplazamiento incluido en la información de índice al mismo. 50
  10. 10. En un aparato de codificación de video para someter una señal de video de entrada a una codificación profética compensada por movimiento que utiliza por lo menos una señal de imagen de referencia y un vector de movimiento entre la señal de video de entrada y la señal de imagen de referencia, el aparato comprende: una tabla para almacenar por lo menos un número de imagen de referencia y un parámetro profético; primer medio de generación de señal profética para generar una señal de imagen profética de acuerdo con el número de imagen de referencia y el parámetro profético de una combinación seleccionada de una pluralidad de combinaciones del número de imagen de referencia y el parámetro profético cada región que va a codificarse de la señal de video de entrada; segundo medio de generación de señal de imagen profética para generar una señal de imagen profética de acuerdo con un parámetro profético calculado basado en los números de imágenes de referencia de la pluralidad de imágenes de referencia y la distancia entre la pluralidad de imágenes de referencia para cada región que va a codificarse; medios para seleccionar el primer medio de generación de señal de imagen profética cuando una de las imágenes de referencia se utiliza en la codificación de predicción compensada por movimiento, y seleccionar el segundo medio de generación de señal de imagen profética cuando una pluralidad de imágenes de referencia se utilice; medios para generar una señal de error profética que representa un error de la señal de imagen profética con respecto a la señal de video de entrada; y medios para codificar la señal de error profética, la información del lector de movimiento, y la información de índice que indica cualquiera de la combinación seleccionada y los números de imágenes de referencia de la pluralidad de imágenes de referencia.
  11. 11. El aparato de codificación de video de acuerdo con la reivindicación 10, en donde el medio de selección selecciona el segundo medio de generación de señal de imagen profética cuando la región que va a codificarse se codifica por una predicción bidireccional y una pluralidad de imágenes de referencia se utiliza en la codificación de predicción compensada por movimiento.
  12. 12. El aparato de codificación de video de acuerdo con la reivindicación 10 ú 11, en donde el medio de generación de imagen profética genera la imagen profética al ponderar la pluralidad de imágenes de referencia utilizando el factor ponderado obtenido de la distancia de imagen a imagen .
  13. 13. El aparato de codificación de video de acuerdo con la reivindicación 12, en donde el medio de generación de 52 señal de imagen profética genera la imagen profética al ponderar la pluralidad de imágenes de referencia con limitar un valor máximo y un valor mínimo del factor de ponderación obtenido de la distancia de imagen a imagen.
  14. 14. El aparato de codificación de video de acuerdo con la reivindicación 13, en donde el medio de generación de señal de imagen profética genera un promedio de la pluralidad de imágenes de referencia cuando la imagen profética excede un máximo y un mínimo de un factor de ponderación obtenido de la distancia de imagen a imagen.
  15. 15. El aparato de codificación de video de acuerdo con la reivindicación 10 ú 11, en donde el parámetro profético incluye información de un factor de ponderación y desplazamiento, y el medio de generación de señal de imagen profética incluye medios para calcular una suma lineal para la señal de imagen de referencia designada por el número de imagen de referencia de acuerdo con el factor de ponderación y después agregar el desplazamiento al mismo.
  16. 16. El aparato de codificación de video de acuerdo con la reivindicación 10 ú 11, en donde el factor de ponderación tiene un denominador de dos exponenciales .
  17. 17. El aparato de codificación de video de acuerdo con la reivindicación 10 ú 11, en donde la señal de video de entrada comprende una señal de luminancia y dos señales de diferencia de color, y el parámetro profético se prepara para 53 cada señal de luminancia y dos señales de diferencia de colo .
  18. 18. Un aparato de decodificación de video comprende : medios para decodificar datos codificados que incluye una señal de error profética que representa un error de la señal de imagen profética con respecto a una señal de video, información de vector de movimiento e información de Indice que indica cualquiera de la combinación de un número de imagen de referencia con un parámetro profético y números de imágenes de referencia de una pluralidad de imágenes de referencia; medios para generar la señal de imagen profética de acuerdo con el número de imagen de referencia y el parámetro profético de la combinación, cuando la información de índice decodificada indique la combinación; medios para generar la señal de imagen profética de acuerdo con el número de imagen de referencia y un parámetro profético calculado basado en la distancia de imagen a imagen de la pluralidad de imágenes de referencia, cuando la información de índice decodificada indica los números de imágenes de referencia de la pluralidad de imágenes de referencia; y medios para generar una señal de video de reproducción utilizando la señal de error profética y la señal de imagen profética.
MXPA04008392A 2002-11-22 2003-11-18 Metodo y aparato para codificar/decodificar video. MXPA04008392A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002339931A JP2004179687A (ja) 2002-11-22 2002-11-22 動画像符号化/復号化方法及び装置
PCT/JP2003/014658 WO2004049728A1 (ja) 2002-11-22 2003-11-18 動画像符号化/復号化方法及び装置

Publications (1)

Publication Number Publication Date
MXPA04008392A true MXPA04008392A (es) 2005-06-08

Family

ID=32375793

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA04008392A MXPA04008392A (es) 2002-11-22 2003-11-18 Metodo y aparato para codificar/decodificar video.

Country Status (12)

Country Link
US (8) US7616691B2 (es)
EP (2) EP1763253A3 (es)
JP (1) JP2004179687A (es)
KR (2) KR100728263B1 (es)
CN (3) CN1692653A (es)
AU (1) AU2003280847B2 (es)
BR (1) BRPI0307635A8 (es)
CA (1) CA2473771C (es)
MX (1) MXPA04008392A (es)
NO (2) NO341761B1 (es)
SG (1) SG106261A1 (es)
WO (1) WO2004049728A1 (es)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
EP1833262A1 (en) * 2002-01-18 2007-09-12 Kabushiki Kaisha Toshiba Video encoding method and apparatus and video decoding method and apparatus
ES2524117T3 (es) * 2002-08-08 2014-12-04 Panasonic Intellectual Property Corporation Of America Procedimiento de codificación y procedimiento de descodificación de imágenes en movimiento
JP2004179687A (ja) * 2002-11-22 2004-06-24 Toshiba Corp 動画像符号化/復号化方法及び装置
EP1574995A1 (en) * 2004-03-12 2005-09-14 Thomson Licensing S.A. Method for encoding interlaced digital video data
JP2005318297A (ja) * 2004-04-28 2005-11-10 Toshiba Corp 動画像符号化・復号方法及び装置
JP4284265B2 (ja) * 2004-11-02 2009-06-24 株式会社東芝 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法
JP4236654B2 (ja) * 2005-09-13 2009-03-11 株式会社東芝 動画像符号化装置及びその方法
JP5006633B2 (ja) * 2006-03-10 2012-08-22 キヤノン株式会社 画像符号化装置、画像符号化方法、プログラム及び記憶媒体
TWI345915B (en) * 2006-12-29 2011-07-21 Nat Univ Tsing Hua Method of motion estimation for image compression
BRPI0809255A2 (pt) * 2007-04-16 2014-09-23 Toshiba Kk Toshiba Corp Método e aparelho para a codificação e decodificação de vídeo
CN101316198B (zh) * 2007-06-01 2012-07-04 中兴通讯股份有限公司 基于索引的多媒体数据的监测方法
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
CN101690171B (zh) * 2008-02-04 2012-07-25 松下电器产业株式会社 摄像装置、集成电路及摄像方法
CN101516028B (zh) * 2008-02-18 2011-05-11 昊迪移通(北京)技术有限公司 一种针对移动网视频通话应用的高效视频编码技术
JP5007259B2 (ja) * 2008-03-27 2012-08-22 ルネサスエレクトロニクス株式会社 画像符号化装置
JP2010010915A (ja) * 2008-06-25 2010-01-14 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011109172A (ja) * 2009-11-12 2011-06-02 Hitachi Kokusai Electric Inc 映像符号化装置、および、そのデータ処理方法
CN101729898B (zh) * 2009-11-16 2011-06-15 中国人民解放军国防科学技术大学 视频编码、解码方法与视频编码、解码装置
USRE48074E1 (en) * 2010-02-24 2020-06-30 Velos Media, Llc Image encoding device and image decoding device
FR2957744B1 (fr) * 2010-03-19 2012-05-25 Canon Kk Procede de traitement d'une sequence video et dispositif associe
CN103813163B (zh) * 2010-04-08 2017-03-01 株式会社东芝 图像解码方法以及图像解码装置
JP5368631B2 (ja) 2010-04-08 2013-12-18 株式会社東芝 画像符号化方法、装置、及びプログラム
WO2011127965A1 (en) 2010-04-13 2011-10-20 Telefonaktiebolaget L M Ericsson (Publ) A method and an arrangement in a first network node for managing congestion
JP5805991B2 (ja) * 2010-05-07 2015-11-10 トムソン ライセンシングThomson Licensing ピクチャ・シーケンスを符号化する方法、それに対応する再構築方法、および当該シーケンスを表す符号化データのストリーム
US8908755B2 (en) * 2010-07-16 2014-12-09 Sony Corporation Multi-parameter motion for efficient prediction in video compression
BR112013017802B1 (pt) 2011-01-13 2022-04-05 Nec Corporation Dispositivo de decodificação de vídeo e método de decodificação de vídeo
KR102003180B1 (ko) 2011-10-17 2019-07-23 가부시끼가이샤 도시바 암호화 방법 및 복호 방법
EP3174301A1 (en) 2011-10-17 2017-05-31 Kabushiki Kaisha Toshiba Decoding device and decoding method
WO2013069117A1 (ja) * 2011-11-09 2013-05-16 株式会社東芝 予測画像生成方法、符号化方法及び復号方法
CN105519108B (zh) * 2012-01-09 2019-11-29 华为技术有限公司 量化矩阵编码的加权预测方法和装置
WO2013118216A1 (ja) * 2012-02-07 2013-08-15 パナソニック株式会社 画像処理装置および画像処理方法
US11039138B1 (en) * 2012-03-08 2021-06-15 Google Llc Adaptive coding of prediction modes using probability distributions
EP3700215B1 (en) 2012-06-27 2021-10-27 Kabushiki Kaisha Toshiba Encoding method, decoding method, storage apparatus and transfer apparatus
US10003793B2 (en) 2012-10-01 2018-06-19 Google Technology Holdings LLC Processing of pulse code modulation (PCM) parameters
CN103200408B (zh) * 2013-04-23 2016-03-30 华录出版传媒有限公司 一种视频编解码方法
CN105814891B (zh) 2013-12-10 2019-04-02 佳能株式会社 用于在调色板编码模式中对调色板进行编码或解码的方法和设备
JP6537511B2 (ja) * 2013-12-10 2019-07-03 キヤノン株式会社 Hevcにおける改良型パレットモード
US10805627B2 (en) 2015-10-15 2020-10-13 Cisco Technology, Inc. Low-complexity method for generating synthetic reference frames in video coding
EP4300968A1 (en) * 2016-05-13 2024-01-03 Sony Group Corporation Image processing device and method
US10136155B2 (en) 2016-07-27 2018-11-20 Cisco Technology, Inc. Motion compensation using a patchwork motion field
CN108243339B (zh) * 2016-12-27 2021-02-26 浙江大学 图像编解码方法及装置
US10412410B2 (en) * 2017-08-14 2019-09-10 Google Llc Compound motion-compensated prediction

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4851906A (en) * 1986-11-04 1989-07-25 Nec Corporation Data compression using orthogonal transform and vector quantization
JP2530217B2 (ja) 1989-01-20 1996-09-04 日本ビクター株式会社 フレ―ム間予測符号化装置及び復号装置
DE4322343C2 (de) * 1992-07-06 1996-10-02 Mitsubishi Electric Corp Mittel zum Erfassen eines Bewegungsvektors und Verfahren zum Bestimmen eines Bewegungsvektors
US5561477A (en) * 1994-10-26 1996-10-01 Thomson Consumer Electronics, Inc. System for coding a video signal in the presence of an image intensity gradient
JPH08223577A (ja) * 1994-12-12 1996-08-30 Sony Corp 動画像符号化方法及び装置、並びに動画像復号方法及び装置
US5903313A (en) * 1995-04-18 1999-05-11 Advanced Micro Devices, Inc. Method and apparatus for adaptively performing motion compensation in a video processing apparatus
US5774593A (en) * 1995-07-24 1998-06-30 University Of Washington Automatic scene decomposition and optimization of MPEG compressed video
KR0172902B1 (ko) * 1995-09-12 1999-03-20 구자홍 엠펙 ii 부호기
JPH09121358A (ja) * 1995-10-25 1997-05-06 Matsushita Electric Ind Co Ltd 画像符号化及び復号化装置と方法
JPH09163376A (ja) * 1995-12-05 1997-06-20 Nippon Telegr & Teleph Corp <Ntt> 動画像のフレーム間符号化・復号方法および装置
JP3876392B2 (ja) * 1996-04-26 2007-01-31 富士通株式会社 動きベクトル探索方法
JP2938412B2 (ja) * 1996-09-03 1999-08-23 日本電信電話株式会社 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体
US6266370B1 (en) * 1996-09-03 2001-07-24 Nippon Telegraph And Telephone Corporation Brightness-variation compensation method and coding/decoding apparatus for moving pictures
KR100480686B1 (ko) 1997-01-27 2005-05-16 엘지전자 주식회사 고선명영상의장면전환검출방법
JPH10224795A (ja) * 1997-01-31 1998-08-21 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化方法、復号方法、符号化器および復号器
JPH11239351A (ja) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化方法、復号方法、符号化器、復号器、動画像符号化プログラムおよび動画像復号プログラムを記録した記録媒体
US6411651B1 (en) * 1998-06-26 2002-06-25 Compaq Information Technologies Group, L.P. Method and system for distributed video compression in personal computer architecture
JP3166716B2 (ja) 1998-08-12 2001-05-14 日本電気株式会社 フェード画像対応動画像符号化装置及び符号化方法
US6954499B2 (en) * 2000-03-15 2005-10-11 Victor Company Of Japan, Ltd Moving picture coding, coded-moving picture bitstream conversion and coded-moving picture bitstream multiplexing
US7116372B2 (en) * 2000-10-20 2006-10-03 Matsushita Electric Industrial Co., Ltd. Method and apparatus for deinterlacing
JP2004532540A (ja) * 2001-03-05 2004-10-21 インタービデオインコーポレイテッド 誤り耐性のある符号化のためのシステム及び方法
US6890101B2 (en) * 2001-07-10 2005-05-10 Dan Blau Transparent bag with card holder
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US6816552B2 (en) * 2001-07-11 2004-11-09 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
EP1833262A1 (en) * 2002-01-18 2007-09-12 Kabushiki Kaisha Toshiba Video encoding method and apparatus and video decoding method and apparatus
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
KR100508798B1 (ko) * 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
ES2524117T3 (es) * 2002-08-08 2014-12-04 Panasonic Intellectual Property Corporation Of America Procedimiento de codificación y procedimiento de descodificación de imágenes en movimiento
JP2004179687A (ja) * 2002-11-22 2004-06-24 Toshiba Corp 動画像符号化/復号化方法及び装置

Also Published As

Publication number Publication date
CA2473771C (en) 2010-07-27
CN101090493B (zh) 2010-06-02
US20070153901A1 (en) 2007-07-05
CN1692653A (zh) 2005-11-02
BR0307635A (pt) 2005-01-11
US7944972B2 (en) 2011-05-17
NO341757B1 (no) 2018-01-15
SG106261A1 (en) 2005-06-29
US7885333B2 (en) 2011-02-08
US20090323816A1 (en) 2009-12-31
US20090323817A1 (en) 2009-12-31
US7885332B2 (en) 2011-02-08
AU2003280847B2 (en) 2006-08-24
EP1565001A4 (en) 2006-01-18
BRPI0307635A8 (pt) 2018-02-14
US20090323806A1 (en) 2009-12-31
CA2473771A1 (en) 2004-06-10
KR20060085259A (ko) 2006-07-26
NO341761B1 (no) 2018-01-15
US20090323805A1 (en) 2009-12-31
CN101090493A (zh) 2007-12-19
WO2004049728A1 (ja) 2004-06-10
NO20043410L (no) 2005-06-03
US20090316790A1 (en) 2009-12-24
US7599437B2 (en) 2009-10-06
KR20040085172A (ko) 2004-10-07
US7949048B2 (en) 2011-05-24
EP1565001A1 (en) 2005-08-17
EP1763253A2 (en) 2007-03-14
CN101090494B (zh) 2010-12-08
CN101090494A (zh) 2007-12-19
EP1763253A3 (en) 2014-10-08
US7903740B2 (en) 2011-03-08
NO20151026A1 (no) 2005-06-03
AU2003280847A1 (en) 2004-06-18
JP2004179687A (ja) 2004-06-24
US20090316791A1 (en) 2009-12-24
US7944973B2 (en) 2011-05-17
KR100728263B1 (ko) 2007-06-13
US7616691B2 (en) 2009-11-10
KR100671452B1 (ko) 2007-01-19
US20040258156A1 (en) 2004-12-23

Similar Documents

Publication Publication Date Title
MXPA04008392A (es) Metodo y aparato para codificar/decodificar video.
KR100786404B1 (ko) 동화상 복호화방법
JP5481518B2 (ja) 動画像符号化方法、装置及びプログラム
JP4227168B2 (ja) 動画像符号化方法及び装置
JP4227164B2 (ja) 動画像符号化方法及び装置
JP4227166B2 (ja) 動画像符号化方法及び装置
JP4227162B2 (ja) 動画像符号化方法及び装置
JP4227165B2 (ja) 動画像復号化方法及び装置
JP4227167B2 (ja) 動画像復号化方法及び装置
JP4227163B2 (ja) 動画像復号化方法及び装置
JP2008252957A (ja) 動画像復号化方法及び装置

Legal Events

Date Code Title Description
FG Grant or registration