ES2380502T3 - Aparato para codificar información de textura entrelazada de macrobloques - Google Patents

Aparato para codificar información de textura entrelazada de macrobloques Download PDF

Info

Publication number
ES2380502T3
ES2380502T3 ES08004286T ES08004286T ES2380502T3 ES 2380502 T3 ES2380502 T3 ES 2380502T3 ES 08004286 T ES08004286 T ES 08004286T ES 08004286 T ES08004286 T ES 08004286T ES 2380502 T3 ES2380502 T3 ES 2380502T3
Authority
ES
Spain
Prior art keywords
texture
field block
block
field
macroblock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES08004286T
Other languages
English (en)
Inventor
Sang Hoon Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WiniaDaewoo Co Ltd
Original Assignee
Daewoo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daewoo Electronics Co Ltd filed Critical Daewoo Electronics Co Ltd
Application granted granted Critical
Publication of ES2380502T3 publication Critical patent/ES2380502T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Generation (AREA)
  • Analogue/Digital Conversion (AREA)

Abstract

Un aparato para codificar información de textura entrelazada por cada macrobloque de textura utilizando una predicción de bloque de campo entre un VOP actual y un VOP de referencia, comprendiendo el aparato: un estimador de movimiento (116) para determinar un vector de movimiento de campo para cada bloque de campo superior o inferior actual por cada campo; un compensador de movimiento (118) para proporcionar el bloque de campo candidato óptimo como un bloque de campo superior o inferior estimado para cada bloque de campo superior o inferior actual; un restador (104) para sustraer el bloque de campo superior o inferior estimado de cada bloque de campo superior o inferior actual por cada píxel correspondiente para obtener el bloque de campo de error; un circuito de codificación de textura (106) para aplicar la transformada discreta del coseno al bloque de campo de error por cada bloque DCT, y para cuantificar los coeficientes a los que se les ha aplicado la transformada discreta del coseno; un circuito de codificación estadística (108) para llevar a cabo una codificación estadística en los coeficientes cuantificados introducidos desde el circuito de codificación de textura (106) y el vector de movimiento de campo para cada bloque de campo superior o inferior actual introducido desde el estimador de movimiento (116); un circuito de reconstrucción de textura (110) para llevar a cabo una cuantificación inversa y una transformada inversa en los coeficientes de transformada cuantificados para obtener un bloque de campo de error reconstruido; un sumador (112) para combinar el bloque de campo de error reconstruido del circuito de reconstrucción de textura (110) y el bloque de campo superior o inferior estimado del compensador de movimiento (118) por cada píxel; y un circuito de procesamiento de cuadro anterior (114) para rellenar un bloque de campo superior o inferior reconstruido en función de información de forma para el VOP actual, para almacenar de ese modo los bloques de campo superior o inferior rellenados como información de textura entrelazada de referencia, comprendiendo el circuito de procesamiento de cuadro de referencia: un primer dispositivo de relleno para rellenar el píxel de textura no definida en una fila del bloque de campo que presenta al menos una textura definida en función de uno o más de los píxeles de textura definida en dicha fila, un segundo dispositivo de relleno para rellenar el píxel de textura no definida en una fila del bloque de campo que presenta al menos una textura definida en función de uno o más de los píxeles de textura definida en una o más filas en dicho bloque de campo, y un tercer dispositivo de relleno para rellenar con un valor constante el bloque de campo de un VOP frontera que presenta solamente los píxeles de textura no definida.

Description

Aparato para codificar información de textura entrelazada de macrobloques.
Campo técnico de la invención
La presente invención se refiere a un aparato para codificar información de textura entrelazada de macrobloques.
Técnica anterior
En los sistemas televisados de manera digital tales como videotelefonía, teleconferencia y sistemas de televisión de alta definición, se necesita una gran cantidad de datos digitales para definir cada señal de cuadro de vídeo ya que una señal de línea de vídeo en la señal de cuadro de vídeo comprende una secuencia de datos digitales denominada como valores de píxel. Sin embargo, puesto que el ancho de banda de frecuencia disponible de un canal de transmisión convencional es limitado, para transmitir la gran cantidad de datos digitales a través del mismo es necesario comprimir o reducir el volumen de datos mediante la utilización de varias técnicas de compresión de datos, especialmente en el caso de codificadores de señales de vídeo de baja velocidad binaria tales como sistemas de videotelefonía y de teleconferencia.
Una de estas técnicas para codificar señales de vídeo para un sistema de codificación de baja velocidad binaria es la denominada técnica de codificación de análisis-síntesis orientada a objetos, en la que una imagen de vídeo de entrada se divide en objetos, y tres conjuntos de parámetros que definen los datos de movimiento, de contorno y de píxeles de cada objeto se procesan a través de diferentes canales de codificación.
Un ejemplo del esquema de codificación orientado a objetos es la denominada fase 4 de MPEG (grupo de expertos en imágenes en movimiento, Moving Picture Express Group) (MPEG-4), que está diseñada para proporcionar una norma de codificación audiovisual para permitir una interactividad basada en contenido, una eficacia de codificación mejorada y/o una accesibilidad universal en aplicaciones tales como una comunicación de baja velocidad binaria, sistemas multimedia interactivos (por ejemplo, juegos, TV interactiva, etc.) y vigilancia de zona (véase, por ejemplo, el modelo de verificación de vídeo MPEG-4 versión 7.0, Organización Internacional de Normalización, ISO/IEC JTC1/SC29/WG11 MPEG97/N1642, abril de 1997).
Según MPEG-4, una imagen de vídeo de entrada se divide en una pluralidad de planos de objetos de vídeo (VOP), que corresponden a entidades de un flujo de bits a las que un usuario puede acceder y manipular. Un VOP puede denominarse como un objeto y puede representarse mediante un rectángulo delimitador cuya anchura y altura puede ser el múltiplo más pequeño de 16 píxeles (un tamaño de macrobloque) que rodea a cada objeto de manera que el codificador puede procesar la imagen de vídeo de entrada por cada VOP, es decir, por cada objeto.
Cada VOP en MPEG-4 se describe mediante tres conjuntos de parámetros que definen la información de forma, la información de movimiento y la información de textura, es decir, información de color de los mismos, donde la información de forma representada mediante, por ejemplo, una máscara binaria corresponde al contorno de cada dicho VOP, es decir, el borde de un objeto; la información de movimiento representa la correlación espacial entre un cuadro actual y un cuadro anterior correspondiente; y la información de textura consiste en datos de luminancia y de crominancia.
Por otro lado, puesto que la información de textura para dos imágenes de vídeo de entrada recibidas secuencialmente tiene naturalmente redundancia de tiempo, es deseable eliminar la redundancia de tiempo en la misma utilizando una estimación de movimiento y una técnica de compensación con el fin de codificar de manera eficaz la información de textura en MPEG-4.
Una técnica de relleno progresivo de imágenes, es decir, una técnica de relleno repetitivo convencional, se aplica por cada cuadro en el VOP antes de la estimación y compensación de movimiento. En principio, la técnica de relleno repetitivo llena el área transparente fuera del objeto del VOP repitiendo píxeles frontera del objeto, donde los píxeles frontera están ubicados en el contorno del objeto. Es preferible llevar a cabo la técnica de relleno repetitivo con respecto a la información de forma reconstruida, que se genera descodificando la información de forma codificada en el orden inverso a lo largo del esquema de codificación. Cada píxel frontera se repite hacia el exterior del objeto. Si los píxeles transparentes del área transparente fuera del objeto pueden llenarse mediante la repetición de más de un píxel frontera, es preferible tomar el promedio de los valores repetidos como un valor de relleno. Este proceso de relleno progresivo se divide generalmente en tres etapas, a saber, un relleno repetitivo horizontal, un relleno repetitivo vertical y un relleno exterior (véase el modelo de verificación de vídeo MPEG-4 versión 7.0).
Aunque la técnica de relleno progresivo se utiliza para llevar a cabo la estimación y compensación de movimiento en función de cada cuadro generado cada 1/30 segundos tal y como se ha descrito anteriormente, se necesita una técnica de relleno entrelazado para llevar a cabo la estimación y compensación de movimiento por cada campo, donde dos campos, a saber, un campo superior y un campo inferior, se combinan para reconstruirse como un cuadro, es decir, una imagen de textura entrelazada. La técnica de codificación entrelazada para llevar a cabo la estimación y compensación de movimiento por cada campo puede utilizarse de manera adecuada para codificar de manera precisa la información de textura entrelazada para los movimientos rápidos, tales como en un deporte, en una carrera de caballos y en una carrera de coches, o con una correlación de campo poco frecuente, es decir, con una correlación temporal poco frecuente entre el campo superior y el campo inferior.
Sin embargo, si el relleno para cada bloque de campo se realiza de manera independiente sin considerar su correlación de campo basada en la información de textura entrelazada tal y como se describe en la técnica de relleno progresivo, puede haber algún píxel que no se modifique en función de solamente los píxeles de objeto del objeto, sino que se modificará mediante relleno cuando se tenga en cuenta su correlación de campo, necesitándose dos campos consecutivos, es decir, el campo superior y el campo inferior, incluidos en la información de textura entrelazada.
El documento “Modelo de verificación de vídeo MPEG-4, versión 7.0, capítulo 3: Definición de codificador”, grupo ad hoc sobre edición VM de MPEG-Video, Organización Internacional de Normalización, páginas 1, 17 a 122, 1 de abril de 1997, desvela una técnica de relleno repetitivo para VOP antes de la estimación/compensación de movimiento (sección 3.3.2), una técnica de relleno de extrapolación de paso bajo antes de realizar una DCT (sección 3.4.1) y una DCT adaptativa de cuadro/campo para vídeo entrelazado (sección 3.4.1).
Divulgación de la invención
Por lo tanto, un objeto de la invención es proporcionar un aparato para codificar información de textura entrelazada por cada macrobloque de textura.
Según la invención se proporciona un aparato según la reivindicación 1; realizaciones preferidas de la misma se definen en las reivindicaciones dependientes.
Breve descripción de los dibujos
Los objetos y características anteriores, así como otros adicionales, de la presente invención resultarán evidentes a partir de la siguiente descripción de realizaciones preferidas proporcionadas junto con los dibujos adjuntos, en los que:
La Fig. 1 muestra un diagrama de bloques esquemático de un aparato convencional para codificar información de textura entrelazada de un objeto en una señal de vídeo;
La Fig. 2 presenta un diagrama de flujo para ilustrar el funcionamiento del circuito de procesamiento de cuadro anterior mostrado en la Fig. 1 según la presente invención;
Las Fig. 3A y 3B describen un macrobloque frontera a modo de ejemplo y un bloque de campo frontera superior y otro inferior para el macrobloque frontera, respectivamente;
Las Fig. 3C a 3E representan un procedimiento de relleno de los bloques de campo frontera superior e inferior de manera secuencial según la presente invención; y
La Fig. 4 ilustra una pluralidad de bloques adyacentes no definidos para un VOP a modo de ejemplo y las direcciones de relleno para cada bloque adyacente no definido.
Modo de llevar a cabo la invención
Haciendo referencia a la Fig. 1, se muestra un diagrama de bloques esquemático de un aparato para codificar información de textura entrelazada en un cuadro actual, donde la información de textura entrelazada puede denominarse como un VOP actual en MPEG-4. La información de textura entrelazada se divide en una pluralidad de macrobloques de textura que van a aplicarse a un circuito de división en cuadros 102, donde cada macrobloque de textura tiene M x N píxeles de textura, siendo M y N enteros pares positivos comprendidos normalmente entre 4 y
16.
El circuito de división en cuadros 102 divide cada macrobloque de textura en un bloque de campo superior y un bloque de campo inferior, donde el bloque de campo superior que tiene M/2 x N píxeles de textura contiene cada fila impar de dicho macrobloque de textura, y el bloque de campo inferior que tiene los otros M/2 x N píxeles de textura contiene cada fila par de dicho macrobloque de textura. El bloque de campo superior y el bloque de campo inferior de dicho macrobloque de textura se proporcionan secuencialmente como un bloque de campo superior actual y un bloque de campo inferior actual, respectivamente, a un restador 104 y a un estimador de movimiento 116.
Casi al mismo tiempo se extrae información de textura entrelazada anterior desde un circuito de procesamiento de cuadro anterior 114 y se proporciona al estimador de movimiento 116 y a un compensador de movimiento 118, donde la información de textura entrelazada anterior de un cuadro anterior tiene píxeles de textura anteriores y precede a la información de textura entrelazada del cuadro actual en un periodo de cuadro. El cuadro anterior también se divide en una pluralidad de regiones de búsqueda y cada región de búsqueda se divide en una región de búsqueda superior y una región de búsqueda inferior, donde la región de búsqueda superior que tiene P (M/2 x N) píxeles de textura anteriores contiene cada fila impar de cada dicha región de búsqueda, y la región de búsqueda inferior que tiene los otros P (M/2 x N) píxeles de textura anteriores contiene cada fila par de cada dicha región de búsqueda, siendo P un entero positivo, normalmente 2.
El estimador de movimiento 116 determina vectores de movimiento para el VOP actual por cada campo. En primer lugar, el estimador de movimiento 116 detecta un macrobloque de textura anterior en el cuadro anterior para cada bloque de campo superior o inferior actual, donde el macrobloque de textura anterior está ubicado en la misma posición que cada dicho bloque de campo superior o inferior actual. Después, el macrobloque de textura anterior se divide en un bloque de campo superior anterior y en un bloque de campo inferior anterior; por último se calculan errores entre dicho bloque de campo superior o inferior actual y dos bloques de campo superior e inferior anteriores. Puesto que las regiones de búsqueda superior e inferior tienen una pluralidad de bloques de campo superior candidatos y de bloques de campo inferior candidatos incluyendo los bloques de campo superior anteriores y los bloques de campo inferior anteriores, respectivamente, cada dicho bloque de campo superior o inferior actual está desplazado por cada píxel dentro de las regiones de búsqueda superior e inferior según cada bloque de campo superior candidato y según cada bloque de campo inferior candidato, respectivamente; y, en cada desplazamiento, se comparan entre sí dos errores entre cada dicho bloque de campo superior o inferior actual y cada dicho bloque de campo superior candidato y cada dicho bloque de campo inferior candidato.
Tal y como se ha descrito anteriormente, el estimador de movimiento 116 realiza una estimación de movimiento de cada dicho bloque de campo superior o inferior actual con respecto a sus bloques de campo superior e inferior anteriores y selecciona, como un bloque de campo candidato óptimo o un bloque de campo muy similar, un bloque de campo superior o inferior candidato que proporcione un error mínimo. Los datos de salida del estimador de movimiento 116 son un vector de movimiento y una bandera de indicación de campo que se proporcionan al compensador de movimiento 118 y a un circuito de codificación de longitud variable (VLC) 108, donde el vector de movimiento denota un desplazamiento entre cada dicho bloque de campo superior o inferior actual y el bloque de campo candidato óptimo, y la bandera de indicación de campo representa si el bloque de campo candidato óptimo pertenece o no a la región de búsqueda superior.
El compensador de movimiento 118 lleva a cabo una compensación de movimiento desplazando el bloque de campo candidato óptimo, mediante el vector de movimiento, hacia dicho bloque de campo superior o inferior actual dependiendo de la bandera de indicación de campo para proporcionar de esa manera al restador 104 y a un sumador 112 un bloque de campo candidato óptimo compensado por movimiento como un bloque de campo superior o inferior estimado para cada dicho bloque de campo superior o inferior actual.
El restador 104 obtiene un bloque de campo de error suprimiendo el bloque de campo superior o inferior estimado de cada dicho bloque de campo superior o inferior actual por cada píxel correspondiente para proporcionar el bloque de campo de error a un circuito de codificación de textura 106.
En el circuito de codificación de textura 106, el bloque de campo de error puede someterse a una transformada ortogonal para eliminar la redundancia espacial del mismo, cuantificándose posteriormente coeficientes de transformada para proporcionar de ese modo los coeficientes de transformada cuantificados al circuito VLC 108 y a un circuito de reconstrucción de textura 110. Puesto que una transformada ortogonal convencional, tal como una transformada del coseno discreta (DCT), se lleva a cabo por cada bloque DCT, presentando normalmente cada bloque DCT 8 x 8, es decir, M/2 x N/2 píxeles de textura, el bloque de campo de error que tiene 8 x 16 píxeles de textura de error puede dividirse preferiblemente en dos bloques DCT en el circuito de codificación de textura 106. Si fuera necesario, antes de realizar la DCT, cada bloque de campo de error puede rellenarse mediante la DCT en función de la información de forma o de la información de forma reconstruida de cada VOP con el fin de reducir los componentes de frecuencia superiores que pueden generarse en el procesamiento DCT. Por ejemplo, un valor predeterminado, por ejemplo '0', puede asignarse a los píxeles de textura de error en el exterior del contorno de cada VOP.
El circuito VLC 108 lleva a cabo una codificación estadística en los coeficientes de transformada cuantificados introducidos desde el circuito de codificación de textura 106 y en la bandera de indicación de campo y el vector de movimiento, para cada dicho bloque de campo superior o inferior actual, introducidos desde el estimador de movimiento 116 utilizando, por ejemplo, una técnica de codificación de longitud variable convencional, para proporcionar de ese modo datos codificados de manera estadística a un transmisor (no mostrado) para la transmisión de los mismos.
Al mismo tiempo, el circuito de reconstrucción de textura 110 lleva a cabo una cuantificación inversa y una transformada inversa en los coeficientes de transformada cuantificados para proporcionar al sumador 112 un bloque de campo de error reconstruido que corresponde al bloque de campo de error. El sumador 112 combina el bloque de campo de error reconstruido del circuito de reconstrucción de textura 110 y el bloque de campo superior o inferior estimado del compensador de movimiento 118 por cada píxel para proporcionar de ese modo al circuito de procesamiento de cuadro anterior 114 un resultado combinado como un bloque de campo superior o inferior reconstruido para cada dicho bloque de campo superior o inferior actual.
El circuito de procesamiento de cuadro anterior 114 modifica secuencialmente el bloque de campo superior o inferior reconstruido basándose en la información de forma o en la información de forma reconstruida para el VOP actual, para proporcionar de ese modo al estimador de movimiento 116 y al compensador de movimiento 118 todos los bloques de campo superior e inferior modificados como otra información de textura entrelazada anterior para un VOP actual posterior.
Con referencia a la Fig. 2, se muestra un diagrama de flujo que ilustra un aspecto importante de la invención relacionado con el funcionamiento del circuito de procesamiento de cuadro anterior 114 mostrado en la Fig. 1, es decir, que explica un procedimiento de relleno para la información de textura en un cuadro anterior por cada macrobloque.
En la etapa S201 se recibe secuencialmente el bloque de campo superior o inferior reconstruido para el bloque de campo superior o inferior actual y, en la etapa S203 se eliminan los píxeles exteriores del bloque de campo superior
o inferior reconstruidos en función de la información de forma del VOP actual, donde los píxeles exteriores están ubicados fuera del contorno del VOP actual. La información de forma reconstruida puede utilizarse en representación de la información de forma, donde la información de forma se codifica según un esquema de codificación para generar la información de forma codificada y la información de forma codificada se reconstruye como la información de forma reconstruida codificándose en orden inverso a lo largo del esquema de codificación. Mientras que los píxeles exteriores se eliminan para fijarse como píxeles transparentes, es decir, píxeles de textura no definida, los píxeles interiores restantes del bloque de campo superior o inferior reconstruido se proporcionan como píxeles de textura definida por cada bloque de campo.
En la etapa S204 se determina si cada bloque reconstruido está ubicado o no en el contorno del VOP actual, donde cada dicho bloque reconstruido contiene el bloque de campo superior reconstruido y el bloque de campo inferior reconstruido correspondiente. Dicho de otro modo, cada dicho bloque reconstruido se determina como un bloque interior, un bloque frontera o un bloque exterior, donde el bloque interior solo contiene los píxeles de textura definida, el bloque exterior solo contiene los píxeles de textura no definida y el bloque frontera contiene tanto los píxeles de textura definida como los píxeles de textura no definida. Si el bloque reconstruido se determina como un bloque interior, en la etapa S210, no se lleva a cabo el relleno y el proceso avanza hasta la etapa S211.
Si el bloque reconstruido es un bloque frontera, como se muestra en la Fig. 3A, en las etapas S221 a S224 los píxeles de textura no definida del bloque frontera se extrapolan a partir de los píxeles de textura definida del mismo para generar un bloque frontera extrapolado. En primer lugar, en la etapa S221, cada bloque frontera se divide en un bloque de campo frontera superior y en bloque de campo frontera inferior, tal y como se muestra en la Fig. 3B, presentando cada bloque de campo frontera M/2 x N píxeles de textura. En la etapa S222, los píxeles de textura no definida se rellenan por cada fila utilizando una técnica de relleno repetitivo horizontal mostrada en la Fig. 3C para generar una fila rellenada para cada fila. Dicho de otro modo, los píxeles de textura no definida se rellenan repitiendo los píxeles frontera hacia las flechas, tal y como se muestra en la Fig. 3C, donde cada píxel frontera entre los píxeles de textura definida está ubicado en el contorno, es decir, en el borde, del VOP actual. Si cualquier píxel de textura no definida puede llenarse mediante la repetición de más de un píxel frontera, se utiliza el valor promedio de los valores repetidos.
Si hay una o más filas transparentes en cada bloque de campo superior o inferior, en la etapa S223, cada fila transparente se rellena utilizando una o más de las filas definidas o rellenadas más próximas del bloque de campo superior o inferior correspondiente, donde la fila definida tiene en la misma todos los píxeles de textura definida. Por ejemplo, tal y como se muestra en la Fig. 3D, cada píxel de textura no definida de la fila transparente mostrada en el bloque de campo inferior se sustituye por el promedio de dos píxeles de textura definida o rellenada en función de la fila rellenada superior más próxima y de la fila rellenada inferior más próxima, es decir, la segunda y la cuarta fila rellenadas del bloque de campo inferior. Si la fila transparente está ubicada en la fila con la posición más alta o en la fila con la posición más baja, es decir, corresponde a la primera fila 1 o la octava fila, cada dicho píxel de textura se sustituye por un píxel de textura definida o rellanada de la fila rellenada o definida más próxima.
Si solo hay un bloque de campo frontera transparente de los dos bloques de campo frontera, como se muestra en la Fig. 3B, en la etapa S224, el bloque de campo frontera transparente se rellena en función de otro bloque de campo frontera del bloque frontera, donde el bloque de campo frontera transparente, es decir, un bloque de campo no definido, no tiene en el mismo ningún píxel de textura definida. Dicho de otro modo, si un bloque de campo superior es transparente, todos los píxeles de textura no definida del bloque de campo frontera transparente, es decir, el bloque de campo superior, pueden sustituirse por un valor constante P tal y como se muestra en la Fig. 3E, por ejemplo, un valor promedio de los píxeles de textura definida del bloque de campo inferior. El valor promedio de los píxeles definidos y de los rellenados del bloque de campo inferior también pueden utilizarse para llenar el bloque de campo transparente. Si fuera necesario, puede utilizarse un valor medio de 2L-1 de todos los valores posibles para cualquier píxel de textura en función de las características de canal, donde L es el número de bits asignados a cada píxel. Por ejemplo, si L es igual a 8, hay 256 píxeles de textura, de 0 a 255, y se determina que el valor medio es
128.
En lo que respecta a un VOP de movimiento rápido, el relleno debe extenderse además a bloques que se distribuyen fuera del VOP que son inmediatamente posteriores a cualquier bloque frontera. Si el bloque reconstruido se determina como el bloque exterior en la etapa S204, en la etapa S207 se determina si el bloque exterior es adyacente a cualquier bloque frontera extrapolado. Si el bloque exterior no es adyacente a ningún bloque frontera extrapolado, en la etapa 209 no se realiza ningún relleno y el proceso avanza hasta la etapa S211.
Si el bloque exterior es adyacente a uno o más bloques frontera extrapolados de manera que el bloque exterior corresponde a un bloque adyacente no definido, en la etapa S208 los píxeles de textura no definida del bloque adyacente no definido se rellenan en función de uno de los bloques frontera extrapolados para generar un bloque adyacente extrapolado para el bloque adyacente no definido, donde cada bloque frontera extrapolado tiene una parte del contorno A o B del VOP actual y cada bloque adyacente no definido se muestra como una región sombreada, tal y como se muestra en la Fig. 4. Si una pluralidad de bloques frontera extrapolados rodean el bloque adyacente no definido, se selecciona un bloque frontera extrapolado en una secuencia prioritaria hacia la izquierda, hacia arriba, hacia la derecha y hacia abajo en función del bloque adyacente no definido y, después, un borde vertical o un borde horizontal del bloque frontera extrapolado seleccionado se repite hacia la derecha, hacia abajo, hacia la izquierda o hacia arriba, donde el borde vertical o el borde horizontal es contiguo al bloque adyacente no definido. Tal y como se muestra en la Fig. 4, los bloques adyacentes no definidos JB4, JB20, JB9 Y JB2 seleccionan sus respectivos bloques frontera extrapolados hacia la izquierda, hacia arriba, hacia la derecha y hacia abajo a2, a10, a3 y a1, respectivamente; y el borde vertical derecho del bloque frontera extrapolado a2 se expande hacia la derecha para llenar el bloque adyacente no definido JB4, el borde horizontal inferior del bloque frontera extrapolado a10 se expande hacia abajo para llenar el bloque adyacente no definido JB20 y así sucesivamente. Además, bloques diagonales no definidos, tales como M1 y M2, pueden rellenarse con un valor constante, por ejemplo '128', para ser el bloque adyacente extrapolado para el bloque diagonal no definido, donde cada bloque diagonal no definido es diagonalmente adyacente al bloque frontera extrapolado y tiene todos los píxeles de textura no definida.
Tal y como se ha descrito anteriormente, en la etapa S211, los bloques de campo superior e inferior modificados, es decir, el bloque frontera extrapolado y el bloque adyacente extrapolado, así como los bloques interiores, se proporcionan como otra información de textura entrelazada anterior para el siguiente VOP actual.

Claims (4)

  1. REIVINDICACIONES
    1. Un aparato para codificar información de textura entrelazada por cada macrobloque de textura utilizando una predicción de bloque de campo entre un VOP actual y un VOP de referencia, comprendiendo el aparato:
    un estimador de movimiento (116) para determinar un vector de movimiento de campo para cada bloque de campo superior o inferior actual por cada campo;
    un compensador de movimiento (118) para proporcionar el bloque de campo candidato óptimo como un bloque de campo superior o inferior estimado para cada bloque de campo superior o inferior actual;
    un restador (104) para sustraer el bloque de campo superior o inferior estimado de cada bloque de campo superior o inferior actual por cada píxel correspondiente para obtener el bloque de campo de error;
    un circuito de codificación de textura (106) para aplicar la transformada discreta del coseno al bloque de campo de error por cada bloque DCT, y para cuantificar los coeficientes a los que se les ha aplicado la transformada discreta del coseno;
    un circuito de codificación estadística (108) para llevar a cabo una codificación estadística en los coeficientes cuantificados introducidos desde el circuito de codificación de textura (106) y el vector de movimiento de campo para cada bloque de campo superior o inferior actual introducido desde el estimador de movimiento (116);
    un circuito de reconstrucción de textura (110) para llevar a cabo una cuantificación inversa y una transformada inversa en los coeficientes de transformada cuantificados para obtener un bloque de campo de error reconstruido;
    un sumador (112) para combinar el bloque de campo de error reconstruido del circuito de reconstrucción de textura (110) y el bloque de campo superior o inferior estimado del compensador de movimiento (118) por cada píxel; y
    un circuito de procesamiento de cuadro anterior (114) para rellenar un bloque de campo superior o inferior reconstruido en función de información de forma para el VOP actual, para almacenar de ese modo los bloques de campo superior o inferior rellenados como información de textura entrelazada de referencia, comprendiendo el circuito de procesamiento de cuadro de referencia:
    un primer dispositivo de relleno para rellenar el píxel de textura no definida en una fila del bloque de campo que presenta al menos una textura definida en función de uno o más de los píxeles de textura definida en dicha fila,
    un segundo dispositivo de relleno para rellenar el píxel de textura no definida en una fila del bloque de campo que presenta al menos una textura definida en función de uno o más de los píxeles de textura definida en una o más filas en dicho bloque de campo, y
    un tercer dispositivo de relleno para rellenar con un valor constante el bloque de campo de un VOP frontera que presenta solamente los píxeles de textura no definida.
  2. 2. El aparato según la reivindicación 1, en el que el circuito de procesamiento de cuadro de referencia (114) comprende además:
    un circuito de relleno de macrobloque adyacente para expandir un macrobloque adyacente no definido en función del macrobloque frontera rellenado, donde el macrobloque adyacente no definido es adyacente al macrobloque frontera rellenado y solo presenta píxeles de textura no definida, y
    un circuito de relleno de macrobloque restante para rellenar con un valor constante el macrobloque exterior no adyacente al macrobloque frontera rellenado.
  3. 3. El aparato según la reivindicación 2, en el que el circuito de relleno de macrobloque adyacente incluye:
    un selector para seleccionar, si dicho bloque adyacente no definido está rodeado por una pluralidad de macrobloques frontera rellenados, uno de los macrobloques frontera extrapolados izquierdo, superior, derecho e inferior de dicho macrobloque adyacente no definido en esta prioridad, y
    medios para duplicar hacia la derecha, hacia abajo, hacia la izquierda o hacia arriba un borde vertical o un borde horizontal del macrobloque frontera rellenado seleccionado.
    5 4. El aparato según la reivindicación 1, en el que el valor constante es 2L-1, y L es el número de bits asignados a cada píxel.
  4. 5. El aparato según la reivindicación 1, en el que dicho relleno del bloque de campo con un valor constante incluye
    rellenar dicho bloque de campo con un valor constante de 128. 10
ES08004286T 1998-03-14 1998-05-15 Aparato para codificar información de textura entrelazada de macrobloques Expired - Lifetime ES2380502T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1019980008637A KR100285599B1 (ko) 1998-03-14 1998-03-14 격행 부호화에서의 움직임 추정을 위한 텍스쳐 패딩 장치 및그 패딩 방법
KR19980008637 1998-03-14

Publications (1)

Publication Number Publication Date
ES2380502T3 true ES2380502T3 (es) 2012-05-14

Family

ID=19534803

Family Applications (3)

Application Number Title Priority Date Filing Date
ES98921904T Expired - Lifetime ES2380590T3 (es) 1998-03-14 1998-05-15 Procedimiento y aparato para rellenar información de textura entrelazada de macrobloques
ES08004285T Expired - Lifetime ES2380501T3 (es) 1998-03-14 1998-05-15 Aparato para codificar información de textura entrelazada de macrobloques
ES08004286T Expired - Lifetime ES2380502T3 (es) 1998-03-14 1998-05-15 Aparato para codificar información de textura entrelazada de macrobloques

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES98921904T Expired - Lifetime ES2380590T3 (es) 1998-03-14 1998-05-15 Procedimiento y aparato para rellenar información de textura entrelazada de macrobloques
ES08004285T Expired - Lifetime ES2380501T3 (es) 1998-03-14 1998-05-15 Aparato para codificar información de textura entrelazada de macrobloques

Country Status (8)

Country Link
US (7) US6259732B1 (es)
EP (3) EP1940177B1 (es)
JP (1) JPH11298901A (es)
KR (1) KR100285599B1 (es)
CN (1) CN1159915C (es)
AU (2) AU762187B2 (es)
ES (3) ES2380590T3 (es)
WO (1) WO1999048298A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998034407A1 (en) * 1997-01-30 1998-08-06 Matsushita Electric Industrial Co., Ltd. Digital image replenishment method, image processing device and data recording medium
US6952501B2 (en) * 2000-02-24 2005-10-04 Canon Kabushiki Kaisha Image processing apparatus, image encoding apparatus, and image decoding apparatus
US6718066B1 (en) * 2000-08-14 2004-04-06 The Hong Kong University Of Science And Technology Method and apparatus for coding an image object of arbitrary shape
US7197070B1 (en) * 2001-06-04 2007-03-27 Cisco Technology, Inc. Efficient systems and methods for transmitting compressed video data having different resolutions
CN101448162B (zh) 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
US8265163B2 (en) * 2001-12-21 2012-09-11 Motorola Mobility Llc Video shape padding method
US7362374B2 (en) * 2002-08-30 2008-04-22 Altera Corporation Video interlacing using object motion estimation
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7860326B2 (en) * 2003-09-22 2010-12-28 Kddi Corporation Adaptable shape image encoding apparatus and decoding apparatus
US7480335B2 (en) * 2004-05-21 2009-01-20 Broadcom Corporation Video decoder for decoding macroblock adaptive field/frame coded video data with spatial prediction
US7623682B2 (en) * 2004-08-13 2009-11-24 Samsung Electronics Co., Ltd. Method and device for motion estimation and compensation for panorama image
KR100688383B1 (ko) * 2004-08-13 2007-03-02 경희대학교 산학협력단 파노라마 영상의 움직임 추정 및 보상
WO2006129280A2 (en) * 2005-06-03 2006-12-07 Nxp B.V. Video decoder with hybrid reference texture
CN100466746C (zh) * 2005-07-21 2009-03-04 海信集团有限公司 基于宏块内边缘信息选择分割的方法
KR101536732B1 (ko) 2008-11-05 2015-07-23 삼성전자주식회사 텍스쳐 맵핑을 위한 텍스쳐 데이터 읽기 장치 및 방법
US9787966B2 (en) * 2012-09-04 2017-10-10 Industrial Technology Research Institute Methods and devices for coding interlaced depth data for three-dimensional video content
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
JP6095955B2 (ja) * 2012-11-16 2017-03-15 ルネサスエレクトロニクス株式会社 測定方法、測定装置及び測定プログラム
US10249029B2 (en) 2013-07-30 2019-04-02 Apple Inc. Reconstruction of missing regions of images
US10104397B2 (en) * 2014-05-28 2018-10-16 Mediatek Inc. Video processing apparatus for storing partial reconstructed pixel data in storage device for use in intra prediction and related video processing method
US10142613B2 (en) * 2015-09-03 2018-11-27 Kabushiki Kaisha Toshiba Image processing apparatus, image processing system, and image processing method
FI20165256L (fi) * 2016-03-24 2017-09-25 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen
EP4432669A2 (en) * 2016-10-04 2024-09-18 B1 Institute of Image Technology, Inc. Image data encoding/decoding method and apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW241416B (es) * 1992-06-29 1995-02-21 Sony Co Ltd
KR0181052B1 (ko) * 1995-03-31 1999-05-01 배순훈 고화질 영상 시스템의 영역 분할 장치
JP4049280B2 (ja) * 1996-09-24 2008-02-20 株式会社ハイニックスセミコンダクター グレースケール形状情報符号化/復号化装置及び方法
EP0833521A3 (en) * 1996-09-30 1999-09-15 Hyundai Electronics Industries Co., Ltd. Device for and method of coding/decoding image information
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US6005980A (en) * 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
EP0921497B1 (en) * 1997-12-02 2004-03-24 Daewoo Electronics Corporation Interlaced binary shape coding apparatus
GB2336058B (en) * 1998-04-02 2002-03-27 Daewoo Electronics Co Ltd Apparatus and method for adaptively coding an image signal

Also Published As

Publication number Publication date
EP1933567B1 (en) 2012-01-11
EP1076998A1 (en) 2001-02-21
KR100285599B1 (ko) 2001-04-02
USRE43061E1 (en) 2012-01-03
USRE43130E1 (en) 2012-01-24
USRE43060E1 (en) 2012-01-03
JPH11298901A (ja) 1999-10-29
AU2003244627B2 (en) 2005-07-14
AU2003244627A1 (en) 2003-10-09
AU7456298A (en) 1999-10-11
EP1940177A2 (en) 2008-07-02
EP1940177A3 (en) 2010-08-11
AU762187B2 (en) 2003-06-19
CN1229323A (zh) 1999-09-22
USRE41383E1 (en) 2010-06-22
ES2380590T3 (es) 2012-05-16
USRE43129E1 (en) 2012-01-24
US6259732B1 (en) 2001-07-10
EP1933567A2 (en) 2008-06-18
EP1076998B1 (en) 2012-01-11
WO1999048298A1 (en) 1999-09-23
EP1933567A3 (en) 2010-08-11
KR19990074806A (ko) 1999-10-05
USRE41951E1 (en) 2010-11-23
CN1159915C (zh) 2004-07-28
EP1940177B1 (en) 2012-01-11
ES2380501T3 (es) 2012-05-14

Similar Documents

Publication Publication Date Title
ES2380502T3 (es) Aparato para codificar información de textura entrelazada de macrobloques
ES2263208T3 (es) Procedimiento y aparato para codificar un vector de movimiento de una señal binaria de contorno.
EP1528813B1 (en) Improved video coding using adaptive coding of block parameters for coded/uncoded blocks
US6094225A (en) Method and apparatus for encoding mode signals for use in a binary shape coder
EP1119975B1 (en) Motion vector detection with local motion estimator
US6404814B1 (en) Transcoding method and transcoder for transcoding a predictively-coded object-based picture signal to a predictively-coded block-based picture signal
EP0923251A1 (en) Mode coding method and apparatus for use in an interlaced shape coder
KR100246168B1 (ko) 격행비디오를 위한 계층적 움직임 추정
JPH11262032A (ja) 立体ビデオの符号化のための像オフセット評価
US20070053432A1 (en) Image processing apparatus
US6133955A (en) Method for encoding a binary shape signal
US6285795B1 (en) Method and apparatus for encoding/decoding a binary shape signal
US7426311B1 (en) Object-based coding and decoding apparatuses and methods for image signals
EP0923250A1 (en) Method and apparatus for adaptively encoding a binary shape signal
KR100522171B1 (ko) 임의 형상 프레임 생성기 및 그를 이용한 임의 형상프레임 생성 방법
MXPA00008676A (es) Metodo y aparato para rellenar informacion de textura de macro bloques entrelazados
KR100483675B1 (ko) 신축형모양정보부호화시손실부호화방법
KR100283579B1 (ko) 격행형상코더에사용하기위한모드코딩방법및장치
Vranyecz et al. Very low bit rate video coding methods for multimedia
Khan Exploiting spline and quadtree for lossy temporal video data and lossless synthetic image data compression
KR20000021867A (ko) 이진 형상 신호의 움직임 벡터 부호화 방법
KR19990058283A (ko) 이진 형상 코더에 사용하기 위한 모드 신호 엔코딩 방법 및장치