ES2379399T3 - Método para derivar datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución y dispositivos codificadores y descodificadores que ponen en práctica dicho método - Google Patents

Método para derivar datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución y dispositivos codificadores y descodificadores que ponen en práctica dicho método Download PDF

Info

Publication number
ES2379399T3
ES2379399T3 ES07786985T ES07786985T ES2379399T3 ES 2379399 T3 ES2379399 T3 ES 2379399T3 ES 07786985 T ES07786985 T ES 07786985T ES 07786985 T ES07786985 T ES 07786985T ES 2379399 T3 ES2379399 T3 ES 2379399T3
Authority
ES
Spain
Prior art keywords
macroblock
base layer
base
layer
low resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07786985T
Other languages
English (en)
Inventor
Edouard Francois
Vincent Bottreau
Jérome Vieron
Christophe Chevance
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Application granted granted Critical
Publication of ES2379399T3 publication Critical patent/ES2379399T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Método para la obtención de datos de movimiento para al menos un macrobloque de una imagen de alta resolución dividido en bloques elementales que no solapan, llamado macrobloque de capa alta, a partir de datos de movimiento asociados a macrobloques de una imagen de baja resolución, llamados macrobloques de la capa de base, estando un modo de codificación de macrobloque, entre el modo de fotograma y el modo de campo, asociado a cada macrobloque y estando un modo de codificación de imagen asociado a la mencionada imagen de alta resolución y a la mencionada imagen de baja resolución, caracterizado porque comprende las siguientes etapas: - computar (2200), para cada bloque elemental de dicho al menos un macrobloque, una posición intermedia dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base virtual (vbl_pos), a partir de la posición del mencionado bloque elemental dentro de la mencionada imagen de alta resolución dependiendo del modo de codificación del mencionado macrobloque de capa alta y dependiendo de los modos de codificación de imagen de las mencionadas imágenes de alta y baja resolución; - identificar (2300), para cada bloque elemental, el macrobloque de la capa de base, llamado base_MB, que comprende el píxel situado en la mencionada posición de la capa de base virtual; - computar (2400), para cada bloque elemental, una posición final dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base real, a partir de la mencionada posición de la capa de base virtual dependiendo de los modos de codificación del mencionado base_MB y de los macrobloques de la capa alta; - identificar (2500), para cada bloque elemental del mencionado al menos un macrobloque, el macrobloque de la capa de base, llamado real_base_MB, que comprende el píxel situado en la citada posición de la capa de base real; y - obtener (2600) los datos de movimiento, para el mencionado macrobloque de la capa alta, a partir de los datos de movimiento del macrobloque de la capa de base identificado real_base_MB para cada bloque elemental.

Description

Método para derivar datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución y dispositivos codificadores y descodificadores que ponen en práctica dicho método.
1.
Campo de la invención
La invención se refiere a un método para obtener datos de movimiento para al menos un macrobloque de una imagen de alta resolución, llamado macrobloque de capa alta, a partir de los datos de movimiento asociados al menos a un macrobloque de una imagen de baja resolución, llamado macrobloque de capa de base. La invención también se refiere a los dispositivos de codificación y decodificación que implementan dicho método.
2.
Antecedentes de la Invención
Los métodos de codificación jerárquica y escalable del estado de la técnica permiten codificar la información jerárquicamente con el fin de que pueda ser descodificada con diferente resolución y/o niveles de calidad. Un flujo de datos generado por un dispositivo de codificación escalable se divide así en varias capas, una capa de base y una o más capas de mejora. Estos dispositivos permiten adaptar un único flujo de datos a unas condiciones de transmisión variables (ancho de banda, tasa de error…) y también a las capacidades de los dispositivos de recepción (CPU, características del dispositivo de reproducción…). Un método de codificación (o descodificación) jerárquico espacialmente escalable codifica (o descodifica) una primera parte de los datos llamada capa de base que se refiere a imágenes de baja resolución llamadas también imágenes de capa de base (imágenes BL), y a partir de esta capa de base codifica (o descodifica) al menos otra parte de los datos llamada capa de mejora que se refiere a imágenes de alta resolución llamadas también imágenes de capa alta (imágenes HL) o imágenes de capa de mejora. Los datos de movimiento que se refieren a la capa de mejora posiblemente se adquieren (es decir, se obtienen) de los datos de movimiento que se refieren a la capa de base mediante un método llamado método de predicción de capa intermedia o método de adquisición de capa intermedia. Por lo tanto cada macrobloque de una imagen de alta resolución se predice bien según un modo de predicción temporal o espacial clásico (por ejemplo predicción interna, modo de predicción bidireccional, modo de predicción directo, predicción adelante/atrás…) o bien según un método de predicción de capa intermedia. En este primer caso, los datos de movimiento asociados a un macrobloque de alta resolución deben ser obtenidos o adquiridos de los datos de movimiento (llamados también información de movimiento) asociados a los macrobloques de las imágenes de baja resolución sea cual sea el formato de las imágenes de alta o baja resolución, es decir, progresivo o entrelazado. En este contexto la expresión “datos de movimiento” no sólo incluye vectores de movimiento sino más generalmente información de codificación tal como patrones de fraccionamiento asociados a los macrobloques/bloques de píxeles de la imagen de alta resolución para la división de los macrobloques/bloques mencionados en varios sub-bloques, modos de codificación asociados a los bloques mencionados e índices de referencia de la imagen asociados a algunos bloques que permiten hacer referencia a la imagen utilizada para predecir dicho bloque.
El documento JVT-S018 del Joint Video Team (JVT) de la ISO/IEC MPEG & ITU-T VCEG, titulado << CE4: predicción de capa intermedia para SVC entrelazado/progresivo >>, describe un proceso de predicción de capa intermedia que soporta cualesquiera combinaciones de escalabilidad entrelazada/progresiva.
3. Sumario de la invención
La invención tiene el objetivo de aliviar al menos uno de estos inconvenientes. En particular el que se refiere a un método para obtener datos de movimiento para al menos un macrobloque de una imagen de alta resolución, llamado macrobloque de capa alta, a partir de los datos de movimiento asociados a macrobloques de una imagen de baja resolución, llamado macrobloque de capa de base, un modo de codificar macrobloques entre el modo de fotograma y el modo de campo que esté asociado a cada macrobloque y un modo de codificar imágenes que esté asociado a la imagen de alta resolución y a la imagen de baja resolución. El método comprende las siguientes etapas:
-
dividir el macrobloque de capa alta en bloques elementales que no se solapen;
-
computar, para cada bloque elemental, un posición intermedia dentro de la imagen de baja resolución, llamada posición de capa de base virtual (vbl_pos), a partir de la posición del bloque elemental dentro de la imagen de alta resolución que depende del modo de codificación del macrobloque de capa alta y que depende de los modos de codificación de imagen de las imágenes de alta y baja resolución;
-
identificar, para cada bloque elemental, el macrobloque de capa de base, llamado base_MB, que comprende el pixel situado en la posición de la capa de base virtual;
-
computar, para cada bloque elemental, una posición final dentro de la imagen de baja resolución, llamada posición de la capa de base real, a partir de la posición de la capa de base virtual que depende de los modos de codificación del base_MB y de los macrobloques de capa alta y que depende de los modos de codificación de imagen de las imágenes de alta y baja resolución;
-
identificar, para cada bloque elemental, el macrobloque de capa de base, llamado real_base_MB, que comprende el píxel situado en la posición de la capa de base real; y
-
obtener los datos de movimiento, para el macrobloque de capa alta, a partir de los datos de movimiento del macrobloque de capa de base identificado real_base_MB para cada bloque elemental.
Según una realización preferida, los macrobloques de la capa de base están fraccionados y los datos de movimiento están asociados a cada una de las fracciones. Dicho método comprende además una etapa para identificar, para cada bloque elemental, la fracción (mbPartldxBase) del real_base_MB que comprende el pixel situado en la posición de la capa de base real después de la etapa de la identificación, para cada bloque elemental, el macrobloque de la capa de base, llamado real_base_MB, que comprende el pixel situado en la posición de la capa de base real.
Preferentemente, la etapa para obtener datos de movimiento para el macrobloque de la capa alta comprende las etapas de:
-
fraccionar el macrobloque de la capa alta que depende del macrobloque de capa de base identificado real_base_MB y del fraccionamiento identificado del del macrobloque de la capa de base real_base_MB para cada bloque elemental; y
-
obtener vectores de movimiento para cada fracción del macrobloque de la capa alta a partir de los datos de movimiento del macrobloque de capa de base identificado real_base_MB para cada bloque elemental.
Según una realización preferida, el macrobloque de la capa alta es un bloque de 16 por 16 píxeles y en el que cada bloque elemental es un bloque de 4 por 4 píxeles.
De manera ventajosa, el método es parte de un proceso para codificación de señales de video y es parte de un proceso para descodificación de señales de video.
La invención también se refiere a un dispositivo para la codificación de una secuencia de imágenes de alta resolución y de una secuencia de imágenes de baja resolución, siendo dividida cada imagen en macrobloques que no se solapan, un modo de codificar macrobloques entre el modo de fotograma y el modo de campo que esté asociado a cada macrobloque y un modo de codificar imágenes que esté asociado a las imágenes de alta resolución y a las imágenes de baja resolución. El dispositivo de codificación comprende:
-
primeros medios de codificación para la codificación de imágenes de baja resolución, generando los primeros medios de codificación datos de movimiento para los macrobloques de las imágenes de baja resolución y un flujo de datos de la capa de base;
-
medios de adquisición para obtener los datos de movimiento para al menos un macrobloque de una imagen de alta resolución, llamado macrobloque de alta resolución a partir de los datos de movimiento de los macrobloques de una imagen de baja resolución, llamados macrobloques de baja resolución; y
-
segundos medios de codificación para codificar las imágenes de alta resolución que utilizan los datos de movimiento obtenidos, generando los segundos medios de codificación un flujo de datos de capa de mejora.
La invención también se refiere al dispositivo para descodificar al menos una secuencia de imágenes de alta resolución, apareciendo las imágenes codificadas en forma de un flujo de datos, estando cada imagen dividida en macrobloques que no se solapan, estando un modo de codificación de macrobloque entre un modo de fotograma y un modo de campo asociado a cada macrobloque y estando un modo de codificación de imagen asociado a las imágenes de alta resolución y a las imágenes de baja resolución. El dispositivo de descodificación comprende:
-
primeros medios de descodificación para descodificar al menos una primera parte del flujo de datos con el fin de genera imágenes de baja resolución y datos de movimiento para los macrobloques de la imagen de baja resolución;
-
medios de adquisición para obtener datos de movimiento para al menos un macrobloque de una imagen de alta resolución a partir de datos de movimiento de los macrobloques de un imagen de baja resolución; y
-
segundos medios de descodificación para descodificar al menos una segunda parte del flujo de datos utilizando los datos de movimiento obtenidos con el fin de generar imágenes de alta resolución;
Según una importante característica de la invención, los medios de adquisición de los dispositivos de codificación y descodificación comprenden:
-
medios para dividir el macrobloque de capa alta en bloques elementales que no se solapan;
-
medios para computar, para cada bloque elemental, una posición intermedia dentro de la imagen de baja resolución, llamada posición de la capa de base virtual (vbl_pos), a partir de la posición del bloque elemental dentro de la imagen de alta resolución dependiendo del modo de codificación del macrobloque de la capa alta y dependiendo de los modos de codificación de imagen de las imágenes de alta y baja resolución;
-
medios para identificar, para cada bloque elemental, el macrobloque de la capa de base, llamado base_MB, que comprende el píxel situado en la posición de la capa de base virtual;
-
medios para computar, para cada bloque elemental, una posición final dentro de la imagen de baja resolución, llamada posición de la capa de base real, a partir de la posición de la capa de base virtual dependiendo de los modos de codificación de los base_MB y de los macrobloques de la capa alta y dependiendo de los modos de codificación de imagen de las imágenes de alta y baja resolución;
-
medios para identificar, para cada bloque elemental, el macrobloque de la capa de base, llamado real_base_MB, que comprende el píxel situado en la posición de la capa de base real; y
-
medios para obtener los datos de movimiento, para el macrobloque de la capa alta, a partir de los datos de movimiento del macrobloque de capa de base identificado real_base_MB para cada bloque elemental.
Preferentemente, los primeros medios de codificación son un codificador de video MPEG-4 AVC.
De manera ventajosa, el dispositivo de codificación comprende además medios para combinar el flujo de datos de la capa de base y el flujo de datos de la capa de mejora en un único flujo de datos.
Preferentemente, los primeros medios de descodificación son un descodificador de video MPEG-4 AVC.
4. Breve descripción de los dibujos
Aparecerán otras características y ventajas de la invención con la siguiente descripción de algunas de sus realizaciones, siendo está descripción hecha en relación con los dibujos, en los que:
-
la Figura 1 representa un par de macrobloques situados verticalmente y codificados bien en el modo de fotograma (parte izquierda de la figura) o en el modo de campo (parte derecha de la figura);
-
la Figura 2 representa un diagrama de flujo del método según la invención;
-
la Figura 3 representa un ejemplo de obtención de datos de movimiento para un macrobloque de capa alta dado;
-
la Figura 4 representa un dispositivo de codificación para codificar señales de video según la invención; y
-
la Figura 5 representa un dispositivo de descodificación para descodificar señales de video según la invención.
5. Descripción detallada de las realizaciones preferidas
En la norma SVC definida actualmente por JVT (MPEG & ITU) en el documento JVT-R202 de la ISO/IEC MPEG & ITU-T VCEG, titulado << Scalable Video Coding – Joint Draft 5 >> (<< Codificación de Video Escalable – Proyecto Conjunto 5 >>) y referenciada como JSVM5 en lo que sigue, la escalabilidad espacial sólo se considera para material progresivo. La predicción de movimiento de capa intermedia entre dos (o más) capas espaciales sucesivas (la capa de base y una(s) de mejora sólo se direcciona en caso de secuencias de video progresivas. La invención propone extender estos métodos de predicción de capa intermedia con el fin de apoyar cualesquiera combinaciones de escalabilidad entrelazada/progresiva. Según muchos estándares de codificación de video una imagen entrelazada, que comprende un campo superior entrelazado con un campo inferior capturado en un instante de tiempo diferente, podría codificarse o bien como dos imágenes de campo (modo de imagen de campo), es decir, los dos campos de la imagen se codifican por separado, o bien como una imagen de fotograma (modo de imagen de fotograma), es decir, la imagen se codifica como un fotograma único. La MPEG-4 AVC descrita en el documento ISO/IEC JTC 1/SC 29/WG 11N5546 titulado << Text of 14496-2 Third Edition >> (<< Texto de 14496-2 Tercera Edición >>) permite que la decisión se tome o bien independientemente para la imagen completa o bien independientemente para cada dos pares de macrobloques verticales. Cuando la decisión se toma al nivel de la imagen se llama codificación PAFF (PAFF siglas para Picture Adaptative Frame/Field: Fotograma/Campo Adaptable a la Imagen) y cuando la decisión se toma al nivel del par de macrobloques se llama MBAFF (siglas para Macroblock Adaptative Frame/Field: Fotograma/Campo Adaptable al Macrobloque). Con más precisión, según MPEG-4 AVC, cuando una imagen entrelazada se codifica como una imagen de fotograma y si se permite MBAFF, entonces cada par de macrobloques verticales (MBs) pueden codificarse como entrelazados, es decir, se codifican MBs del par en modo de campo (parte derecha de la figura 1), o como progresivos, es decir MBs del modo de fotograma del par (parte izquierda de la figura 1). En la Figura 1, las líneas grises representan las líneas pares de las imágenes entrelazadas con las líneas impares, es decir, las líneas blancas, de las imágenes. Una imagen progresiva se codifica siempre como una imagen de fotograma. El modo de codificación de una imagen especifica si dicha imagen está codificada de fotograma o de campo y además si está codificada de fotograma si se permite MBAFF.
El método según la invención permite obtener datos de movimiento directamente para al menos un macrobloque de la imagen de alta resolución (llamado también High Layer MacroBlock (MacroBloque de Capa Alta) e indicado HL MB) a partir de los datos de movimiento asociados a los macrobloques de las imágenes de baja resolución (llamados también Base Layer MacroBlock (MacroBloque de Capa de Base) e indicado BL MB) sea cual sea el formato (entrelazado o progresivo) de las secuencias de alta y baja resolución.
El método para la obtención de datos de movimiento para al menos un HL MB a partir de BL MB(s) se describe a continuación en referencia a la figura 2 para un HL MB en curso. En la Figura 2, las cajas representadas son entidades puramente funcionales, que no corresponden necesariamente a entidades físicamente separadas. Concretamente, pueden desarrollarse en forma de software, o implementarse en uno o varias circuitos integrados. La Figura 3 representa un ejemplo de tal obtención para un MB HL en curso. De manera ventajosa, según este método, los datos de movimiento para el HL MB se obtienen directamente a partir de los datos de movimiento del BL MB, es decir, no se obtienen explícitamente datos de movimiento para macrobloques intermedios tales como un macrobloque de capa de base virtual (también conocido como VBL MBs). Esto simplifica significativamente todo el proceso. De hecho, no se requiere nada más para obtener los datos de movimiento para MBs intermedios asociados al HL MB en curso antes de la obtención que sus propios datos de movimiento. De manera ventajosa, este método evita obtener varias veces datos de movimiento para un mismo VBL MB que esté asociado a diferentes HL MBs próximos.
Según este método, el HL MB en curso se divide primero (etapa 2100) en bloques elementales de capa alta, elem_blk (por ejemplo bloques 4x4) como se representa en la figura 3.
Entonces, el método consiste en computar (etapa 2200), para cada bloque elem_blk en la posición (blk_x, blk_y) (en unidades de píxel), una posición de capa de base virtual vbl_pos = (vbl_x, vbl_y) como sigue:
vbl_x = blk_x * wbase / wenh ; y
vbl_y = offset + factor * (y1*hb / he)
donde offset, factor y hb son parámetros definidos como sigue:
-
si una de las dos condiciones siguientes es cierta:
o el HL MB en curso es un macrobloque de campo, y la imagen de la capa de base está codificada en modo fotograma campo adaptable al macrobloque (MBAFF) o
o el HL MB en curso es un macrobloque de campo, y la imagen de la capa de base es progresiva y henh < 2*hbase;
entonces factor = 2, hb = hbase/2 y offset = 0 si el macrobloque de la capa alta es un macrobloque SUPERIOR (TOP) u offset = 16 si el macrobloque de la capa alta es un macrobloque INFERIOR (BOTTOM);
-
en otro caso, factor = 1, hb = hbase y offset = 0;
y donde y1 y he son parámetros definidos como sigue:
-
si el HL MB en curso es un macrobloque de campo, y si la imagen de capa alta está codificada en modo fotograma campo adaptable al macrobloque (MBAFF), entonces y1 = blk_y/2 y he = henh/2.
-
en otro caso, y1 = blk_y y he = henh.
La etapa 2300 consiste en identificar, para cada elem_blk, el macrobloque de capa de base base_MB que comprende el píxel de posición vbl_pos en la imagen de la capa de base, es decir, el píxel de coordenadas (vbl_x, vbl_y), como se representa en la figura 3.
Entonces, en el paso 2400, la posición de la capa de base real_bl_pos = (bl_x, bl_y) dentro de la imagen de baja resolución se computa, para cada elem_blk, a partir de la posición de la capa de base virtual vbl_pos sobre la base del modo de codificación fotograma/campo del base_MB. bl_x se hace igual a vbl_x y bl_y se obtiene como sigue:
• Si las siguientes condiciones son ciertas:
La imagen de capa de base está codificada en modo fotograma campo adaptable al macrobloque (MBAFF);
el macrobloque de capa de base base_MB es un macrobloque de campo; y
la imagen de capa alta es progresiva (es decir, codificada en modo de fotograma) o el macrobloque de capa alta es un macrobloque de fotograma.
entonces se aplica una conversión de campo a fotograma de la posición de la capa de base virtual vbl_pos. La dirección de un macrobloque dado en la posición (ax, ay) en una imagen de w columnas se define como (ay*w + ax). Sean mbAddrBaseTOP y mbAddrBaseBOT definidas como sigue:
Si base_MB es un macrobloque SUPERIOR, entonces mbAddrBaseTOP es la dirección de base_MB y mbAddrBaseBOT es la dirección del macrobloque de la capa de base situado debajo del base_MB,
en otro caso mbAddrBaseBOT es la dirección de base_MB y mbAddrBaseTOP es la dirección del macrobloque de la capa de base situado por encima del base_MB.
Por lo tanto, si los macrobloques en la posición mbAddrBaseTOP y mbAddrBaseBOT están ambos intra codificados, entonces bl_y = vbl_y,
en otro caso, sea y2 una variable igual a (vbl_y % 16) / 4 y se define mbAddrBase como sigue:
Si y2 es menor que 2, mbAddrBase = mbAddrBaseTOP
En otro caso mbAddrBase = mbAddrBaseBOT
Si el base_MB es un macrobloque SUPERIOR, entonces bl_y = (mbAddrBase/wbase) + 4*(blk_y/2), en otro caso, bl_y = (mbAddrBase/wbase) + 4*(blk_y/2+2).
• En otro caso, si una de las siguientes condiciones es cierta:
La imagen de capa de base es progresiva (es decir, codificada en modo de fotograma) y el HL MB en curso es un macrobloque de campo y henh < 2*hbase;
La imagen de la capa de base está codificada en modo fotograma campo adaptable al macrobloque (MBAFF) y el macrobloque de la capa de base base_MB es un macrobloque de fotograma y el macrobloque de la capa alta es un macrobloque de campo
entonces se aplica una conversión de fotograma a campo de la posición de la capa de base virtual vbl_pos. Sean mbAddrBaseTOP y mbAddrBaseBOT definidas como sigue:
Si base_MB es un macrobloque SUPERIOR, mbAddrBaseTOP es la dirección de base_MB y mbAddrBaseBOT es la dirección del macrobloque de la capa de base situado por debajo de base_MB,
en otro caso mbAddrBaseBOT es la dirección de base_MB y mbAddrBaseTOP es la dirección del macrobloque de la capa de base situado encima de base_MB.
Por tanto, si los macrobloques en la posición mbAddrBaseTOP y mbAddrBaseBOT están ambos intra codificados, entonces bl_y = vbl_y,
en otro caso, el macrobloque en la posición mbAddrBaseTOP está intra codificado, mbAddrBaseTOP se hace igual a mbAddrBaseBOT, en otro caso si el macrobloque en la posición mbAddrBaseBOT está intra codificado, mbAddrBaseBOT se hace igual a mbAddrBaseTOP. Sea y2 una variable igual a (vbl_y % 16) / 4 y sea mbAddrBase definida como sigue:
Si y2 es menor que 2, mbAddrBase = mbAddrBaseTOP
En caso contrario mbAddrBase = mbAddrBaseBOT
Si base_MB es un macrobloque SUPERIOR, entonces bl_y = (mbAddrBase/wbase) + 4*(2*(blk_y%2)), en otro caso, bl_y = (mbAddrBase/wbase) + 4*(2*(blk_y%2)+1).
• En otro caso, bl_y = vbl_y.
La etapa 2500 consiste en identificar, para cada elem_blk, el macrobloque de la capa de base real_base_MB que comprende el píxel en la posición real_bl_pos = (bl_x, bl_y) de la imagen de la capa de base, el índice mbPartldxBase de la fracción de la capa de base que comprende el píxel de posición real_bl_pos dentro del macrobloque de la capa de base real_base_MB, y el índice subMbPartldxBase de la subfracción de la capa de base sea cual sea el que comprende el píxel de posición real_bl_pos dentro de la fracción de la capa de base de índice mbPartldxBase. El mencionado real_base_MB, los mencionados índices mbPartldxBase y subMbPartldxBase,si existen, están asociados al elem_blk mencionado.
La etapa 2600 siguiente consiste en obtener los datos de movimientos asociados al HL MB en curso. Preferentemente, la etapa de obtención de los datos de movimiento comprende dos subetapas. En efecto, se obtienen primero un tipo de macrobloque mb_type y tipos de submacrobloques antes de obtener los vectores de movimiento y los índices de referencia. De forma más precisa, la subetapa 2610, consiste en obtener el tipo de macrobloque mb_type, es decir, una pauta de fraccionamiento, y los posibles tipos de submacrobloques sub_mb_type (el sub_mb_type especifica cómo se divide una fracción dada, por ejemplo, una fracción 8x8 cuyo sub_mb_type es 8x4 se divide en dos subfracciones 8x4) del HL MB en curso, utilizando el proceso definido en la sección F.6.4 ‘Proceso de obtención del tipo de macrobloque y el tipo de submacrobloque en la predicción intercapa’ del documento JVT de la ISO/IEC MPEG & ITU-T VCEG JVT-S202 titulado “Joint Scalable Video Model JSVM-6: Joint Draft 6 with proposed changes” (Modelo de Video Escalable Conjunto JSVM-6: Proyecto Conjunto 6 con los cambios propuestos) que comienza con las siguientes líneas:
-
El elemento partInfo[x, y] se obtiene como sigue.
-
Si mbAddrBase se marca como no disponible, partInfo[x, y] se marca como no disponible.
-
En otro caso, se aplica lo siguiente.
-
Si el macrobloque mbAddrBase es intra codificado,
partInfo[x, y] = - 1 (F-43)
-
En otro caso,
partInfo[ x, y ] = 16 * mbAddrBase + 4 * mbPartldxBase +
subMbPartldxBase (F-44)
Finalmente, se obtienen los vectores de movimiento y los índices de referencia en la subetapa 2620, para cada fracción y posible subfracción del HL MB en curso, a partir de los vectores de movimiento y los índices de referencia de la fracción o subfracción de la capa de base, si existen, de los real_base_MBs asociados a cada elem_blk del mencionado HL MB en curso, sobre la base del modo de fotograma o campo del HL MB y del modo de fotograma o campo del macrobloque de la capa de base real_base_MB, como se describe en la sección F.8.6. ‘Proceso de remuestreo para datos de movimiento’ del documento JVT de la ISO/IEC MPEG & ITU-T VCEG JVT-S202.
El método según la invención puede ser usado por un proceso para la codificación de señales de video y por un proceso para la descodificación de señales de video. Cuando se usa por un proceso para la codificación de señales de video, el proceso de codificación selecciona para codificar el HL MB en curso utilizado bien como un modo de predicción de capa intermedia o bien como un modo de predicción clásico.
La invención también concierne a un dispositivo de codificación 8 representado en la figura 4. El dispositivo de codificación 8 comprende un primer módulo 80 de codificación para codificar las imágenes de baja resolución. El módulo 80 genera un flujo de datos de la capa de base y datos de movimiento para las mencionadas imágenes de baja resolución. Preferentemente el módulo 80 se adapta para generar un flujo de datos de la capa de base compatible con la norma MPEG4 AVC. El dispositivo de codificación 8 comprende medios de adquisición 82 utilizados para obtener datos de movimiento para las imágenes de alta resolución a partir de los datos de movimiento de las imágenes de baja resolución generadas por el primer módulo 80 de codificación. Los medios de adquisición 82 se adaptan a implementar las etapas 2100 a 2600 del método según la invención. El dispositivo 8 de codificación comprende un segundo módulo 81 de codificación para la codificación de las imágenes de alta resolución. El segundo módulo 81 de codificación utiliza los datos de movimiento obtenidos por los medios de adquisición 82 con el fin de codificar las imágenes de alta resolución. El segundo módulo 81 de codificación genera así un flujo de datos de la capa de mejora. Preferentemente, el dispositivo de codificación 8 también comprende un módulo 83 (por ejemplo un multiplexor) que combina el flujo de datos de la capa de base y el flujo de datos de la capa de mejora proporcionados respectivamente por el primer módulo 80 de codificación y por el segundo módulo 81 de codificación para generar un flujo de datos único. Por lo tanto, si un HL MB se codifica mediante el segundo módulo 81 de codificación utilizando el modo de predicción de capa intermedia, los datos de movimiento referidos al mencionado HL MB no son codificados en el flujo de datos ( o sólo parcialmente, ya que posiblemente podría codificarse un perfeccionamiento de movimiento en un cuarto de píxel), ya que son obtenidos a partir de los datos de movimiento referidos a los BL MBs que se proveen mediante el módulo 80. Esto permite ahorrar algunos bits. Por otro lado, si un HL MB se codifica utilizando un modo clásico (por ejemplo el modo bidireccional) entonces los datos de movimiento referidos al mencionado HL MB se codifican en el flujo de datos.
La invención también se refiere a un dispositivo 9 de descodificación representado en la figura 5 para la descodificación de imágenes de alta resolución a partir de un flujo de datos generados con el dispositivo 8 de codificación. El dispositivo 9 de descodificación comprende un primer módulo 91 de descodificación para decodificar una primera parte del flujo de datos, llamado flujo de datos de la capa de base, con el fin de obtener imágenes de 5 baja resolución y datos de movimiento para las mencionadas imágenes de baja resolución. Preferentemente el módulo 91 se adapta a descodificar un flujo de datos compatible con la norma MPEG4 AVC. El dispositivo descodificador 9 comprende medios de adquisición 82 utilizados para obtener datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución generados por el primer módulo descodificador 91. Los medios de adquisición 82 se adaptan para implementar las etapas 2100 a 2600 del método 10 según la invención. El dispositivo descodificador 9 comprende un segundo módulo descodificador 92 para la descodificación de una segunda parte del flujo de datos, llamado flujo de datos de la capa de mejora. El segundo módulo descodificador 92 utiliza los datos de movimiento obtenidos por los medios de adquisición 82 con el fin de descodificar una segunda parte del flujo de datos. El segundo módulo descodificador 92 genera así las imágenes de alta resolución. De manera ventajosa, el dispositivo 9 comprende también un módulo de extracción 90 (por ejemplo
15 un desmultiplexor) para extraer el flujo de datos de la capa de base y el flujo de datos de la capa de mejora a partir del flujo de datos recibido.
Según otra realización, el dispositivo descodificador recibe dos flujos de datos: un flujo de datos de la capa de base y un flujo de datos de la capa de mejora. En este caso el dispositivo 9 no comprende un módulo de extracción 90.
La invención no está limitada a las realizaciones descritas. Particularmente, la invención descrita para dos 20 secuencias de imágenes, es decir, dos capas espaciales, puede utilizarse para codificar más de dos secuencias de imágenes.

Claims (11)

  1. REIVINDICACIONES
    1. Método para la obtención de datos de movimiento para al menos un macrobloque de una imagen de alta resolución dividido en bloques elementales que no solapan, llamado macrobloque de capa alta, a partir de datos de movimiento asociados a macrobloques de una imagen de baja resolución, llamados macrobloques de la capa de base, estando un modo de codificación de macrobloque, entre el modo de fotograma y el modo de campo, asociado a cada macrobloque y estando un modo de codificación de imagen asociado a la mencionada imagen de alta resolución y a la mencionada imagen de baja resolución, caracterizado porque comprende las siguientes etapas:
    -
    computar (2200), para cada bloque elemental de dicho al menos un macrobloque, una posición intermedia dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base virtual (vbl_pos), a partir de la posición del mencionado bloque elemental dentro de la mencionada imagen de alta resolución dependiendo del modo de codificación del mencionado macrobloque de capa alta y dependiendo de los modos de codificación de imagen de las mencionadas imágenes de alta y baja resolución;
    -
    identificar (2300), para cada bloque elemental, el macrobloque de la capa de base, llamado base_MB, que comprende el píxel situado en la mencionada posición de la capa de base virtual;
    -
    computar (2400), para cada bloque elemental, una posición final dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base real, a partir de la mencionada posición de la capa de base virtual dependiendo de los modos de codificación del mencionado base_MB y de los macrobloques de la capa alta;
    -
    identificar (2500), para cada bloque elemental del mencionado al menos un macrobloque, el macrobloque de la capa de base, llamado real_base_MB, que comprende el píxel situado en la citada posición de la capa de base real; y
    -
    obtener (2600) los datos de movimiento, para el mencionado macrobloque de la capa alta, a partir de los datos de movimiento del macrobloque de la capa de base identificado real_base_MB para cada bloque elemental.
  2. 2.
    El método según la reivindicación 1, en el que los macrobloques de la capa de base están fraccionados y los datos de movimiento se asocian a cada una de las fracciones y en el que dicho método comprende además una etapa para identificar, para cada bloque elemental, la fracción (mbPartldxBase) de dicho real_base_MB que comprende el píxel situado en la mencionada posición de la capa de base real después de la etapa de identificación (2500), comprendiendo el macrobloque de la capa de base, llamado real_base_MB, para cada bloque elemental, el píxel situado en la mencionada posición de la capa de base real.
  3. 3.
    El método según la reivindicación 2, en el que la etapa (2600) para obtener los datos de movimiento para el mencionado macrobloque de la capa alta comprende las etapas de:
    -
    fraccionar el macrobloque de la capa alta mencionado dependiendo del mencionado macrobloque de la capa de base identificado real_base_MB y dependiendo de dicho fraccionamiento identificado de dicho macrobloque de la capa de base real_base_MB para cada bloque elemental; y
    -
    obtener vectores de movimiento para cada fracción del mencionado macrobloque de la capa alta a partir de datos de movimiento del mencionado macrobloque de la capa de base identificado real_base_MB para cada bloque elemental.
  4. 4.
    El método según cualquiera de las reivindicaciones 1 a 3, en el que dicho macrobloque de la capa alta es un bloque de 16 por 16 píxeles y en el que cada bloque elemental es un bloque de 4 por 4 píxeles.
  5. 5.
    El método según cualquiera de las reivindicaciones 1 a 4, en el que dicho método es parte de un proceso para la codificación de señales de video.
  6. 6.
    El método según cualquiera de las reivindicaciones 1 a 4, en el que dicho método es parte de un proceso para la descodificación de señales de video.
  7. 7.
    El dispositivo (8) para la codificación de una secuencia de imágenes de alta resolución y una secuencia de imágenes de baja resolución, siendo cada imagen dividida en macrobloques que no se solapan divididos a su vez en bloques elementales que no se solapan, estando asociado a cada macrobloque un modo de codificación de macrobloque entre el modo de fotograma y el modo de campo y estando asociado a las mencionadas imágenes de
    alta resolución y a las mencionadas imágenes de baja resolución un modo de codificación de imagen, comprendiendo dicho dispositivo:
    -
    primeros medios de codificación (80) para la codificación de las mencionadas imágenes de baja resolución, generando dichos primeros medios de codificación datos de movimiento para los macrobloques de las mencionadas imágenes de baja resolución y un flujo de datos de la capa de base;
    -
    medios de adquisición (82) para la obtención de datos de movimiento para al menos un macrobloque de una imagen de alta resolución, llamado macrobloque de capa alta, a partir de los datos de movimiento de los macrobloques de una imagen de baja resolución, llamados macrobloques de la capa de base; y
    -
    segundos medios de codificación (81) para la codificación de las mencionadas imágenes de alta resolución usando los mencionados datos de movimiento obtenidos, generando dichos segundos medios de codificación un flujo de datos de la capa de mejora;
    caracterizado porque los medios de adquisición (82) comprenden:
    -
    medios para computar, para cada bloque elemental del mencionado al menos un macrobloque, una posición intermedia dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base virtual (vbl_pos), a partir de la posición de los mencionados bloques elementales dentro de la mencionada imagen de alta resolución dependiendo del modo de codificación del mencionado macrobloque de la capa alta y dependiendo de los modos de codificación de imagen de las mencionadas imágenes de alta y baja resolución;
    -
    medios para identificar, para cada bloque elemental, el macrobloque de la capa de base, llamado base_MB, que comprende el píxel situado en la mencionada posición de la capa de base virtual;
    -
    medios para computar, para cada bloque elemental, una posición final dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base real, a partir de la posición mencionada de la capa de base virtual dependiendo de los modos de codificación del mencionado base_MB y de los macrobloques de la capa alta;
    -
    medios para identificar, para cada bloque elemental del mencionado al menos un macrobloque, el macrobloque de la capa de base, llamado real_base_MB, que comprende el píxel situado en la mencionada posición de la capa de base real; y
    -
    medios para obtener datos de movimiento, para el mencionado macrobloque de la capa alta, a partir de datos de movimiento del mencionado macrobloque de la capa de base identificado real_base_MB para cada bloque elemental.
  8. 8.
    Un dispositivo según la reivindicación 7, en el que los mencionados primeros medios de codificación son un codificador de video MPEG-4 AVC.
  9. 9.
    Un dispositivo según la reivindicación 7 u 8, en el que el mencionado dispositivo comprende además medios (83) para combinar el flujo de datos de la capa de base y el flujo de datos de la capa de mejora en un único flujo de datos.
  10. 10.
    Un dispositivo (9) para la descodificación de al menos una secuencia de imágenes de alta resolución, surgiendo las imágenes codificadas en forma de un flujo de datos, en el que cada imagen está dividida en macrobloques que no se solapan divididos en bloques elementales que no se solapan, estando asociado un modo de codificación de macrobloque entre el modo de fotograma y el modo de campo a cada macrobloque y estando asociado un modo de codificación de imagen a las mencionadas imágenes de alta y a las mencionadas imágenes de baja resolución, comprendiendo el mencionado dispositivo:
    -
    medios de descodificación principales (91) para descodificar al menos una primera parte del mencionado flujo de datos con el fin de generar imágenes de baja resolución y datos de movimiento para los macrobloques de la mencionada imagen de baja resolución;
    -
    medios de adquisición (82) para obtener datos de movimiento para al menos un macrobloque de una imagen de alta resolución, llamado macrobloque de la capa alta, a partir de los datos de movimiento de macrobloques de una imagen de baja resolución, llamados macrobloques de la capa de base; y
    -
    segundos medios de descodificación (92) para descodificar al menos una segunda parte del mencionado flujo de datos usando los mencionados datos de movimiento obtenidos con el fin de generar imágenes de alta resolución;
    caracterizado porque los medios de adquisición (82) comprenden:
    -
    medios para computar, para cada bloque elemental del mencionado al menos un macrobloque, una posición intermedia dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base virtual (vbl_pos), a partir de la posición de los mencionados bloques elementales dentro de la mencionada imagen de alta resolución dependiendo del modo de codificación del mencionado macrobloque de la capa alta y dependiendo de los modos de codificación de imagen de las mencionadas imágenes de alta y baja resolución;
    -
    medios para identificar, para cada bloque elemental, el macrobloque de la capa de base, llamado base_MB, que comprende el píxel situado en la mencionada posición de la capa de base virtual;
    -
    medios para computar, para cada bloque elemental, una posición final dentro de la mencionada imagen de baja resolución, llamada posición de la capa de base real, a partir de la mencionada posición de la capa de base virtual dependiendo de los modos de codificación del mencionado base_MB y de los macrobloques de la capa alta;
    -
    medios para identificar, para cada bloque elemental del mencionado al menos un macrobloque, el macrobloque de la capa de base, llamado real_base_MB, que comprende el píxel situado en la mencionada posición de la capa de base real; y
    -
    medios para obtener datos de movimiento, para el macrobloque de la capa alta mencionado, a partir de datos de movimiento del mencionado macrobloque de la capa de base identificado real_base_MB para cada bloque elemental.
  11. 11. Un dispositivo según la reivindicación 10, en el que los mencionados primeros medios de descodificación son un descodificador de video MPEG-4 AVC.
ES07786985T 2006-07-12 2007-07-02 Método para derivar datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución y dispositivos codificadores y descodificadores que ponen en práctica dicho método Active ES2379399T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06300798A EP1879399A1 (en) 2006-07-12 2006-07-12 Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
EP06300798 2006-07-12
PCT/EP2007/056640 WO2008006728A2 (en) 2006-07-12 2007-07-02 Method for deriving motion data for high resolution pictures from motion data of low resoluton pictures and coding and decoding devices implementing said method

Publications (1)

Publication Number Publication Date
ES2379399T3 true ES2379399T3 (es) 2012-04-25

Family

ID=37465069

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07786985T Active ES2379399T3 (es) 2006-07-12 2007-07-02 Método para derivar datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución y dispositivos codificadores y descodificadores que ponen en práctica dicho método

Country Status (12)

Country Link
US (1) US9167266B2 (es)
EP (2) EP1879399A1 (es)
JP (1) JP5211048B2 (es)
KR (1) KR101368943B1 (es)
CN (1) CN101491100B (es)
AT (1) ATE544294T1 (es)
BR (1) BRPI0714061A2 (es)
ES (1) ES2379399T3 (es)
PL (1) PL2047684T3 (es)
RU (1) RU2437246C2 (es)
TW (1) TWI456994B (es)
WO (1) WO2008006728A2 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8687688B2 (en) 2006-01-09 2014-04-01 Lg Electronics, Inc. Inter-layer prediction method for video signal
US8665946B2 (en) * 2007-10-12 2014-03-04 Mediatek Inc. Macroblock pair coding for systems that support progressive and interlaced data
US9491458B2 (en) * 2012-04-12 2016-11-08 Qualcomm Incorporated Scalable video coding prediction with non-causal information
KR20140087971A (ko) 2012-12-26 2014-07-09 한국전자통신연구원 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5270813A (en) 1992-07-02 1993-12-14 At&T Bell Laboratories Spatially scalable video coding facilitating the derivation of variable-resolution images
JP3189258B2 (ja) 1993-01-11 2001-07-16 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
JP3788823B2 (ja) 1995-10-27 2006-06-21 株式会社東芝 動画像符号化装置および動画像復号化装置
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5852565A (en) 1996-01-30 1998-12-22 Demografx Temporal and resolution layering in advanced television
US5737023A (en) * 1996-02-05 1998-04-07 International Business Machines Corporation Hierarchical motion estimation for interlaced video
US5831678A (en) * 1996-08-09 1998-11-03 U.S. Robotics Access Corp. Video encoder/decoder system
JP3263807B2 (ja) 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
US5978509A (en) * 1996-10-23 1999-11-02 Texas Instruments Incorporated Low power video decoder system with block-based motion compensation
KR100341079B1 (ko) * 1997-01-10 2002-06-20 마츠시타 덴끼 산교 가부시키가이샤 화상 처리 방법 및 화상 처리 장치, 및 데이터 기록 매체
US6728775B1 (en) 1997-03-17 2004-04-27 Microsoft Corporation Multiple multicasting of multimedia streams
US6057884A (en) 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6741748B1 (en) * 1997-06-19 2004-05-25 Samsung Electronics Co. Scan interleaving method based on context values of neighboring pixels, improved encoding/decoding method of binary shape data and encoding/decoding apparatus suitable for the same
US6351563B1 (en) * 1997-07-09 2002-02-26 Hyundai Electronics Ind. Co., Ltd. Apparatus and method for coding/decoding scalable shape binary image using mode of lower and current layers
CA2315016C (en) 1997-12-23 2011-10-04 Thomson Licensing S.A. Low noise encoding and decoding method
RU2201654C2 (ru) 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
JP2000013790A (ja) * 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
US6233283B1 (en) * 1998-06-23 2001-05-15 Lucent Technologies Inc. Layered video coding using perceptual coding criteria for error resilience in packet networks
US6603883B1 (en) * 1998-09-08 2003-08-05 Canon Kabushiki Kaisha Image processing apparatus including an image data encoder having at least two scalability modes and method therefor
US6639943B1 (en) * 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6931060B1 (en) 1999-12-07 2005-08-16 Intel Corporation Video processing of a quantized base layer and one or more enhancement layers
JP2001223665A (ja) 2000-02-08 2001-08-17 Matsushita Electric Ind Co Ltd 信号符号化伝送装置、信号復号化受信装置、およびプログラム記録媒体
US6510177B1 (en) * 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
JP4352105B2 (ja) 2000-04-07 2009-10-28 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション アドバンスドテレビジョンの強化された時相及び解像度の階層化
JP2002010251A (ja) 2000-06-19 2002-01-11 Matsushita Electric Ind Co Ltd 映像信号符号化装置および映像信号復号化装置
US6907070B2 (en) 2000-12-15 2005-06-14 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US6980596B2 (en) * 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
US6898313B2 (en) 2002-03-06 2005-05-24 Sharp Laboratories Of America, Inc. Scalable layered coding in a multi-layer, compound-image data transmission system
JPWO2003079692A1 (ja) 2002-03-19 2005-07-21 富士通株式会社 階層符号化装置および復号装置
US7386049B2 (en) 2002-05-29 2008-06-10 Innovation Management Sciences, Llc Predictive interpolation of a video signal
WO2004014083A1 (en) 2002-07-31 2004-02-12 Koninklijke Philips Electronics N.V. Method and apparatus for performing multiple description motion compensation using hybrid predictive codes
JP2004219759A (ja) * 2003-01-15 2004-08-05 Chi Mei Electronics Corp 画像表示処理方法、画像表示処理装置、画像表示装置および画像表示処理システム
TR201807601T4 (tr) 2003-01-30 2018-06-21 Koninklijke Philips Nv Video kodlama.
CN1751519A (zh) 2003-02-17 2006-03-22 皇家飞利浦电子股份有限公司 视频编码
EP1455534A1 (en) 2003-03-03 2004-09-08 Thomson Licensing S.A. Scalable encoding and decoding of interlaced digital video data
KR20060105407A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US7142601B2 (en) 2003-04-14 2006-11-28 Mitsubishi Electric Research Laboratories, Inc. Transcoding compressed videos to reducing resolution videos
US7015920B2 (en) * 2003-04-30 2006-03-21 International Business Machines Corporation Method and system for providing useable images on a high resolution display when a 2D graphics window is utilized with a 3D graphics window
JP2005033336A (ja) 2003-07-08 2005-02-03 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US7362809B2 (en) 2003-12-10 2008-04-22 Lsi Logic Corporation Computational reduction in motion estimation based on lower bound of cost function
JP2005260912A (ja) 2004-02-10 2005-09-22 Matsushita Electric Ind Co Ltd 映像通信装置および映像通信方法
US8503542B2 (en) 2004-03-18 2013-08-06 Sony Corporation Methods and apparatus to reduce blocking noise and contouring effect in motion compensated compressed video
US20060012719A1 (en) 2004-07-12 2006-01-19 Nokia Corporation System and method for motion prediction in scalable video coding
DE102004059993B4 (de) 2004-10-15 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium
KR100703740B1 (ko) * 2004-10-21 2007-04-05 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
US7817723B2 (en) 2004-12-14 2010-10-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Apparatus and method of optimizing motion estimation parameters for encoding a video signal
US8363730B2 (en) 2004-12-16 2013-01-29 Intel Corporation Local macroblock information buffer
US20060176955A1 (en) 2005-02-07 2006-08-10 Lu Paul Y Method and system for video compression and decompression (codec) in a microprocessor
US20060262860A1 (en) * 2005-02-23 2006-11-23 Chou Jim C Macroblock adaptive frame/field coding architecture for scalable coding
US7961963B2 (en) 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR100763179B1 (ko) * 2005-04-01 2007-10-04 삼성전자주식회사 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
KR100896279B1 (ko) 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP5017825B2 (ja) 2005-09-15 2012-09-05 ソニー株式会社 復号装置および復号方法
US7777812B2 (en) * 2005-11-18 2010-08-17 Sharp Laboratories Of America, Inc. Methods and systems for picture resampling

Also Published As

Publication number Publication date
WO2008006728A3 (en) 2008-04-03
EP2047684A2 (en) 2009-04-15
KR101368943B1 (ko) 2014-02-28
US20090323811A1 (en) 2009-12-31
PL2047684T3 (pl) 2012-05-31
CN101491100B (zh) 2011-03-02
US9167266B2 (en) 2015-10-20
JP2009543486A (ja) 2009-12-03
WO2008006728A2 (en) 2008-01-17
EP1879399A1 (en) 2008-01-16
JP5211048B2 (ja) 2013-06-12
CN101491100A (zh) 2009-07-22
BRPI0714061A2 (pt) 2012-12-11
EP2047684B1 (en) 2012-02-01
TWI456994B (zh) 2014-10-11
ATE544294T1 (de) 2012-02-15
KR20090037886A (ko) 2009-04-16
RU2009104704A (ru) 2010-08-20
TW200812396A (en) 2008-03-01
RU2437246C2 (ru) 2011-12-20

Similar Documents

Publication Publication Date Title
US8446956B2 (en) Inter-layer motion prediction method using resampling
TWI558178B (zh) 用於寫碼視訊資料之方法及器件及電腦可讀儲存媒體
JP5238021B2 (ja) スケーラブル・ストリームの形でビデオ・コンテンツを符号化する装置および方法
AU2006270625B2 (en) Method of encoding and decoding video signals
EP1878260B1 (en) Method for scalably encoding and decoding video signal
EP1711018A1 (en) Method and apparatus for encoding video pictures, and method and apparatus for decoding video pictures
JP2008104188A (ja) 画像の系列をスケーラブル形式で符号化する装置および方法ならびに対応する復号装置および方法
BR122020002133B1 (pt) Aparelho e método de gerar candidatos de preditores de vetor de movimento
BR112016024233B1 (pt) Método e aparelho para codificar uma imagem de camada de aperfeiçoamento em um fluxo de bits de múltiplas camadas
BR122018004903B1 (pt) ladrilhamento em codificação e decodificação de vídeo
KR20130085977A (ko) 변환 유닛 내의 다수 부호 비트 은폐
KR20140089584A (ko) 부호화 장치, 복호화 장치, 부호화 방법, 복호화 방법, 및 컴퓨터 판독가능 기억 매체
BR122020015661B1 (pt) Dispositivo de decodificação de vídeo e método de decodificação de vídeo
BR112016015453B1 (pt) Suporte de camada base de codec diferente em codificação de vídeo de várias camadas
ES2379399T3 (es) Método para derivar datos de movimiento para imágenes de alta resolución a partir de datos de movimiento de imágenes de baja resolución y dispositivos codificadores y descodificadores que ponen en práctica dicho método
CN1268136C (zh) 基于图像切片结构的帧场自适应编码方法
KR20010045132A (ko) 인트라 프레임 부호화 방법
EP1848218A1 (en) Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
CN104469369B (zh) 一种利用解码端信息提高svc性能的方法
KR20120084628A (ko) 다시점 영상 부호화/복호화 장치 및 방법
CN1219404C (zh) 用于宏块组结构的两阶段编码的参考缓存的存储方法
KR101353655B1 (ko) 이종 코덱을 이용한 스케일러블 비디오 부호화 및 복호화 방법 및 그 장치
KR20090046791A (ko) 인코딩 방법, 디코딩 방법, 상기 방법을 구현하는 디바이스, 및 비트스트림
Gabriellini et al. for High Efficiency Video Coding
KR20130055316A (ko) 화면내 예측 부호화를 위한 영상 부호화/복호화 방법 및 장치