ES2318402T3 - Procedimiento y disposicion para la codificacion de video,comprendiendo la codificacion de video analisis de textura y sintesis de textura asi como distorsion de textura,como un programa informativo correspondiente y 1 medio de almacenamiento legible por ordenador correspondiente. - Google Patents

Procedimiento y disposicion para la codificacion de video,comprendiendo la codificacion de video analisis de textura y sintesis de textura asi como distorsion de textura,como un programa informativo correspondiente y 1 medio de almacenamiento legible por ordenador correspondiente. Download PDF

Info

Publication number
ES2318402T3
ES2318402T3 ES05022899T ES05022899T ES2318402T3 ES 2318402 T3 ES2318402 T3 ES 2318402T3 ES 05022899 T ES05022899 T ES 05022899T ES 05022899 T ES05022899 T ES 05022899T ES 2318402 T3 ES2318402 T3 ES 2318402T3
Authority
ES
Spain
Prior art keywords
texture
areas
images
synthesizable
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES05022899T
Other languages
English (en)
Inventor
Bela Makai
Patrick Ndjiki-Nya
Heiko Schwarz
Aljoscha Smolic
Thomas Dr. Wiegand
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2318402T3 publication Critical patent/ES2318402T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/27Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Procedimiento para la codificación de vídeo, con las siguientes etapas: realizar, para cada imagen de un grupo de imágenes de una secuencia de vídeo, un análisis de textura, para subdividir cada imagen en bloques; agrupar bloques con propiedades de color y de textura similares dentro de las imágenes, para determinar zonas de textura sintetizable; y a través de la textura de estas zonas, codificar las escenas de vídeo y generar metadatos para describir las zonas determinadas y para describir la textura sintetizable, presentando la generación de los metadatos la estimación de parámetros de movimiento que describen una distorsión, para adaptar zonas sintetizables en imágenes del grupo de imágenes mediante la distorsión a zonas de textura correspondientes en la primera o la última imagen de este grupo, siendo los parámetros de movimiento parte de los metadatos.

Description

Procedimiento y disposición para la codificación de vídeo, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura así como distorsión de textura, así como un programa informático correspondiente y un medio de almacenamiento legible por ordenador correspondiente.
La invención se refiere a un procedimiento y a una disposición para la codificación de vídeo, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura, así como un programa informático correspondiente y un medio de almacenamiento legible por ordenador correspondiente. La invención puede emplearse especialmente para la reducción de la tasa de transmisión de datos en la transmisión de datos de vídeo.
Muchas escenas de vídeo contienen texturas típicas, tales como agua, hierba, árboles, nubes, arena, etc. Estas texturas tienen por regla general muchos detalles y por tanto son muy complicadas de codificar. La reconstrucción exacta de estas texturas sin embargo puede considerarse no importante, cuando están representadas con una resolución local reducida. Por tanto no es necesario realizar, en primer lugar, una codificación que requiere un gran esfuerzo de cálculo de tales zonas de textura, transmitir la (gran) cantidad de datos que se produce con esto, para reconstruir finalmente la textura basándose en EMC (error medio cuadrático). El observador sólo debe poder detectar la textura representada, irrelevante con respecto a los detalles, lo que incluso en la reconstrucción así realizada con frecuencia no es el caso cuando se utiliza un prefiltro, ya que de este modo se falsea la textura.
Un procedimiento para la codificación de imágenes que comprende análisis de textura y síntesis de textura, se conoce por ejemplo por el artículo Yoon S Y et al: "Subband texture synthesis for image coding", Proceedings of the SPIE, Vol. 3299, enero de 1998, páginas 489 a 497. El procedimiento está diseñado para imágenes fijas. Sin embargo, en el caso de imágenes en movimiento existe adicionalmente otra posibilidad para la reducción de información, debido a la similitud elevada en la mayoría de los casos de imágenes directamente sucesivas.
El documento Smolic et al: "Long-term global motion estimation and its application for sprite coding, content description, and segmentation", IEEE Transactions on Circuits and Systems for Video Technology, Vol. 9(8), diciembre de 1999, describe una denominada "sprite coding" para datos de vídeo. A este respecto se transmite de manera paralela a la secuencia de vídeo un "background sprite" constante por intervalos de tiempo más largos, a partir del que el descodificador calcula mediante distorsiones adecuadas (warping), más una imagen diferencial, la imagen de vídeo actual.
El objetivo de la invención consiste por tanto en proporcionar un procedimiento y una disposición para la codificación de vídeo, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura, así como un programa informático correspondiente y un medio de almacenamiento legible por ordenador correspondiente, que evitan las desventajas mencionadas de las soluciones conocidas y especialmente posibilitan una reproducción de texturas sin pérdida de calidad visual con reducción simultánea de los datos de vídeo que van a transmitirse.
Este objetivo se soluciona según la invención mediante las características en las reivindicaciones 1, 15, 16, 17, 18 así como 19. Configuraciones convenientes de la invención están contenidas en las reivindicaciones dependientes.
Una ventaja especial del procedimiento para la codificación de vídeo, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura, consiste en que se reduce la tasa de transmisión de datos de los datos de vídeo que van a transmitirse realizándose en el lado del codificador un análisis de textura de escenas de vídeo para la determinación de zonas de textura sintetizable, realizándose una codificación de las escenas de vídeo utilizando información sobre zonas determinadas de textura sintetizable e información sobre la textura de estas zonas y generándose metadatos para la descripción de las zonas determinadas y para la descripción de la textura sintetizable y evaluándose en el lado del descodificador metadatos y datos codificados y reconstruyéndose las escenas de vídeo, generándose sintéticamente texturas mediante evaluación de los metadatos para zonas determinadas.
En una forma de realización preferida del procedimiento según la invención está previsto que se determinen zonas de textura sintetizable mediante una segmentación por división y agrupamiento ("split-and-merge"), subdividiéndose imágenes utilizando un árbol cuaternario ("quadtree") de resolución múltiple en imágenes parciales (bloques). Resulta ventajoso a este respecto el hecho de que la subdivisión de un bloque (bloque de inicio) se interrumpe cuando los subbloques que se producen mediante la siguiente etapa de subdivisión presentan propiedades de color y/o de textura similares a las del bloque de inicio o el tamaño de bloques de la última etapa de subdivisión queda por debajo de un valor preestablecido. Además es ventajoso que bloques cuya subdivisión se interrumpió debido a propiedades de color y/o de textura similares se caracterizan como bloques homogéneos, y los bloques diferentes de los bloques homogéneos una vez realizada la subdivisión de la imagen, como bloques no clasificables. Para la reducción del número de bloques está previsto en una forma de realización que, tras la subdivisión de una imagen para los bloques homogéneos se realice una valoración de similitud y se agrupen bloques similares para formar zonas sintetizables. Una forma de realización especial del procedimiento según la invención prevé a este respecto que la similitud de bloques se valore basándose en los descriptores MPEG-7 descriptor de textura "Edge Histogram" (EH) y/o descriptor "Scalable Color" (SCC).
Otra forma de realización preferida prevé que zonas determinadas de textura sintetizable de una imagen se hagan coincidir con zonas de textura sintetizable de imágenes anteriores de la secuencia de vídeo.
Además es ventajoso cuando la primera y última imagen (las denominados tramas clave) de un grupo de tramas ("Group of Frames" (GoF)) se codifican basándose en un procedimiento de error medio cuadrático (basado en EMC) y se sintetizan parcialmente imágenes B situadas entre las mismas con zonas sintetizables determinadas. En una forma de realización preferida adicional del procedimiento según la invención está previsto que se garantice la consistencia temporal de la detección de texturas sintetizables de un grupo de tramas (GoF) mediante un catálogo de texturas.
Otra forma de realización preferida prevé que se adapten zonas sintetizables en las imágenes parcialmente sintetizadas a zonas de textura correspondientes en las tramas clave mediante distorsiones adecuadas (warping). Está previsto a este respecto especialmente que el "warping" se realice con ayuda de un modelo de movimiento en perspectiva planar descrito mediante las siguientes ecuaciones
100
en las que
(x, y) son las coordenadas del punto de inicio,
(x', y') las coordenadas transformadas del punto de inicio y
a_{1},..., a_{8} parámetros de modelo.
Se consiguen resultados especialmente buenos de la síntesis de textura cuando mediante el "warping" se distorsiona la textura de la primera o última imagen del GoF actual en la dirección de la zona de textura sintetizable determinada, asociándose a cada zona de textura de este tipo un conjunto de parámetros de movimiento y un parámetro de control, indicando el parámetro de control si se utiliza la primera o la última imagen de un GoF para la síntesis de textura. Para ello está previsto especialmente que para la síntesis de textura se utilice la imagen de un GoF para la que se determina una menor señal diferencial entre la región de textura sintetizada y la original.
En una forma de realización preferida adicional del procedimiento según la invención para la codificación de vídeo está previsto que como metadatos de zonas con textura sintetizable se transmitan por cada zona de textura una máscara de segmentación, un conjunto de parámetros de movimiento y/o un parámetro de control.
Además resulta ventajoso cuando en la descodificación se procesan todos los macrobloques pertenecientes a una textura sintetizable como macrobloques "skipped" (que se han saltado).
Una disposición según la invención presenta al menos un chip y/o procesador que está(n) configurados(s) de modo que puede llevarse a cabo un procedimiento para la codificación de vídeo, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura, estando dispuesto un elemento para llevar a cabo un procedimiento para la codificación de vídeo con las siguientes etapas:
-
realizar en el lado del codificador un análisis de textura de escenas de vídeo para la determinación de zonas de textura sintetizable, utilizando información sobre zonas determinadas de textura sintetizable e información sobre la textura de estas zonas, codificar las escenas de vídeo y generar metadatos para la descripción de las zonas determinadas y para la descripción de la textura sintetizable y
-
evaluar en el lado del descodificador datos y metadatos codificados y reconstruir las escenas de vídeo, generándose sintéticamente texturas mediante evaluación de los metadatos para zonas determinadas.
En una forma de realización preferida de la disposición según la invención está previsto que la disposición comprenda un codificador de vídeo, un analizador de textura (TA, "Texture Analyzer"), un descodificador de vídeo y un sintetizador de textura (TS, "Texture Synthesizer"), presentando el codificador de vídeo y el analizador de textura (TA) en cada caso una entrada IN de vídeo y el descodificador de vídeo una salida OUT de vídeo, estando conectadas la salida del analizador de textura (TA) con una segunda entrada del codificador de vídeo y la salida del codificador de vídeo con la entrada del descodificador de vídeo, y estando conectada adicionalmente una segunda salida del codificador de vídeo con la entrada del sintetizador de textura (TS).
Resulta ventajoso para realizar la codificación de vídeo según la invención emplear un programa informático que permite a un ordenador llevar a cabo un procedimiento para la codificación de vídeo, una vez cargado en la memoria del ordenador, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura, comprendiendo el programa informático código de programa para llevar a cabo un procedimiento para la codificación de vídeo con las siguientes etapas:
-
realizar en el lado del codificador un análisis de textura de escenas de vídeo para la determinación de zonas de textura sintetizable, utilizando información sobre zonas determinadas de textura sintetizable e información sobre la textura de estas zonas, codificar las escenas de vídeo y generar metadatos para la descripción de las zonas determinadas y para la descripción de la textura sintetizable y
-
evaluar en el lado del descodificador metadatos y datos codificados y reconstruir las escenas de vídeo, generándose sintéticamente texturas mediante evaluación de los metadatos para zonas determinadas.
De manera alternativa puede resultar ventajoso cuando se usa un medio de almacenamiento legible por ordenador, en el que está almacenado un programa que permite a un ordenador llevar a cabo un procedimiento para la codificación de vídeo, una vez cargado en la memoria del ordenador, comprendiendo la codificación de vídeo análisis de textura y síntesis de textura, comprendiendo el programa informático código de programa para llevar a cabo un procedimiento para la codificación de vídeo con las siguientes etapas:
-
realizar en el lado del codificador un análisis de textura de escenas de vídeo para la determinación de zonas de textura sintetizable, utilizando información sobre zonas determinadas de textura sintetizable e información sobre la textura de estas zonas, codificar las escenas de vídeo y generar metadatos para la descripción de las zonas determinadas y para la descripción de la textura sintetizable y
-
evaluar en el lado del descodificador metadatos y datos codificados y reconstruir las escenas de vídeo, generándose sintéticamente texturas mediante la evaluación de los metadatos para zonas determinadas.
La invención se explica a continuación de manera más detallada mediante un ejemplo de realización haciendo referencia a las figuras de los dibujos. Muestran:
la figura 1, codificación de vídeo utilizando un analizador de textura (TA) y un sintetizador de textura (TS);
la figura 2, imagen individual segmentada tras la etapa "Split" (izquierda) y tras la etapa "Merge" (derecha);
la figura 3, "warping" de una zona de textura de la imagen de referencia en la dirección de la zona de imagen que va a rellenarse en la trama actual;
la figura 4, resultados de codificación para la secuencia de prueba "Flower-garden" (jardín de flores);
a)
Arriba a la izquierda: imagen original (imagen nº 6 de la secuencia "Flowergarden");
b)
Abajo a la izquierda: imagen descodificada con regiones de textura sintetizadas;
c)
Arriba a la derecha: señal diferencial (factor de intensificación 3);
d)
Abajo a la derecha: máscara con compensación de movimiento conservadora;
la figura 5, ahorro de la tasa de transmisión de datos ("bitrate savings") en función del parámetro de cuantificación QP.
En el ejemplo de realización descrito a continuación se sigue el planteamiento de realizar una reproducción mejorada de texturas, realizándose mediante el empleo del procedimiento según la invención para la codificación de vídeo un análisis de textura en el lado del transmisor y una síntesis de textura en el lado del descodificador (véase la figura 1).
El analizador de textura identifica regiones de textura irrelevantes con respecto a los detalles, genera máscaras bastas correspondientes y las señaliza al descodificador como información lateral para el sintetizador de textura. Éste último sustituye las texturas identificadas por texturas generadas sintéticamente utilizando la información lateral.
Este modo de proceder se basa en el reconocimiento de que para las texturas irrelevantes con respecto a los detalles identificadas no son adecuados criterios de calidad objetivos habituales, tales como por ejemplo el error medio cuadrático (EMC) para una codificación eficaz, ya que dado el caso se transmiten y reconstruyen detalles irrelevantes. Nuestras investigaciones muestran que con frecuencia es suficiente una medida de similitud MPEG-7 para detectar la calidad de texturas irrelevantes con respecto a los detalles reconstruidas (véase ISO/IEC JTC1/SC29/WG11/N4358: "Text of ISO/IEC 15938-3/FDIS Informationstechnology - Multimedia content description interface - Part 3 Visual", Sydney, Australia, julio de 2001; ISO/IEC JTC1/SC29/WG11/N4362: "MPEG-7 Visual part of eXperimentation Model Version 11.0", Sydney, Australia, julio de 2001.). El uso de criterios de similitud MPEG-7 tiene como consecuencia que las texturas reconstruidas pueden presentar detalles diferentes en comparación con la textura original. Estas diferencias apenas pueden percibirse cuando se mantiene la resolución local de las texturas tras la reconstrucción, y molestan mucho menos que los artefactos correspondientes en la codificación de la señal diferencial con una tasa de transmisión de bits que corresponde a la información lateral.
A continuación van a describirse los algoritmos utilizados para el análisis de textura en el lado del transmisor y para la síntesis de textura en el lado del receptor, así como la integración de sistema en un códec H.264/AVC.
Análisis de textura en el lado del codificador
En el análisis de textura se realiza para cada imagen de una secuencia una segmentación "Split and Merge".
A este respecto se subdivide en la primera etapa (etapa de subdivisión o "Split") cada imagen en bloques y se analiza utilizando un árbol cuaternario de resolución múltiple (véase J. Malki et al.: "Region Queries without Segmentation for Image Retrieval by Convent", VISUAL' 99, páginas 115 a 122, 1999.). El árbol cuaternario de resolución múltiple comprende varios planos, correspondiendo el primero (nivel 0) a la imagen original. El número de bloques en el plano número L asciende a 2^{2L}. Cada bloque en el plano (L-1) se subdivide en el siguiente plano superior (nivel L) en 4 bloques, de modo que el número de bloques de una imagen siempre permanece igual de manera horizontal y vertical (por ejemplo 4 bloques horizontalmente y verticalmente en el segundo plano (L=2)).
Un bloque en el plano (L-1) contiene una textura homogénea cuando sus cuatro subbloques en el nivel número L presentan propiedades de color o de textura similares a las del propio bloque. A este respecto se determina la similitud mediante descriptores MPEG-7 correspondientes, tal como se explicará más adelante. Sólo los bloques no homogéneos se subdividen adicionalmente en el siguiente plano superior. Bloques que incluso tras alcanzar el plano de subdivisión máximo siguen siendo no homogéneos se clasifican como no clasificables. El resultado de la etapa "Split" es normalmente una imagen hipersegmentada que debe procesarse posteriormente en la etapa de agrupamiento o "Merge", agrupándose una parte de los bloques de una imagen hipersegmentada.
Para ello se comparan en la etapa "Merge" bloques homogéneos de dos en dos y en el caso de una similitud suficiente se agrupan para formar un agrupamiento ("cluster"). La figura 2 muestra un ejemplo de una imagen individual segmentada tras la etapa "Split" y tras la etapa "Merge". Regiones que se consideran no clasificables están identificadas por un borde negro, mientras que las regiones clasificadas están marcadas mediante bordes que no son negros.
Puede observarse claramente que el número de regiones homogéneas se ha reducido claramente mediante la etapa "Merge" aguas abajo.
La valoración de similitud entre dos bloques se realiza basándose en dos descriptores MPEG-7 (véase ISO/IEC JTC1/SC29/WG11/N4358: "Text of ISO/IEC 15938-3/FDIS Informationstechnology - Multimedia content description interface - Part 3 Visual", Sydney, Australia, julio de 2001; ISO/IEC JTC1/SC29/WG11/N4362: "MPEG-7 Visual part of eXperimentation Model Version 11.0", Sydney, Australia, julio de 2001.). Se trata por un lado del descriptor de textura "Edge Histogram" (EH) que representa la distribución espacial de cuatro bordes direccionales (uno horizontal, uno vertical y dos oblicuos) y un borde no direccional para 16 regiones locales no solapadas de una imagen. La frecuencia de la aparición de las clases de borde individuales se determina para cada región local por separado. El vector característico EH tiene de este modo la dimensión 80 (16 regiones multiplicadas por cinco clases de bordes). El segundo descriptor MPEG-7 utilizado es el descriptor "Scalable Color" (SCC). Representa un histograma de color en el espacio de color HSV, representando HSV un espacio de color tridimensional con las componentes Hue (tono), Saturation (saturación) y Value (valor). El vector característico SCC utilizado tiene la dimensión 256.
Dos bloques se clasifican como similares cuando la distancia entre los vectores característicos correspondientes se sitúa por debajo de un valor umbral preestablecido. El valor umbral se refiere a este respecto a la distancia máxima posible. Ésta última depende de la métrica seleccionada (I_{1}, I_{2}, EMD) y del descriptor MPEG-7 actual (SCC o EH). El valor umbral cero indica que dos bloques sólo pueden clasificarse como similares en caso de una coincidencia absoluta de sus vectores característicos, mientras que el valor umbral 1 significa que dos bloques cualesquiera siempre son similares, ya que la distancia entre sus vectores característicos no puede ser mayor que la distancia máxima posible. El valor umbral de similitud se fija manualmente para cada secuencia y permanece constante por toda la secuencia.
La segmentación "Split and Merge" procesa cada imagen de manera independiente de las otras imágenes de una secuencia. Se producen a este respecto inconsistencias temporales inevitables con respecto a la detección de textura entre imágenes. Por tanto se hacen coincidir las zonas de textura identificadas de una imagen actual con las zonas de textura de las imágenes anteriores. Para la aplicación prevista es importante que se obtenga la consistencia temporal de la detección de texturas identificadas para cada grupo de tramas (GoF) de la secuencia observada. Un GoF está compuesto a este respecto por dos tramas clave (la primera y la última imagen de un GoF) y varias tramas parcialmente sintetizadas situadas entre las mismas. Las tramas clave son o bien imágenes I o bien imágenes P, que se codifican exclusivamente basándose en EMC.
La consistencia temporal de la detección de texturas irrelevantes con respecto a los detalles identificadas de un GoF se garantiza mediante un catálogo de texturas. En este catálogo de texturas se almacenan las texturas irrelevantes con respecto a los detalles existentes en la secuencia observada. El catálogo de texturas se inicializa con los vectores característicos de las texturas irrelevantes con respecto a los detalles que aparecen en la primera imagen con texturas irrelevantes con respecto a los detalles. Las texturas identificadas de las siguientes imágenes se comparan con las entradas en el catálogo de texturas y, en caso de que exista coincidencia, se asignan a la entrada correspondiente. En caso de ausencia de coincidencia las texturas irrelevantes con respecto a los detalles, no registradas, en cuestión, se introducen en el catálogo de texturas.
Puede aumentarse la fiabilidad de la identificación basada en color o textura de zonas de textura sintetizables de un GoF, cuando las zonas de textura irrelevantes con respecto a los detalles en las imágenes parcialmente sintetizadas se adaptan a las zonas de textura correspondientes en las tramas clave mediante distorsiones adecuadas ("warping"). Las zonas de textura irrelevantes con respecto a los detalles de una imagen se distorsionan por tanto en la dirección de las tramas clave correspondientes (primera y última imagen en el GoF). El "warping" se realiza con ayuda del modelo de movimiento en perspectiva planar, tal como se define por el descriptor de movimiento paramétrico ("Parametric Motion") MPEG-7 (véase ISO/IEC JTC1/SC29/WG11/N4358: "Text of ISO/IEC 15938-3/FDIS Informationstechnology - Multimedia content description interface - Part 3 Visual", Sydney, Australia, julio de 2001; ISO/IEC JTC1/SC29/WG11/N4362: "MPEG-7 Visual part of experimentation Model Version 11.0", Sydney, Australia, julio de 2001.) El modelo de movimiento en perspectiva se describe mediante las siguientes ecuaciones:
1
Las coordenadas (x', y') representan las coordenadas transformadas del punto de inicio (x, y). Los ocho parámetros de modelo se describen mediante a_{1},...,a_{8}. El modelo en perspectiva planar puede describir cualquier movimiento de cualquier cuerpo rígido, en caso de que las operaciones de cámara se limiten meramente a rotación y zoom. En el caso de cuerpos rígidos planares es admisible cualquier operación de cámara. En la práctica estas condiciones se cumplen por regla general para el intervalo de tiempo corto de un GoF. Los parámetros de movimiento (a_{1},...,a_{8}) de las zonas de textura irrelevantes con respecto a los detalles identificadas con respecto a zonas de textura correspondientes de las tramas clave correspondientes se estiman, tal como se representa en (véase A. Smolic y J.-R. Ohm: "Robust Global Motion Estimation Using a Simplified M-Estimator Approach", Proc. ICIP2000, IEEE International Conference on Image Processing, Vancouver, Canadá, septiembre de 2000.). El "warping" sólo puede realizarse cuando existen o se han identificado zonas de textura correspondientes en la primera o en la última imagen del GoF. Sólo aquellos puntos de la zona de textura transformada, que se sitúan dentro de la zona de textura correspondiente de la primera imagen del GoF, pueden utilizarse para la síntesis. Los demás puntos se marcan en la imagen actual como no clasificables, por lo que se reduce la zona de textura sintetizable. Este procedimiento se repite con la última imagen del GoF. El analizador de textura proporciona por tanto dos zonas de textura con compensación de movimiento reducidas para cada región de textura originalmente identificada (tras la etapa "Merge") de una imagen parcialmente sintetizable.
\vskip1.000000\baselineskip
Síntesis de textura en el lado del descodificador
El sintetizador de textura utilizado distorsiona ("warping") la textura de la primera o última imagen del GoF actual en la dirección de la región de textura sintetizable correspondiente, identificada por el analizador de textura (figura 3). Para ello se necesita para cada región de textura sintetizable identificada por el analizador de textura un conjunto de parámetros de movimiento y un parámetro de control. El parámetro de control determina si la primera o la última imagen de un GoF se utiliza para la síntesis de textura. Se utiliza a este respecto siempre la imagen de referencia que lleva a la mejor síntesis de textura. A este respecto la mejor síntesis de textura se caracteriza por una menor señal diferencial entre la región de textura sintetizada y la región de textura original. Este sintetizador de textura proporciona muy buenos resultados para cuerpos rígidos, siempre que se cumplan las hipótesis del modelo de movimiento.
En una forma de realización ejemplar se integraron los procedimientos descritos para el análisis y síntesis de texturas en un códec H.264/AVC (Joint Model 2.1). A este respecto se codifican imágenes I y P basándose en EMC y se utilizan como tramas clave. Imágenes B en cambio pueden sintetizarse parcialmente. Para imágenes B con zonas de textura sintetizables identificadas han de transmitirse por cada región de textura una máscara de segmentación, un conjunto de parámetros de movimiento así como un parámetro de control como información lateral.
En la descodificación, todos los macrobloques pertenecientes a una textura sintetizable se procesan como macrobloques "skipped", es decir, se fijan todos los parámetros y variables necesarios dentro del sector ("slice") para la descodificación de macrobloques subsiguientes (en el orden del descodificador), tal como se especifica para macrobloques "skipped" (véase DRAFT ISO/IEC 14496-10:2002 (E), documento JVT-E146d37: "Editor's Proposed Draft Text Modifications for Joint Video Specification (ITU-T Rec. H264 ISO/IEC 14496-10 AVC), Geneva modifications draft 36", Ginebra, Suiza, octubre de 2002.) Una vez descodificados todos los macrobloques de una imagen, tiene lugar la llamada del sintetizador de textura para rellenar las zonas de textura que van a sintetizarse.
El experimento realizado consistió en integrar un analizador de textura y un sintetizador de textura en un códec de vídeo H.264/AVC (Joint Model 2.1) y codificar y volver a descodificar a continuación secuencias de video. Dos secuencias de prueba conocidas ("Flowergarden" (jardín de flores) y "Concrete" (hormigón)) se utilizaron para ello. Ambas secuencias de prueba contienen texturas que son muy adecuadas para demostrar que puede realizarse una reconstrucción aproximada de determinadas texturas sin pérdida de calidad visual notable.
\newpage
En una forma de realización de la invención se ajustó el códec H.264/AVC como sigue:
-
3 imágenes B,
-
1 imagen de referencia,
-
CABAC (procedimiento de codificación entrópica),
-
Optimización de distorsión de tasa,
-
ningún entrelazado,
-
frecuencia de trama de 30 Hz,
-
parámetros de cuantificación QP = 16, 20, 24, 28 y 32 (figura 5).
Los resultados tenían una calidad de imagen subjetivamente satisfactoria para la secuencia "Flowergarden". La figura 4 muestra los resultados conseguidos en el ejemplo de la 6ª imagen de la secuencia "Flowergarden". La figura 4c muestra que la señal diferencial en la zona del cielo casi es cero, mientras que en la zona de flores se sitúa considerablemente más elevada. En la comparación óptica entre la imagen descodificada y la original aún así no puede observarse prácticamente ninguna diferencia. En este caso se muestra que el valor PSNR no es adecuado como criterio de calidad para este tipo de codificación.
Para poder estimar el ahorro de tasa de transmisión de datos más grande posible se segmentaron manualmente las dos secuencias de prueba para las primeras pruebas. Siguieron pruebas adicionales con máscaras de segmentación generadas de manera semiautomática (véase anteriormente la sección "Análisis de textura en el lado del codificador").
La figura 5 muestra los ahorros de tasa de transmisión de bits conseguidos para ambas secuencias de prueba en función del parámetro de cuantificación (QP). Los mayores ahorros se midieron para la resolución de cuantificación más alta (QP = 16). Ahorros del 20,29% (Flowergarden) y del 23,05% (Concrete) pudieron medirse con máscaras manualmente segmentadas para esta resolución. Con máscaras generadas de manera semiautomática conseguimos ahorros del 5,6% (Flowergarden) y del 18,53% (Concrete) para QP = 16. El ahorro de tasa de transmisión de bits se vuelve más pequeño a medida que disminuye la resolución de cuantificación o aumenta el valor QP. Esto se debe a que la información lateral transmitida permanece constante independientemente de QP. Es decir, la parte de la información lateral en la tasa de transmisión de datos total se vuelve cada vez más grande a medida que se hace más basta la resolución de cuantificación. En el caso de parámetros de cuantificación superiores a 28 ó 32 (figura 5) las tasas de transmisión de datos del códec de vídeo H264/AVC normalizado son aproximadamente iguales o incluso menores que las del códec con análisis y síntesis de textura.
La intersección de las curvas "Concrete" (figura 5) se basa en el hecho de que el número de texturas detectadas en la segmentación semiautomática, visto por toda la secuencia, fue menor que en el caso de la segmentación manual, de modo que la información lateral que tenía que transmitirse fue menor en la segmentación semiautomática que en la manual. Por tanto el volumen de la información lateral fue menor en el caso semiautomático que en el manual. La calidad de imagen subjetiva de las secuencias de imagen codificadas y descodificadas en H264/AVC de vídeo fue comparable, para todos los ajustes QP, a los resultados de la codificación con análisis y síntesis de textura (véase http://bs.hhi.de/~ndjiki/SE.htm).
La invención no se limita en cuanto a su forma de realización a los ejemplos de realización preferidos anteriormente indicados. Más bien es concebible un número de variantes que utilizan la disposición según la invención y el procedimiento según la invención también en el caso de configuraciones básicamente diferentes.
Lista de números de referencia
1
codificador
2
descodificador
3
analizador de textura (TA)
4
sintetizador de textura (TS)

Claims (19)

1. Procedimiento para la codificación de vídeo, con las siguientes etapas:
realizar, para cada imagen de un grupo de imágenes de una secuencia de vídeo, un análisis de textura, para subdividir cada imagen en bloques;
agrupar bloques con propiedades de color y de textura similares dentro de las imágenes, para determinar zonas de textura sintetizable; y
a través de la textura de estas zonas, codificar las escenas de vídeo y generar metadatos para describir las zonas determinadas y para describir la textura sintetizable,
presentando la generación de los metadatos la estimación de parámetros de movimiento que describen una distorsión, para adaptar zonas sintetizables en imágenes del grupo de imágenes mediante la distorsión a zonas de textura correspondientes en la primera o la última imagen de este grupo, siendo los parámetros de movimiento parte de los metadatos.
\vskip1.000000\baselineskip
2. Procedimiento según la reivindicación 1, en el que la realización del análisis de textura presenta la subdivisión de imágenes en bloques utilizando un árbol cuaternario de resolución múltiple.
3. Procedimiento según la reivindicación 2, en el que la subdivisión de un bloque se interrumpe cuando
-
los bloques que se producen mediante la siguiente etapa de subdivisión presentan propiedades de color y/o de textura similares a las de este bloque o
-
el tamaño de bloques de la siguiente etapa de subdivisión queda por debajo de un valor preestablecido.
\vskip1.000000\baselineskip
4. Procedimiento según la reivindicación 3, en el que bloques cuya subdivisión se interrumpió debido a propiedades de color y/o de textura similares se caracterizan como bloques homogéneos, y los bloques diferentes de los bloques homogéneos una vez realizada la subdivisión de la imagen, como bloques no clasificables.
5. Procedimiento según la reivindicación 3 ó 4, en el que tras la subdivisión de una imagen para aquellos bloques, cuya subdivisión se interrumpió debido a propiedades de color y/o de textura similares, se realiza una valoración de similitud y se agrupan bloques similares para formar zonas sintetizables.
6. Procedimiento según la reivindicación 5, en el que la similitud de bloques se valora basándose en descriptores MPEG-7.
7. Procedimiento según la reivindicación 6, en el que la similitud de bloques de valora basándose en los descriptores MPEG-7 descriptor de textura "Edge Histogram" (EH) y/o descriptor "Scalable Color" (SCC).
8. Procedimiento según una de las reivindicaciones anteriores, en el que las zonas determinadas de textura sintetizable de una imagen de una secuencia de vídeo se hacen coincidir con zonas de textura sintetizable de imágenes anteriores de la secuencia de vídeo.
9. Procedimiento según una de las reivindicaciones anteriores, en el que se codifica la primera y última imagen (las denominadas tramas clave) de un grupo de imágenes basándose en un procedimiento de error medio cuadrático (basado en EMC) y se sintetizan parcialmente imágenes B situadas entre las mismas con zonas sintetizables determina-
das.
10. Procedimiento según la reivindicación 9, en el que la consistencia temporal de la detección de texturas sintetizables de un grupo de imágenes se garantiza mediante un catálogo de texturas.
11. Procedimiento según una de las reivindicaciones anteriores, en el que la distorsión se realiza con ayuda de un modelo de movimiento en perspectiva planar descrito mediante las siguientes ecuaciones:
2
en las que
(x, y) son las coordenadas del punto de inicio,
(x', y') las coordenadas transformadas del punto de inicio y
a_{1}, ...,a_{8} parámetros de modelo.
12. Procedimiento según la reivindicación 11, en el que mediante la distorsión se distorsiona la textura de la primera o última imagen del grupo actual de imágenes en la dirección de la zona de textura sintetizable determinada, asociándose a cada una de tales zonas de textura un conjunto de parámetros de movimiento y un parámetro de control, indicando el parámetro de control si se utiliza la primera o la última imagen de un grupo de imágenes para la síntesis de textura.
13. Procedimiento según la reivindicación 12, en el que para la síntesis de textura se utiliza la imagen de un grupo de imágenes, para la que se determina una menor señal diferencial entre la región de textura sintetizada y la original.
14. Procedimiento según una de las reivindicaciones anteriores, en el que como metadatos de zonas con textura sintetizable se generan, por cada zona de textura,
-
una máscara de segmentación,
-
un conjunto de parámetros de movimiento y/o
-
un parámetro de control.
15. Procedimiento para la codificación de vídeo, con las siguientes etapas:
evaluar datos codificados de escenas de vídeo y metadatos para la descripción de zonas determinadas de textura sintetizable en las escenas de vídeo y para la descripción de la textura sintetizable de estas zonas;
y
reconstruir la escenas de vídeo mediante generación sintética de texturas generadas sintéticamente para las zonas determinadas,
caracterizado porque
los metadatos presentan parámetros de movimiento que describen una distorsión para adaptar zonas sintetizables en imágenes de un grupo de imágenes mediante la distorsión a zonas de textura correspondientes en la primera o la última imagen de este grupo, y porque
la reconstrucción presenta la distorsión de las zonas de textura correspondientes en la primera o última imagen del grupo en la dirección de las zonas sintetizables adaptadas en las imágenes del grupo de imágenes utilizando los parámetros de movimiento.
16. Disposición para la codificación de vídeo, con
un dispositivo para realizar, para cada imagen de un grupo de imágenes de una secuencia de vídeo, un análisis de textura, para subdividir cada imagen en bloques, y agrupar bloques con propiedades de color y de textura similares dentro de las imágenes, para determinar zonas de textura sintetizable,
un dispositivo para, utilizando información sobre zonas determinadas de textura sintetizable e información sobre la textura de estas zonas, codificar las escenas de vídeo y generar metadatos para la descripción de las zonas determinadas y para la descripción de la textura sintetizable,
estando el dispositivo para generar los metadatos configurado para estimar parámetros de movimiento que describen una distorsión, para adaptar zonas sintetizables en imágenes del grupo de imágenes mediante la distorsión a zonas de textura correspondientes en la primera o la última imagen de este grupo, siendo los parámetros de movimiento parte de los metadatos.
17. Disposición para la codificación de vídeo, con las siguientes etapas:
un dispositivo para evaluar datos codificados de escenas de vídeo y metadatos para la descripción de zonas determinadas de textura sintetizable en las escenas de vídeo y para la descripción de la textura sintetizable de estas zonas; y
\newpage
un dispositivo para reconstruir las escenas de vídeo mediante generación sintética de texturas generadas sintéticamente para las zonas determinadas,
caracterizada porque
los metadatos presentan parámetros de movimiento que describen una distorsión para adaptar zonas sintetizables en imágenes de un grupo de imágenes mediante la distorsión a zonas de textura correspondientes en la primera o la última imagen de este grupo, y porque
el dispositivo para reconstruir está configurado para distorsionar las zonas de textura correspondientes en la primera o la última imagen del grupo en la dirección de las zonas sintetizables adaptadas en las imágenes del grupo de imágenes utilizando los parámetros de movimiento.
18. Programa informático que permite a un ordenador llevar a cabo un procedimiento según una de las reivindicaciones 1 a 15, una vez cargado en la memoria del ordenador.
19. Medio de almacenamiento legible por ordenador, en el que está almacenado un programa que permite a un ordenador llevar a cabo un procedimiento según una de las reivindicaciones 1 a 15, una vez cargado en la memoria del ordenador.
ES05022899T 2003-02-28 2004-02-26 Procedimiento y disposicion para la codificacion de video,comprendiendo la codificacion de video analisis de textura y sintesis de textura asi como distorsion de textura,como un programa informativo correspondiente y 1 medio de almacenamiento legible por ordenador correspondiente. Expired - Lifetime ES2318402T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10310023 2003-02-28
DE10310023A DE10310023A1 (de) 2003-02-28 2003-02-28 Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium

Publications (1)

Publication Number Publication Date
ES2318402T3 true ES2318402T3 (es) 2009-05-01

Family

ID=32864249

Family Applications (2)

Application Number Title Priority Date Filing Date
ES05022899T Expired - Lifetime ES2318402T3 (es) 2003-02-28 2004-02-26 Procedimiento y disposicion para la codificacion de video,comprendiendo la codificacion de video analisis de textura y sintesis de textura asi como distorsion de textura,como un programa informativo correspondiente y 1 medio de almacenamiento legible por ordenador correspondiente.
ES04714778T Expired - Lifetime ES2280947T3 (es) 2003-02-28 2004-02-26 Procedimiento y disposicion para la codificacion de video, comprendiendo la codificacion de video el analisis de textura y la sintesis de textura, asi como un programa informatico correspondiente y un medio de memoria legible por ordenador correspondiente.

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES04714778T Expired - Lifetime ES2280947T3 (es) 2003-02-28 2004-02-26 Procedimiento y disposicion para la codificacion de video, comprendiendo la codificacion de video el analisis de textura y la sintesis de textura, asi como un programa informatico correspondiente y un medio de memoria legible por ordenador correspondiente.

Country Status (9)

Country Link
US (1) US7949053B2 (es)
EP (2) EP1635578B1 (es)
JP (2) JP4450828B2 (es)
AT (2) ATE415052T1 (es)
DE (3) DE10310023A1 (es)
DK (1) DK1599835T3 (es)
ES (2) ES2318402T3 (es)
PT (1) PT1599835E (es)
WO (1) WO2004077360A1 (es)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1908294A2 (en) * 2005-07-15 2008-04-09 Koninklijke Philips Electronics N.V. Image coder for regions of texture
JP2010514315A (ja) * 2006-12-19 2010-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像信号を符号化するための方法及びシステム、符号化された画像信号、画像信号を復号化するための方法及びシステム
KR101381600B1 (ko) * 2006-12-20 2014-04-04 삼성전자주식회사 텍스처 합성을 이용한 영상의 부호화, 복호화 방법 및 장치
US8208556B2 (en) * 2007-06-26 2012-06-26 Microsoft Corporation Video coding using spatio-temporal texture synthesis
EP2018070A1 (en) * 2007-07-17 2009-01-21 Thomson Licensing Method for processing images and the corresponding electronic device
DE102007036215B4 (de) * 2007-08-02 2009-09-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Störstellenermittlung in Bildern/Videos
JP4659005B2 (ja) * 2007-08-17 2011-03-30 日本電信電話株式会社 テクスチャ合成に基づく動画像符号化方法,復号方法,符号化装置,復号装置およびそれらのプログラムとその記録媒体
US8155184B2 (en) * 2008-01-16 2012-04-10 Sony Corporation Video coding system using texture analysis and synthesis in a scalable coding framework
US8204325B2 (en) 2008-01-18 2012-06-19 Sharp Laboratories Of America, Inc. Systems and methods for texture synthesis for video coding with side information
US9420233B2 (en) * 2008-03-26 2016-08-16 Pelco, Inc. Method and apparatus for dynamically controlling a video surveillance system
WO2009147224A1 (fr) * 2008-06-05 2009-12-10 Thomson Licensing Procede de codage d ' image avec synthese de texture
EP2304958B1 (en) * 2008-06-27 2018-03-21 Thomson Licensing DTV Methods and apparatus for texture compression using patch-based sampling texture synthesis
US8155457B2 (en) * 2008-11-18 2012-04-10 International Business Machines Corporation Corporation Robust encoding of metadata in lossy encoded images
US8363721B2 (en) 2009-03-26 2013-01-29 Cisco Technology, Inc. Reference picture prediction for video coding
MY189368A (en) * 2009-10-20 2022-02-08 Sharp Kk Moving image decoding device, moving image decoding method, moving image coding device, and moving image coding method
WO2011090798A1 (en) 2010-01-22 2011-07-28 Thomson Licensing Data pruning for video compression using example-based super-resolution
EP2526698A1 (en) 2010-01-22 2012-11-28 Thomson Licensing Methods and apparatus for sampling -based super resolution video encoding and decoding
KR101469515B1 (ko) * 2010-09-01 2014-12-05 한국전자통신연구원 영상센서여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치
US8842738B2 (en) * 2010-09-01 2014-09-23 Electronics And Telecommunications Research Institute Signal processing method and apparatus based on multiple textures using video audio excitation signals
KR101469513B1 (ko) * 2010-09-01 2014-12-05 한국전자통신연구원 영상여기신호를 이용한 다중 텍스쳐 이미지 기반 영상 처리 방법 및 장치
US8848800B2 (en) * 2010-09-01 2014-09-30 Electronics And Telecommunications Research Institute Signal processing method and apparatus based on multiple textures using video sensor excitation signals
US8831094B2 (en) * 2010-09-01 2014-09-09 Electronics And Telecommunications Research Institute Video processing method and apparatus based on multiple texture images
KR101527369B1 (ko) * 2010-09-01 2015-06-09 한국전자통신연구원 영상오디오여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치
WO2012033972A1 (en) 2010-09-10 2012-03-15 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
CN103141092B (zh) * 2010-09-10 2016-11-16 汤姆逊许可公司 针对视频压缩使用运动补偿的基于示例的超分辨率来编码视频信号的方法和设备
KR101855542B1 (ko) * 2010-09-10 2018-06-08 톰슨 라이센싱 예제 기반 데이터 프루닝을 이용한 비디오 부호화
WO2012033970A1 (en) 2010-09-10 2012-03-15 Thomson Licensing Encoding of a picture in a video sequence by example - based data pruning using intra- frame patch similarity
EP2579591A1 (en) * 2011-10-04 2013-04-10 Thomson Licensing Method of and device for encoding an HDR image, method of and device for reconstructing an HDR image and non-transitory storage medium
CN103679649B (zh) * 2013-11-18 2016-10-05 联想(北京)有限公司 一种信息处理方法和电子设备
JP5941097B2 (ja) * 2014-05-28 2016-06-29 トムソン ライセンシングThomson Licensing パッチベースのサンプリングテクスチャ合成を用いたテクスチャ圧縮の方法及び装置
JP6527579B2 (ja) 2014-07-30 2019-06-05 エスケー テックス カンパニー、リミテッド クラウドストリーミングサービスシステム、スチールイメージ基盤クラウドストリーミングサービス方法及びそのための装置
EP3177024B1 (en) * 2014-07-30 2020-02-26 Sk Planet Co., Ltd. Apparatus for cloud streaming service
KR102247887B1 (ko) * 2014-10-13 2021-05-04 에스케이플래닛 주식회사 클라우드 스트리밍 서비스 시스템, 소스 정보를 이용한 클라우드 스트리밍 서비스 방법 및 이를 위한 장치
US10074014B2 (en) * 2015-04-22 2018-09-11 Battelle Memorial Institute Feature identification or classification using task-specific metadata
US9852523B2 (en) * 2016-02-24 2017-12-26 Ondrej Jamri{hacek over (s)}ka Appearance transfer techniques maintaining temporal coherence
US9870638B2 (en) 2016-02-24 2018-01-16 Ondrej Jamri{hacek over (s)}ka Appearance transfer techniques
JP6883219B2 (ja) 2016-04-22 2021-06-09 ソニーグループ株式会社 符号化装置及び符号化方法、並びに、システム
US20190087930A1 (en) * 2017-09-18 2019-03-21 Qualcomm Incorporated Adding metadata to texture surfaces for bandwidth compression
US10805629B2 (en) * 2018-02-17 2020-10-13 Google Llc Video compression through motion warping using learning-based motion segmentation
US10887589B2 (en) * 2019-04-12 2021-01-05 Realnetworks, Inc. Block size determination for video coding systems and methods
CN113742288B (zh) * 2020-05-29 2024-09-24 伊姆西Ip控股有限责任公司 用于数据索引的方法、电子设备和计算机程序产品

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
DE69228983T2 (de) * 1991-12-18 1999-10-28 Koninklijke Philips Electronics N.V., Eindhoven System zum Übertragen und/oder Speichern von Signalen von texturierten Bildern
KR970003799B1 (ko) * 1993-12-29 1997-03-21 양승택 영상 프레임차를 이용한 영상신호 전송장치
US6058211A (en) * 1995-07-07 2000-05-02 Imec Vzw Data compression method and apparatus
EP0836784B1 (en) * 1996-05-06 2003-09-17 Koninklijke Philips Electronics N.V. Segmented video coding and decoding method and system
US6990248B2 (en) * 1996-05-09 2006-01-24 Koninklijke Philips Electronics N.V. Segmented video coding and decoding method and system
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
EP0933939A4 (en) * 1997-07-18 1999-12-22 Sony Corp METHOD AND SYSTEM FOR MULTIPLEXING AN IMAGE SIGNAL, METHOD AND SYSTEM FOR DEMULTIPLEXING AN IMAGE SIGNAL, AND TRANSMISSION MEDIUM
US6236757B1 (en) * 1998-06-18 2001-05-22 Sharp Laboratories Of America, Inc. Joint coding method for images and videos with multiple arbitrarily shaped segments or objects
US6593925B1 (en) * 2000-06-22 2003-07-15 Microsoft Corporation Parameterized animation compression methods and arrangements
US20030012287A1 (en) * 2001-03-05 2003-01-16 Ioannis Katsavounidis Systems and methods for decoding of systematic forward error correction (FEC) codes of selected data in a video bitstream
US6810086B1 (en) * 2001-06-05 2004-10-26 At&T Corp. System and method of filtering noise
US7606435B1 (en) * 2002-02-21 2009-10-20 At&T Intellectual Property Ii, L.P. System and method for encoding and decoding using texture replacement
US6947045B1 (en) * 2002-07-19 2005-09-20 At&T Corporation Coding of animated 3-D wireframe models for internet streaming applications: methods, systems and program products

Also Published As

Publication number Publication date
WO2004077360A1 (de) 2004-09-10
PT1599835E (pt) 2007-03-30
EP1635578A2 (de) 2006-03-15
EP1635578B1 (de) 2008-11-19
DE502004002904D1 (de) 2007-03-29
EP1599835A1 (de) 2005-11-30
JP5063648B2 (ja) 2012-10-31
DK1599835T3 (da) 2007-06-04
US7949053B2 (en) 2011-05-24
ES2280947T3 (es) 2007-09-16
JP2006519533A (ja) 2006-08-24
JP4450828B2 (ja) 2010-04-14
EP1635578A3 (de) 2007-06-27
DE10310023A1 (de) 2004-09-16
JP2010011470A (ja) 2010-01-14
ATE354143T1 (de) 2007-03-15
DE502004008490D1 (de) 2009-01-02
ATE415052T1 (de) 2008-12-15
US20060039617A1 (en) 2006-02-23
EP1599835B1 (de) 2007-02-14

Similar Documents

Publication Publication Date Title
ES2318402T3 (es) Procedimiento y disposicion para la codificacion de video,comprendiendo la codificacion de video analisis de textura y sintesis de textura asi como distorsion de textura,como un programa informativo correspondiente y 1 medio de almacenamiento legible por ordenador correspondiente.
US10582217B2 (en) Methods and apparatuses for coding and decoding depth map
ES2541807T3 (es) Procedimiento y aparato para decodificar una señal de vídeo
Morvan et al. Platelet-based coding of depth maps for the transmission of multiview images
ES2239375T3 (es) Metodo para reducir los requisitos de potencia de un decodificador de video.
ES2652132T3 (es) Método y aparato para codificar y descodificar un bloque de textura mediante el uso de partición de bloque basada en la profundidad
EP1729521A2 (en) Intra prediction video encoding and decoding method and apparatus
CN103069802B (zh) 重构图像的当前块的方法和对应的编码方法、对应的装置
AU2005272287A1 (en) Method and device for motion estimation and compensation for panorama image
Ndjiki-Nya et al. Improved H. 264/AVC coding using texture analysis and synthesis
WO2005088981A1 (en) Encoding apparatus, encoding method, decoding apparatus, and decoding method
CN101682758A (zh) 用于对图像信号进行编码的方法和系统、经编码的图像信号、用于对图像信号进行解码的方法和系统
KR20080058128A (ko) 텍스처 합성을 이용한 영상의 부호화, 복호화 방법 및 장치
JP2003309726A (ja) 圧縮デジタル画像の最適トランスコード処理を容易に行うためのレート歪情報符号化方法
Chao et al. Keypoint encoding for improved feature extraction from compressed video at low bitrates
US20110081093A1 (en) Image coding method with texture synthesis
JP2021514145A5 (es)
US6845130B1 (en) Motion estimation and compensation for video compression
CN105704489B (zh) 一种基于宏块复杂度的自适应视频运动矢量隐写方法
EP2953357A1 (en) Video encoding method, decoding method and apparatus
KR20230080447A (ko) 장면의 하나 이상의 뷰들을 인코딩 및 디코딩하기 위한 방법 및 장치
US11973981B2 (en) Coding and decoding of an omnidirectional video
CN103248885B (zh) 帧内图像预测编解码方法及视频编解码器
JP2012513141A (ja) ビデオピクチャ系列の動きパラメータを予測及び符号化する方法及び装置
Brandao et al. Blind PSNR estimation of video sequences using quantized DCT coefficient data