ES2265504T3 - Procedimiento para la compresion y la descompresion de datos de video. - Google Patents

Procedimiento para la compresion y la descompresion de datos de video. Download PDF

Info

Publication number
ES2265504T3
ES2265504T3 ES02729802T ES02729802T ES2265504T3 ES 2265504 T3 ES2265504 T3 ES 2265504T3 ES 02729802 T ES02729802 T ES 02729802T ES 02729802 T ES02729802 T ES 02729802T ES 2265504 T3 ES2265504 T3 ES 2265504T3
Authority
ES
Spain
Prior art keywords
pixel
pixels
priority
groups
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02729802T
Other languages
English (en)
Inventor
Gerd Mossakowski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telekom Deutschland GmbH
Original Assignee
T Mobile Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by T Mobile Deutschland GmbH filed Critical T Mobile Deutschland GmbH
Application granted granted Critical
Publication of ES2265504T3 publication Critical patent/ES2265504T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Procedimiento para la compresión de datos de vídeo compuesto por un vector de puntos de imagen individuales (píxeles), en el cual cada píxel (0-419) presenta un valor de píxel que cambia en el tiempo y que contiene la información de color o brillo de dicho píxel, caracterizado por los siguientes pasos: a) determinación del valor de prioridad de cada píxel del vector mediante la identificación del píxel que se utilizará como píxel de referencia (P0) y el cálculo de los valores de diferencia a partir del valor de píxel que en cada momento presenta el píxel de referencia (P0) en relación con los valores de píxel momentáneos de un grupo de píxeles contiguos (P1-P4) fijado con antelación; b) reunión de los píxeles empleados para el cálculo del valor de prioridad (P0-P4) en un grupo de píxeles; c) ordenamiento de los grupos de píxeles a partir del valor de prioridad del píxel de referencia (P0) correspondiente y colocación dentro de un vector de prioridades, y d) almacenamiento y/o transmisión delos grupos de píxeles en función de su prioridad en el vector de prioridad, almacenándose o transmitiéndose solamente una parte de los grupos de píxeles en función del factor de compresión deseado; repitiéndose continuamente los pasos del a) al d), recalculándose repetidamente los valores de prioridad de los grupos de píxeles y conteniendo el vector de prioridades en todo momento los grupos de píxeles ordenados según la prioridad actual.

Description

Procedimiento para la compresión y la descompresión de datos de vídeo.
El presente invento describe un procedimiento para la compresión y la descompresión de datos de vídeo.
Los vídeos generan una gran cantidad de datos. Para poder transmitir y almacenar estas grandes cantidades de datos resulta conveniente comprimirlos.
Según el estado actual de la técnica, las señales de vídeo se registran y reproducen en una sucesión rápida de imágenes. En televisión (sistema PAL) la velocidad de la sucesión es de 25 imágenes por segundo o de 50 semiimágenes por segundo. En el caso de las grabaciones digitales, ésta es de 30 imágenes por segundo. Cada imagen se descompone en líneas y, a continuación, se transmiten secuencialmente.
Los métodos de compresión hasta ahora existentes se basan esencialmente en la reducción de la definición, el contraste y la disminución de imágenes por segundo. En el caso de la compresión digital como, por ejemplo, los procesos MPEG, se transmiten las imágenes de diferencia en lugar de imágenes completas, es decir, las diferencias entre los puntos de imagen (píxeles) individuales con la imagen anterior. El estándar más moderno de codificación de vídeo es MPEG4.
MPEG son las siglas de "Motion Pictures Expert Group". Este grupo determina los formatos de archivo y los procedimientos para almacenar y comprimir ahorrando espacio datos de vídeo y multimedia (vídeo, datos de imagen y sonido) a alta calidad. El estándar MPEG se divide en MPEG-1, MPEG-2, MPEG-3 y MPEG-4, aunque el estándar MPEG-3 se ha integrado con MPEG-2.
Para que los ordenadores "normales" puedan procesar y transmitir las enormes cantidades de datos de las películas, sólo se almacenan las diferencias con respecto a la imagen anterior. El formato MPEG almacena en intervalos regulares, generalmente, de doce fotogramas, fotogramas I, es decir, imágenes individuales comprimidas con JPEG. En función de las posibilidades, los fotogramas que se encuentran entre dichos fotogramas I no se archivan completamente. Es más, lo que almacena MPEG es el modo en que pueden recuperarse dichos fotogramas mediante el desplazamiento de partes de las imágenes anteriores y posteriores. Para ello, se emplean también fotogramas P (fotogramas predichos) y fotogramas B (fotogramas bidireccionales) anteriores. Pero como el resultado no siempre es perfecto, se almacenan además de la imagen las discrepancias restantes codificadas en JPEG. Con este método puede reducirse el tamaño de archivo de una película de vídeo en un 99% aproximado. La compresión posible puede llegar hasta 200:1.
MPEG-1 se ideó para reproducir vídeo de manera fluida. La compresión/descompresión de MPEG-1 fue en su origen un procedimiento que dependía del hardware. Ahora, gracias a la mayor velocidad de los procesadores, también es posible que la descompresión se realice utilizando software. La principal diferencia entre MPEG-1 y MPEG-2 consiste en que MPEG-2 es capaz de gestionar mejor el procedimiento de salto de líneas (entrelazado) propio de las imágenes de televisión. El secreto de MPEG-2 radica en su compresión de mayor calidad de modo que puede procesarse y editarse el material fílmico con compresión 1 a 1 en calidad de estudio. En consecuencia, MPEG-2 se estableció como un estándar. En caso de codificación de fotogramas-I pura, puede utilizarse MPEG-2 incluso para la realización del corte y montaje. La parte del estándar MPEG-3 prevista para la calidad de televisión de alta definición (HDTV) se ha implementado en la actualidad en el estándar MPEG-2.
MPEG-4 es una evolución del formato MPEG-2 que se encuentra en desarrollo desde 1996. Aunque MPEG-4 fue ideado originalmente como estándar de codificación para datos audiovisuales con velocidad de transmisión muy baja, el desarrollo tenía muchas más finalidades que únicamente el streaming de datos multimedia lineales en aplicaciones inalámbricas o de Internet. MPEG-4 proporciona, por ejemplo, mecanismos efectivos para la compresión y la distribución de contenidos multimedia interactivos. Además, MPEG-4 dispone de potencial para 3D para visualizar inteligencias artificiales o para representar avatares, por ejemplo, en videoconferencias.
La tasa de compresión de MPEG-4 es mayor que la de MPEG-2, con lo cual pueden comprimirse mejor los sprites ya que el mecanismo codificador básicamente dispone de más tiempo. Llegado el caso, incluso puede cambiarse a ondículas. El lenguaje de script permite llevar a cabo significativamente más rápido operaciones como "desplazar" en pocos bytes, ya que esto permitiría la forma comprimida digitalizada de la misma operación. Con ayuda de estos sprites puede desplazarse cualquier imagen fija contorneada sobre imágenes móviles.
El artículo de SIMON, S.: "Generalized Run-Length Coding for SNR-scalable Image Compression" publicado en Signal Processing VII: Theories and Applications, Proceedings of Eusipco-94, Seventh European Signal Processing Conference, Edimburgo (Reino Unido), 13-16 sept. 1994, páginas 560-563, XP008007229, presenta un procedimiento para comprimir datos de imagen compuestos por un vector de puntos de imagen (píxeles), en el cual cada píxel posee un valor de píxel que describe la información de color o brillo de dicho píxel. Para comprimir los datos de imagen se recomiendan procedimientos basados en la codificación run-length.
La finalidad del invento consiste en crear un procedimiento para la compresión de datos de vídeo que permita una adaptación simple y flexible a distintas velocidades de transmisión, distintos anchos de banda, distintas definiciones y distintos tamaños de visualización.
Este objetivo se resuelve mediante las características contenidas en la reivindicación 1.
En las reivindicaciones siguientes se exponen realizaciones y desarrollos ventajosos del invento.
Preferentemente se lleva a cabo un procesamiento paralelo de la información de vídeo contenida en el chip de grabación de vídeo. Este procesamiento paralelo tiene la finalidad de determinar, en primera instancia, cuáles son los píxeles más importantes y de situarlos en función de una priorización en un vector prioritario. Este vector contiene en todo momento los valores de píxel seleccionados según la priorización. En función de este proceso de priorización, se transmiten o se guardan estos píxeles y los valores de píxel utilizados para la determinación de la priorización. Un píxel recibe una prioridad alta cuando la diferencia entre éste y los píxeles contiguos es muy
elevada.
Para la reconstrucción se representan los valores de píxeles actuales en pantalla. Los píxeles que aún no se han transmitido se calculan a partir de los píxeles ya transmitidos.
En función de la capacidad de procesamiento, del ancho de banda de transmisión y del tamaño de la visualización, pueden emplearse distintos procedimientos para calcular los píxeles que aún no se han transmitido. Si se dispone de un ancho de banda muy elevado, puede utilizarse una simple interpolación lineal. Si el ancho de banda del que se dispone es muy pequeño, el cálculo puede efectuarse a partir de la transmisión de los píxeles priorizados.
Mediante el historial de los píxeles transmitidos pueden identificarse objetos y realizarse así una valoración del movimiento de dichos objetos.
La idea básica del procedimiento está fundamentada en la transmisión o el almacenamiento de los píxeles priorizados. En el momento del almacenamiento o de la transmisión de vídeo, deben tenerse en cuenta además las dependencias temporales y posicionales (dentro del vector de imagen) de cada uno de los píxeles o de los píxeles reunidos en grupos de píxeles.
Para poder alcanzar una compresión de datos extremadamente alta, se transmiten los grupos de píxeles que en cada momento poseen la prioridad máxima y que aún no se han transmitido. Los planos, es decir, los valores de píxel entre los grupos de píxeles que aún han de transmitirse, se calculan a partir de los grupos de píxeles ya transmitidos, por ejemplo, por interpolación. A una definición más alta (vector de imagen grande), aumenta el factor de compresión alcanzable, ya que en tomas naturales los planos mayores suelen tener una evolución de color predecible (uniforme), por ejemplo, el cielo azul.
Cabe tener en cuenta también que se transmiten en cada caso los valores de píxel exactos. Si es necesario, este procedimiento permite transmitir sin pérdida la información de vídeo.
La reproducción o reconstrucción de los datos de vídeo se basa en valoraciones similares a la del funcionamiento de la visión humana. El ser humano percibe estímulos, pero la interpretación de la imagen captada tiene lugar en el cerebro. Los estímulos se corresponderían con los grupos de píxeles transmitidos, mientras que la interpretación sería el relleno de los planos entre los grupos de píxeles que aún no se han transmitido.
Para llevar a cabo dicho proceso, pueden emplearse vectores adicionales. Estos vectores son, entre otros, vectores en los que existe una serie de datos a partir de la cual se determina el valor de píxel contenido en un grupo de píxeles en la posición actual. Otros datos pueden ser el momento en el que se calcularon dichos valores o los grupos de píxeles a partir de los que se calcularon o transmitieron. También puede analizarse como información adicional la precisión de los valores (por ejemplo, el cálculo a partir de los píxeles inmediatamente contiguos, la baja variancia de los píxeles utilizados como base para el cálculo).
El procedimiento descrito permite adaptar mucho más fácilmente el flujo de datos de vídeo a los distintos tamaños de visualización y a las distintas definiciones de imagen.
Otra ventaja consiste en el hecho de que mediante el método de codificación de vídeo descrito no se determina automáticamente el algoritmo que debe utilizarse para la descodificación. Esto se consigue por medio de la transmisión de los valores de píxel priorizados que, a diferencia de otros procesos, no presentan valores intermedios. Con ello, los fabricantes tienen la posibilidad de desarrollar dispositivos terminales de alto o bajo coste y destacarse de la competencia por la diversidad de algoritmos.
El procesamiento masivo paralelo de datos de vídeo pretendido en un chip desarrollado específicamente al efecto permite utilizar frecuencias extremadamente bajas, un hecho que repercute positivamente en el consumo de flujo.
Gracias a la priorización pueden transmitirse determinadas zonas del vídeo (por ejemplo, los labios del presentador del noticiario) con una prioridad mayor y, en consecuencia, con una mejor definición.
El procedimiento permite filtrar del flujo de datos del vídeo los subflujos de datos óptimos para distintos dispositivos terminales sin que esto deba considerarse en el momento de la grabación del vídeo.
A continuación, se describe con mayor detalle un ejemplo de realización del invento haciendo referencia a dibujos. A partir de estas figuras y de su descripción se obtienen otras características, ventajas y posibilidades de aplicación del invento. Las figuras muestran:
La figura 1 muestra la representación de un vector de imagen de 20 x 21 píxeles;
La figura 2 muestra la representación de distintas formas de grupos de píxeles;
La figura 3 muestra un vector de imagen con un objeto móvil en un momento t1;
La figura 4 muestra un vector de imagen con un objeto móvil en un momento t2;
La figura 5 muestra un vector de imagen con un objeto móvil en un momento t3;
La figura 6 muestra un vector de imagen regenerado con grupos de píxeles incorporados en la esquina de la imagen;
La figura 7 muestra el relleno de los planos entre los grupos de píxeles ya incorporados;
La figura 8 muestra la incorporación de otros grupos de píxeles y el relleno de los planos que quedan en medio.
Seguidamente se describe el proceso de compresión y descompresión de una señal de vídeo con ayuda de un ejemplo.
Se dan los siguientes supuestos:
La fuente de vídeo es una señal de vídeo habitual hoy en día (por ejemplo, PAL o NTSC). La información de vídeo puede leerse con un dispositivo electrónico corriente (por ejemplo, una tarjeta digitalizadora). Para poder visualizar el procedimiento, en adelante se utilizará un vector de imagen minimizado con una anchura de 20 píxeles y una altura de 21 píxeles (figura 1). Cada píxel del vector viene representado por un valor de 32 bits (valor de píxel). Los 32 bits están separados, por ejemplo, en 4 valores (transparente, rojo, verde, azul), cada uno con 8 bits. La posición del píxel se determina mediante un número entero. El vector de imagen está numerado en el modo mostrado en la figura 1 del 0 al 419. El número de cada casilla se corresponde con la posición del píxel correspondiente. Entre la fuente y el conducto existe una conexión UDP (User Datagram Protocol). A través de esta conexión, pueden enviarse los datos de vídeo comprimidos.
La compresión de la señal de vídeo se realiza del modo siguiente:
El procedimiento se basa en el hecho de que se efectúa constantemente una priorización de cada uno de los píxeles de la señal de vídeo, situando los píxeles en un vector en función de su priorización. Este vector contiene en todo momento los valores de píxel actuales ordenados por prioridad. Un píxel obtiene una prioridad elevada cuando la diferencia entre los píxeles contiguos es muy elevada. Este píxel se reúne en un grupo de píxeles junto con los píxeles contiguos utilizados para el cálculo. Los grupos de píxeles se transmiten o se almacenan conforme a la priorización.
Lectura de los vectores de imagen
La tarjeta digitalizadora dispone en todo momento de la imagen actual en su vector de imagen, el cual puede tener un tamaño de 20 x 21 píxeles tal como se muestra en la figura 1. Cada píxel está definido por su posición (de 0 hasta 419) y por su valor de píxel (valor de color y brillo).
Determinación de los grupos de píxeles
Anteriormente se ha determinado qué píxeles contiguos conforman un grupo de píxeles. Con p0 se designa aquel píxel que indica la posición del grupo de píxeles y para el que se calcula la prioridad. La posición relativa del resto de píxeles, por ejemplo p1-p4, de un grupo de píxeles con respecto al píxel de referencia p0 se obtiene a partir del tipo (forma) de grupo de píxeles utilizado. En la figura 2 se representan a modo de ejemplo algunas formas posibles de grupos de píxeles. Pueden formarse grupos de píxeles simétricos o asimétricos al píxel de referencia p0. El tipo de grupo de píxeles utilizado dependerá del tipo de material gráfico y de la tasa de compresión deseada. Como norma general, el factor de compresión será mayor cuantos más píxeles comprenda un grupo de píxeles. Para codificar y descodi-
ficar, es decir, comprimir y descomprimir, la imagen de vídeo debe utilizarse la misma forma de grupos de píxeles.
Determinación de los valores de prioridad
Por cada píxel p0 de un grupo de píxeles, se calcula la prioridad en relación con el grupo de píxeles de éste. Para ello se calcula la prioridad de cada píxel 0-419 de la imagen con referencia al píxel p0. Según el invento se prevé que el cálculo de los valores de prioridad de los píxeles se realice en la medida de lo posible dentro del marco de un procesamiento de datos paralelo. Lo ideal es que el cálculo de las prioridades de todos los píxeles se lleve a cabo simultáneamente. Como se trata de una señal de vídeo, los valores de prioridad de todos los píxeles se recalculan constantemente puesto que el contenido de la imagen cambia de forma continua. Sin embargo, el número de grupos de píxeles, sobre todo los grupos con prioridades menores, tienen una probabilidad muy baja de cambiar.
Para determinar la prioridad existen distintos métodos de cálculo. A modo de ejemplo, aquí se presenta un método lineal.
Para ello se descomponen los valores de píxeles individuales P0, P1, P2, P3 y P4 de un grupo de píxeles en sus partes de color rojo, verde y azul. Cada uno de estos valores de color se representa mediante 8 bits. Para cada color de cada píxel P1-P4 se determina un valor de color diferencial con referencia a P0, por ejemplo, P0_rojo - P1_rojo, P0_rojo - P2_rojo …, P0_azul - P4_azul. Los valores de color diferencial absolutos se suman y se dividen por el número de colores y el número de píxeles considerados. El resultado es un valor de prioridad para el grupo de píxeles en cuestión. Este valor de prioridad será mayor cuantas más diferencias haya en los valores de color de cada uno de los píxeles del grupo.
Otros métodos para determinar el valor de prioridad son la utilización de valores de gris o del valor máximo de diferencia de un color. Puesto que el valor de prioridad no se transmitirá ni se almacenará, el procedimiento de cálculo de la prioridad no influye directamente en la descodificación.
Gracias a esta priorización se consigue que las zonas de la imagen que presentan un fuerte cambio de color o contraste, por ejemplo, los bordes, tengan una prioridad mayor y los contenidos de imagen que básicamente no cambian, por ejemplo, el cielo azul, tengan una prioridad baja.
Orden de los valores de prioridad
En este paso se ordenan los valores de prioridad en función del tamaño en orden descendente. El orden se realiza después de determinarse cada valor nuevo de prioridad. Así, para cada instante se obtiene una lista de grupos de píxeles ordenada por prioridades en orden descendente. Lo que se pretende es que se desarrollen captadores de imágenes (chips CCD) que puedan crear estas listas por prioridades de forma inmediata. Si la imagen que va a comprimirse se toma directamente con una cámara CCD o con un escáner, en principio existe la posibilidad de obtener directamente un vector ordenado por prioridades a partir del microchip de la cámara o el escáner que procesa las imágenes. Con ello se ahorra una buena parte del cálculo durante la compresión.
Actualización de los valores de prioridad
Al contrario de las imágenes fijas (como las fotografías), en los datos de vídeo se produce continuamente un cambio de prioridades de los grupos de píxeles, por ejemplo, por las panorámicas o los objetos móviles. A modo de aclaración se representa en las figuras de la 3 a la 5 un vector de vídeo en distintos momentos t1 a t3 en donde un objeto se mueve de derecha a izquierda.
Según la figura 3, la imagen contiene en el momento t1 un objeto que llena los píxeles 156, 157, 176, 177, 191-197, 211-217, 231-237, 256, 257, 276, 277. Para calcular las prioridades de los píxeles (0-419) se utiliza la forma de grupo de píxeles contorneada en negrita en la figura 2 (abajo izquierda). De ahí se obtiene una clasificación de los píxeles en prioridades como se representa, por ejemplo, en la tabla 1 en el momento t1 en la subsiguiente descripción del procedimiento. La tabla contiene en cada caso sólo el número del píxel de referencia (p0) del grupo de píxeles. Aquellos grupos de píxeles que se encuentran en la zona del borde del objeto y cuyo píxel de referencia (p0) presenta la mayor diferencia con respecto al resto de píxeles del grupo reciben la prioridad máxima A. Los grupos de píxeles cuyo píxel de referencia presenta una menor diferencia con respecto al resto de píxeles del grupo reciben la prioridad media B y los grupos de píxeles cuyo píxel de referencia no presenta diferencia alguna con respecto al resto de píxeles del grupo reciben la prioridad mínima C.
TABLA 1
Prioridad A Prioridad B Prioridad C
Momento t1 175, 255, 231, 191, 177, 197, 217, 237, 257, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9,
156, 157, 277, 276 176, 256, 211, 192 … 10, 11, 12, 13, 14, 15 …
Momento t2 189, 173, 154, 155, 175, 195, 215, 235, 255, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9,
274, 275, 253, 229 190, 191, 192, 193 … 10, 11, 12, 13, 14, 15 …
Momento t3 187, 171, 227, 251, 173, 193, 213, 233, 253, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9,
152, 153, 272, 273 188, 189, 190, 191 … 10, 11, 12, 13, 14, 15 …
En la compresión se transmiten o se almacenan en primer lugar los grupos de píxeles a los que se les ha asignado la prioridad A, luego los grupos de píxeles con la prioridad B y finalmente los grupos de píxeles con la prioridad C. Puesto que el objeto se va moviendo y ocupa una posición distinta en las figuras 4 y 5 con respecto a la figura 3, cambian las prioridades de cada uno de los grupos de píxeles. La lista de prioridades se actualiza y se procede seguidamente a la transmisión de los grupos de píxeles actuales con la prioridad máxima.
Las prioridades recalculadas de los grupos de píxeles en el momento t2 (figura 4) y en el momento t3 (figura 5) se representan en la tabla 1.
Así pues, una posibilidad de transmisión comprimida de una señal de vídeo según la tabla 1 podría tener el siguiente aspecto:
Momento t1: Se transmiten los grupos de píxeles con la prioridad máxima A (175, 255, 231, 191, 156, 157, 277, 276, 177, 197, 217).
En el momento t2 se calculan nuevas prioridades, de modo que otros grupos de píxeles obtienen la prioridad máxima A. Se prosigue, pues, con la transmisión de la nueva prioridad A: 189, 173, 154, 155, 274, 275, 253, 229.
Seguidamente, sigue la transmisión de los grupos de píxeles con prioridad B: 175, 195, 215, 235, 255, 190, 191, 192, 193 …
En el momento t3 se calculan nuevas prioridades, de modo que otros grupos de píxeles obtienen la prioridad máxima A. Se prosigue entonces con la transmisión de la nueva prioridad A: 187, 171, 227, 251, 152, 153, 272, 273.
En un vector adicional se supervisa qué grupos de píxeles ya se han transmitido. En el caso de que un grupo de píxeles ya se haya transmitido, no es necesario transmitirlo una segunda vez, siempre y cuando en ese tiempo no haya cambiado su prioridad. Determinadas regiones de la imagen, por ejemplo, rostros, pueden reconocerse y transmitirse de forma preferencial. Además, el receptor puede solicitar determinados grupos de píxeles (por ejemplo, en la identificación de errores de transferencia a través de control CRC erróneo). Los grupos de píxeles solicitados de este modo pueden recibir una prioridad elevada para ser transmitidos inmediatamente.
Transmisión o almacenamiento de grupos de píxeles
Los términos "transmisión" y "almacenamiento" se emplearán como sinónimos de ahora en adelante. En primer lugar se transmiten o almacenan algunas magnitudes de la imagen de vídeo, por ejemplo: ancho de la imagen (en píxeles); alto de la imagen (en píxeles); forma de grupo de píxeles utilizada (prescindible en caso de que sólo una forma esté estandarizada).
A continuación se transmiten o almacenan los grupos de píxeles individuales en relación con su prioridad, es decir, los grupos de píxeles con alta prioridad se guardan primero (y luego se leen también primero).
Para ello, en primer lugar, se almacena el valor de posición del píxel de referencia p0 del grupo de píxeles. Seguidamente, se almacenan los valores de píxel P0, P1, P2, P3 y P4. Ejemplo: valor de posición P0, valores de píxel P0, P1, P2, P3 y P4; valor de posición siguiente P0 (con prioridad idéntica o inferior), valores de píxel P0, P1, P2, P3 y
P4 …; valor de posición siguiente P0 (con prioridad mínima), valores de píxel P0, P1, P2, P3 y P4.
El almacenamiento puede optimizarse utilizando varios métodos que aquí sólo se citan a modo de ejemplo. Puede llevarse a cabo una codificación run-length de los grupos de píxeles. Por ejemplo, cuando una zona de la imagen carece de parte roja, puede transmitirse con sólo 2 bits, por ejemplo, en lugar de los 8 bits (rojo) o puede aprovecharse el número de ceros a la izquierda. Además, pueden utilizarse métodos de compresión habituales, como el formato ZIP. Fijando un valor límite para la priorización puede garantizarse una calidad determinada. Por ejemplo, puede fijarse un valor límite para los valores de diferencia de píxeles por debajo del cual el grupo de píxeles determinado recibe siempre la prioridad mínima. Si al principio se transmiten los 4 grupos de píxeles de los puntos de las esquinas, puede calcularse un plano máximo con pocos grupos de píxeles.
Reconstrucción (descompresión) de los datos de vídeo Generación de un nuevo vector de imagen
Durante la reconstrucción de los datos de vídeo comprimidos, se crea en primer lugar un vector de imagen similar al representado en la figura 1. Para ello se leen y se analizan los datos principales de la imagen. A modo de ejemplo, éstos son el ancho de imagen, el alto de imagen y la forma del grupo de píxeles utilizada para la compresión. Si el alto y el ancho de la imagen original y el alto y el ancho de la representación deseada (por ejemplo, visualización limitada en PDA o pantalla de alta definición) no coinciden, deben escalarse oportunamente.
A este efecto se determinan en primer lugar los factores de conversión (ancho de imagen original/ancho de imagen visualización y alto de imagen original/alto de imagen visualización). Estos factores pueden utilizarse para convertir el valor de posición de la imagen original en el valor de posición de la nueva visualización.
Inserción de grupos de píxeles
En este momento, tal y como se muestra en la figura 6, se leen los grupos de píxeles según el orden de prioridad. Por ejemplo, se registran en el vector de imagen los cuatro primeros grupos de píxeles con la prioridad máxima. En la figura 6 se trata de los grupos de píxeles de las esquinas. La posición del píxel de referencia p0 de cada uno de estos grupos se representa con los campos sobre fondo negro 21, 38, 381 y 398. Este valor de posición (p0) consta en el archivo guardado como valor entero. A continuación, pueden registrarse en el nuevo vector de imagen los valores de píxel sobre fondo gris oscuro (p1-p4) pertenecientes a cada grupo de píxeles. Los valores de píxel intermedios que aparecen sobre fondo gris claro se calculan a partir de los campos sobre fondo negro y gris oscuro. Para realizar el cálculo, antes que nada se descomponen los valores de píxel ya conocidos en sus partes roja, verde y azul. Seguidamente, se calcula el valor medio de cada color, por ejemplo: píxel (22) = (píxel (2) + píxel (21) + píxel (42))/3.
Relleno de planos
A continuación se unen entre sí los grupos de píxeles existentes mediante líneas, tal como se representa en la figura 7. Se generan triángulos cuyos vértices se corresponden con los grupos de píxeles. Este tipo de unión queda ejemplificado por la línea trazada entre la posición de píxel 2 y la posición de píxel 17. La progresión de color de la línea se calcula en función de los valores de color del píxel 2 y el píxel 17. En primer lugar, se determina el número de píxeles entre ambas posiciones, en el ejemplo 14. Seguidamente, se establece la diferencia de color para cada color (rojo, verde, azul), por ejemplo, el valor de color de la posición 2 = 2 y el valor de color de la posición 17 = 30, de lo que se deriva una diferencia de color de 28. Luego se calcula la progresión de color por píxel -del píxel 2 al píxel 17- a partir de la relación entre diferencia de color/número de píxeles, es decir, en el ejemplo 28/14 = 2.
El resto de planos se rellenan trazando líneas horizontales, por ejemplo, desde la posición 63 a la posición 74, de la posición 82 a la posición 93, etc. En este caso también se calcula la progresión del color entre los puntos de acuerdo con el método explicado anteriormente.
Como muestra la figura 8, cada grupo de píxeles que se añade genera nuevos triángulos que pueden rellenarse del modo descrito. Después de que se ha rellenado todo el plano utilizando las cuatro esquinas (21, 38, 398, 381), puede afinarse la definición con cada nuevo grupo de píxeles. La inserción del grupo de píxeles 87 conlleva la creación de 4 triángulos con los puntos de referencia (21, 38, 87), (21, 87, 381), (381, 87, 398) y (398, 78, 38). Si en ese momento se añade otro grupo de píxeles (247) dentro de uno de estos triángulos, por ejemplo, 87, 381, 398, se generan otros tres triángulos (247, 381, 398), (247, 87, 381) y (247, 87, 398). Así pues, cada nuevo grupo de píxeles genera 3 triángulos nuevos que pueden rellenarse. Cuantos más grupos de píxeles se agreguen, es decir, cuantos más triángulos se generen, más se aproxima la progresión de color calculada a la progresión de color real de la imagen. Como a partir de ese momento sólo se crean triángulos nuevos, pueden usarse procedimientos optimizados para la realización de los cálculos. Además, pueden calcularse los 3 triángulos que se generan cada vez de forma paralela para incrementar la velocidad de procesamiento. Otras posibilidades de paralelización se producen al añadirse nuevos grupos de píxeles en distintas regiones de la imagen.
En los pasos del procedimiento descritos anteriormente se da por sentado que el contenido de la imagen no ha cambiado. Si cambia el contenido de la imagen, se redistribuyen las prioridades de cada uno de los grupos de píxeles y se transmiten los grupos de píxeles que en ese instante poseen la prioridad máxima. Sólo cambia el orden de los grupos de píxeles recién transmitidos y añadidos a la imagen; el principio de reconstrucción de la imagen descrito anteriormente no varía.
Para tener en cuenta los cambios temporales del contenido de la imagen, pueden crearse otros vectores adicionales (con el tamaño del vector de imagen). Estos vectores pueden contener datos acerca de: el tiempo, es decir, el momento en el que se calculó o transmitió el píxel por última vez; la base de cálculo y qué píxeles transmitidos se utilizaron para calcular el valor de píxel; la probabilidad/precisión, si se transmitió o calculó un valor de píxel y, en caso de que se calculara, qué dimensión alcanza la variancia de los grupos de píxeles a partir de los que se calculó el nuevo valor; discrepancia de los valores de píxel ya calculados con los valores de píxel transmitidos.
A partir de estas magnitudes, pueden definirse regiones gráficas en las que habitualmente se producen cambios de grupos de píxeles. Los grupos de píxeles contiguos, o también sectores completos, están normalmente sujetos a cambios similares, por ejemplo, en lo que concierne al brillo o al color. Analizando estos cambios, pueden determinarse por regla general objetos y el comportamiento dinámico de éstos, por ejemplo, un objeto que se mueve en el vídeo. Los cambios uniformes relativos al vector de imagen completo pueden deberse a una panorámica, por ejemplo. Si esta información se analiza con la ayuda de redes neuronales capaces de aprender, por ejemplo, es posible realizar de modo muy sencillo valoraciones sobre los valores de píxel de los grupos de píxeles que aún no se han transmitido. Si estas valoraciones son ciertas, pueden identificarse grupos de píxeles que influyen especialmente en los cambios de los objetos. Si estos grupos de píxeles se vuelven a solicitar a la fuente, es posible determinar y predecir con precisión los movimientos de los objetos con una cantidad limitada de grupos de píxeles. En la práctica esto supone que, aun disponiendo de un ancho de banda pequeño, se producen tiempos de retraso bajos, los cuales son significativamente inferiores a los correspondientes a los procedimientos basados en fotogramas. El análisis de los vectores generados adicionalmente en el receptor también permite obtener un buen reconocimiento de
objetos.
En función de los recursos disponibles, además de la priorización pura por los valores de color de los píxeles contiguos, puede recurrirse también a las interdependencias de la posición de los grupos de píxeles priorizados. Para ilustrar esto, se expone un caso aplicado. Al observar el horizonte sobre el mar, éste parece una línea horizontal. Cabe esperar, pues, que los valores de prioridad de cada grupo de píxeles situado a lo largo de dicho horizonte sean similares. En este caso, los puntos de la línea del horizonte que se encuentran más separados entre sí poseen el mayor contenido de información. Transfiriendo únicamente los grupos de píxeles situados más a la izquierda y más a la derecha es posible reconstruir toda la línea del horizonte.
Otra posibilidad de priorización radica en la valoración superior de determinados sectores de la imagen. Estos sectores pueden ser rostros, por ejemplos. Aunque en los vídeos de las vacaciones, los rostros suelen ocupar un sector relativamente reducido de la imagen completa, son el punto de mira central en la visualización. Este comportamiento visual humano puede tenerse en cuenta priorizando los grupos de píxeles de estos sectores de la imagen (sectores de rostro). También puede darse prioridad a los grupos de píxeles del centro del vídeo.
Otra posibilidad de optimización consiste en la superposición de los grupos de píxeles contiguos entre sí. Mediante una hábil selección de los grupos de píxeles puede evitarse que se transmitan dos veces grupos de píxeles contiguos con valores de píxel superpuestos.
La capacidad necesaria para la descodificación puede escalarse libremente. En pantallas más pequeñas (por ejemplo, móviles) se precisará seguramente menos capacidad que para la reproducción en grandes pantallas de alta definición, aunque ambos utilicen el mismo flujo de datos de origen compuesto por los grupos de píxeles priorizados. Esta posibilidad de distintas escalas permite a los fabricantes de dispositivos terminales incluir optimizaciones especiales, como número de objetos o historial de cambios, en sus dispositivos. Para los fabricantes supone una oportunidad de diferenciarse de sus competidores sin poner en peligro la compatibilidad de la transmisión de vídeo.

Claims (14)

  1. \global\parskip0.960000\baselineskip
    1. Procedimiento para la compresión de datos de vídeo compuesto por un vector de puntos de imagen individuales (píxeles), en el cual cada píxel (0-419) presenta un valor de píxel que cambia en el tiempo y que contiene la información de color o brillo de dicho píxel, caracterizado por los siguientes pasos: a) determinación del valor de prioridad de cada píxel del vector mediante la identificación del píxel que se utilizará como píxel de referencia (P0) y el cálculo de los valores de diferencia a partir del valor de píxel que en cada momento presenta el píxel de referencia (P0) en relación con los valores de píxel momentáneos de un grupo de píxeles contiguos (P1-P4) fijado con antelación; b) reunión de los píxeles empleados para el cálculo del valor de prioridad (P0-P4) en un grupo de píxeles; c) ordenamiento de los grupos de píxeles a partir del valor de prioridad del píxel de referencia (P0) correspondiente y colocación dentro de un vector de prioridades, y d) almacenamiento y/o transmisión de los grupos de píxeles en función de su prioridad en el vector de prioridad, almacenándose o transmitiéndose solamente una parte de los grupos de píxeles en función del factor de compresión deseado; repitiéndose continuamente los pasos del a) al d), recalculándose repetidamente los valores de prioridad de los grupos de píxeles y conteniendo el vector de prioridades en todo momento los grupos de píxeles ordenados según la prioridad actual.
  2. 2. Procedimiento según la reivindicación 1 caracterizado por el hecho de que el valor de diferencia se obtiene de la diferencia entre el valor de píxel de un píxel determinado y su píxel contiguo del grupo de píxeles.
  3. 3. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que en primer lugar se almacenan y/o se transmiten las magnitudes de la imagen de vídeo, como son el ancho de imagen en píxeles, el alto de imagen en píxeles y la forma del grupo de píxeles utilizado.
  4. 4. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que para cada grupo de píxeles se almacena o se transmite la posición de un píxel de referencia (P0), el valor de píxel de éste y el valor de píxel del resto de píxeles (P1-P4) del grupo de píxeles.
  5. 5. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que los grupos de píxeles de determinados sectores de la imagen reciben una prioridad más elevada.
  6. 6. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que los valores de píxel de los grupos de píxeles se comprimen por codificación run-length u otro sistema de compresión.
  7. 7. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que la determinación y emisión constante de los grupos de píxeles ordenados por prioridad se lleva a cabo mediante un sistema de captación de imágenes, como, por ejemplo, un escáner o una cámara CCD.
  8. 8. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que pueden utilizarse tarjetas digitalizadoras (por ejemplo, soluciones de software) para convertir material de vídeo de distintos formatos (por ejemplo, AVI, MPEG-1, MPEG-2, MPEG-4 …).
  9. 9. Procedimiento para la reconstrucción de datos de vídeos comprimidos con el procedimiento según las reivindicaciones de la 1 a la 8 caracterizado por el hecho de que los valores de píxel leídos en cada caso se representan en forma de un vector de imagen calculándose los píxeles que aún han de transmitirse a partir de los píxeles ya transmitidos.
  10. 10. Procedimiento según la reivindicación 9 caracterizado por los siguientes pasos: a) generación de un vector de imagen vacío con las magnitudes obtenidas con la lectura de la imagen de vídeo comprimida; b) lectura continuada de los grupos de píxeles almacenados o transmitidos e inserción en el vector de imagen; c) construcción de triángulos por unión de tres grupos de píxeles inmediatamente contiguos mediante una línea como mínimo; d) relleno de los planos de los píxeles que conforman los triángulos mediante la progresión de brillo y/o color calculada a partir de los grupos de píxeles que conforman el triángulo, y e) repetición de los pasos del b) al e).
  11. 11. Procedimiento según la reivindicación 9 o 10 caracterizado por el hecho de que los triángulos son escalables en tamaño y pueden adaptarse a distintas definiciones de imagen.
  12. 12. Procedimiento según una de las reivindicaciones de la 9 a la 11 caracterizado por el hecho de que pueden crearse vectores adicionales que contengan datos sobre: el tiempo, es decir, el momento en el que se calculó o transmitió el píxel por última vez; la base de cálculo y qué píxeles transmitidos se utilizaron para calcular el valor de píxel; la probabilidad/precisión, si se transmitió o calculó un valor de píxel y, en caso de que se calculara, qué dimensión alcanza la variancia de los grupos de píxeles a partir de los que se calculó el nuevo valor; discrepancia de los valores de píxel ya calculados con los valores de píxel transmitidos.
  13. 13. Procedimiento según una de las reivindicaciones de la 9 a la 12 caracterizado por el hecho de que, con la ayuda de los vectores creados según la reivindicación 12, pueden reconocerse fácilmente objetos y perfiles de movimiento.
  14. 14. Procedimiento según la reivindicación 13 caracterizado por el hecho de que, mediante el análisis de los perfiles de movimiento y de los objetos, pueden conseguirse movimientos fluidos con tiempos de latencia extremadamente reducidos aun contando con velocidades de transferencia limitadas.
ES02729802T 2001-03-21 2002-03-19 Procedimiento para la compresion y la descompresion de datos de video. Expired - Lifetime ES2265504T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10113880A DE10113880B4 (de) 2001-03-21 2001-03-21 Verfahren zur Komprimierung und Dekomprimierung von Videodaten
DE10113880 2001-03-21

Publications (1)

Publication Number Publication Date
ES2265504T3 true ES2265504T3 (es) 2007-02-16

Family

ID=7678464

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02729802T Expired - Lifetime ES2265504T3 (es) 2001-03-21 2002-03-19 Procedimiento para la compresion y la descompresion de datos de video.

Country Status (13)

Country Link
US (1) US7130347B2 (es)
EP (1) EP1371229B1 (es)
JP (1) JP4102197B2 (es)
CN (1) CN1278563C (es)
AT (1) ATE327638T1 (es)
CA (1) CA2441473C (es)
CZ (1) CZ20032875A3 (es)
DE (2) DE10113880B4 (es)
ES (1) ES2265504T3 (es)
PL (1) PL206719B1 (es)
PT (1) PT1371229E (es)
RU (1) RU2276470C2 (es)
WO (1) WO2002078352A1 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10229706A1 (de) * 2002-07-02 2004-12-09 T-Mobile Deutschland Gmbh Verfahren zur Speicherplatzverwaltung in einem Speichrmedium eines digitalen Endgeräts bei einer Datenspeicherung nach dem Verfahren der priorisierten Pixelübertragung
DE10229976B4 (de) * 2002-07-03 2007-06-28 T-Mobile Deutschland Gmbh Verfahren zur Ver- und Entschlüsselung von nach dem Verfahren der priorisierten Pixelübertragung übertragenen oder gespeicherten digitalen Daten
DE10230812B4 (de) 2002-07-08 2004-11-25 T-Mobile Deutschland Gmbh Verfahren zur Übertragung von zusätzlichen Informationen bei Verwendung eines Verfahrens zur Komprimierung von Daten mittels einer priorisierenden Pixelübertragung
DE10230809B4 (de) * 2002-07-08 2008-09-11 T-Mobile Deutschland Gmbh Verfahren zur Übertragung von Audiosignalen nach dem Verfahren der priorisierenden Pixelübertragung
DE10231286B4 (de) 2002-07-10 2004-05-19 T-Mobile Deutschland Gmbh Verfahren zur Übertragung von zusätzlichen Daten innerhalb einer Videodatenübertragung
DK1600008T3 (da) * 2003-02-27 2008-06-30 T Mobile Deutschland Gmbh Fremgangsmåde til komprimeret overförsel af billeddata til en tredimensionel gengivelse af scener og objekter
US7375347B2 (en) 2004-04-26 2008-05-20 Sensors For Medicine And Science, Inc. Systems and methods for extending the useful life of optical sensors
DE102007052622A1 (de) * 2007-11-05 2009-05-07 T-Mobile International Ag Verfahren zur Bildanalyse, insbesondere für ein Mobilfunkgerät
DE102007059273A1 (de) * 2007-12-08 2009-06-18 T-Mobile Internationale Ag Virtuelle Tastatur eines mobilen Endgerätes
FI127117B (fi) * 2009-06-17 2017-11-30 Gurulogic Microsystems Oy Kuvaprosessoija ja tietokoneohjelma
DE102010047770B4 (de) * 2010-10-08 2015-05-13 Airbus Operations Gmbh Analysetool für Bussysteme
CN102186067B (zh) * 2011-03-31 2013-10-09 深圳超多维光电子有限公司 一种图像帧的传输方法和装置、显示方法和系统
JP2013005204A (ja) * 2011-06-16 2013-01-07 Sony Corp ビデオ送信装置、ビデオ受信装置、およびビデオ送信方法
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
US20150334371A1 (en) * 2014-05-19 2015-11-19 Rockwell Automation Technologies, Inc. Optical safety monitoring with selective pixel array analysis
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9921300B2 (en) 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
CN105245888A (zh) * 2014-06-11 2016-01-13 富士通株式会社 图像压缩方法和图像压缩装置
US9625108B2 (en) 2014-10-08 2017-04-18 Rockwell Automation Technologies, Inc. Auxiliary light source associated with an industrial application
US11044466B2 (en) 2018-01-26 2021-06-22 Samsung Electronics Co., Ltd. Image processing device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE6922682U (de) 1969-06-06 1970-02-12 Blaupunkt Werke Gmbh Drahtwiderstand
JP3276985B2 (ja) * 1991-06-27 2002-04-22 ゼロックス・コーポレーション イメージピクセル処理方法
JPH05244435A (ja) * 1992-02-28 1993-09-21 Fujitsu Ltd 画像の階層符号化方法および画像符号化装置
GB2270811B (en) * 1992-09-17 1996-02-07 Sony Broadcast & Communication Video data compression
KR0155784B1 (ko) * 1993-12-16 1998-12-15 김광호 영상데이타의 적응형 가변장 부호화/복호화방법
JP2797959B2 (ja) * 1994-03-12 1998-09-17 日本ビクター株式会社 多次元画像圧縮伸張方法
US5825917A (en) * 1994-09-30 1998-10-20 Sanyo Electric Co., Ltd. Region-based image processing method, image processing apparatus and image communication apparatus
KR100249028B1 (ko) * 1995-03-20 2000-03-15 전주범 정지영상을 가진 영상신호를 부호화/복호화하기 위한 부호화/복호화시스템
WO1997007635A2 (en) * 1995-08-14 1997-02-27 Barkfort Limited A method and apparatus for compressing digital image data
DE19541457C1 (de) * 1995-11-07 1997-07-03 Siemens Ag Verfahren zur Codierung eines Videodatenstroms einer aus Bildblöcken bestehenden Videosequenz

Also Published As

Publication number Publication date
JP2004534434A (ja) 2004-11-11
EP1371229B1 (de) 2006-05-24
JP4102197B2 (ja) 2008-06-18
RU2276470C2 (ru) 2006-05-10
CA2441473A1 (en) 2002-10-03
PT1371229E (pt) 2006-09-29
WO2002078352A1 (de) 2002-10-03
DE10113880A1 (de) 2002-10-17
CN1278563C (zh) 2006-10-04
CN1498501A (zh) 2004-05-19
PL206719B1 (pl) 2010-09-30
EP1371229A1 (de) 2003-12-17
PL368828A1 (en) 2005-04-04
RU2003130965A (ru) 2005-04-27
DE50206894D1 (de) 2006-06-29
CA2441473C (en) 2012-07-17
ATE327638T1 (de) 2006-06-15
US20040095996A1 (en) 2004-05-20
DE10113880B4 (de) 2004-04-29
CZ20032875A3 (cs) 2004-01-14
US7130347B2 (en) 2006-10-31

Similar Documents

Publication Publication Date Title
ES2265504T3 (es) Procedimiento para la compresion y la descompresion de datos de video.
KR102596002B1 (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법
KR102468178B1 (ko) 몰입형 비디오 포맷을 위한 방법, 장치 및 스트림
CN111615715A (zh) 编码/解码体积视频的方法、装置和流
US11647177B2 (en) Method, apparatus and stream for volumetric video format
KR20170123656A (ko) 구면 영상 스트리밍
KR20170132098A (ko) 레거시 및 몰입형 렌더링 디바이스를 위한 몰입형 비디오를 포맷팅하는 방법, 장치 및 스트림
KR20230153532A (ko) 포인트 클라우드 데이터 부호화 장치, 포인트 클라우드 데이터 부호화 방법, 포인트 클라우드 데이터 복호화 장치 및 포인트 클라우드 데이터 복호화 방법
KR102585498B1 (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법
CN111527752A (zh) 图像编码和解码的方法和装置以及存储比特流的记录介质
US20220321912A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
WO2019138163A1 (en) A method and technical equipment for encoding and decoding volumetric video
EP3547703A1 (en) Method, apparatus and stream for volumetric video format
KR20220035229A (ko) 볼류메트릭 비디오 콘텐츠를 전달하기 위한 방법 및 장치
CN114270863A (zh) 一种编码和解码立体视频的方法和装置
CN114930812B (zh) 用于解码3d视频的方法和装置
US20230388542A1 (en) A method and apparatus for adapting a volumetric video to client devices
KR102658474B1 (ko) 가상 시점 합성을 위한 영상 부호화/복호화 방법 및 장치
AU2020395346B2 (en) Rank information in immersive media processing
RU2807582C2 (ru) Способ, устройство и поток для формата объемного видео
US20230032599A1 (en) Methods and apparatuses for encoding, decoding and rendering 6dof content from 3dof+ composed elements
CN115885513A (zh) 用于对体积视频进行编码和解码的方法和装置
CN114651271A (zh) 用来解码部份比特流以产生基于投影并具有约束后保护带尺寸大小、约束后投影面尺寸大小、与/或约束后画面尺寸大小的帧的视频解码方法