ES2265504T3 - Procedimiento para la compresion y la descompresion de datos de video. - Google Patents
Procedimiento para la compresion y la descompresion de datos de video. Download PDFInfo
- Publication number
- ES2265504T3 ES2265504T3 ES02729802T ES02729802T ES2265504T3 ES 2265504 T3 ES2265504 T3 ES 2265504T3 ES 02729802 T ES02729802 T ES 02729802T ES 02729802 T ES02729802 T ES 02729802T ES 2265504 T3 ES2265504 T3 ES 2265504T3
- Authority
- ES
- Spain
- Prior art keywords
- pixel
- pixels
- priority
- groups
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/39—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Procedimiento para la compresión de datos de vídeo compuesto por un vector de puntos de imagen individuales (píxeles), en el cual cada píxel (0-419) presenta un valor de píxel que cambia en el tiempo y que contiene la información de color o brillo de dicho píxel, caracterizado por los siguientes pasos: a) determinación del valor de prioridad de cada píxel del vector mediante la identificación del píxel que se utilizará como píxel de referencia (P0) y el cálculo de los valores de diferencia a partir del valor de píxel que en cada momento presenta el píxel de referencia (P0) en relación con los valores de píxel momentáneos de un grupo de píxeles contiguos (P1-P4) fijado con antelación; b) reunión de los píxeles empleados para el cálculo del valor de prioridad (P0-P4) en un grupo de píxeles; c) ordenamiento de los grupos de píxeles a partir del valor de prioridad del píxel de referencia (P0) correspondiente y colocación dentro de un vector de prioridades, y d) almacenamiento y/o transmisión delos grupos de píxeles en función de su prioridad en el vector de prioridad, almacenándose o transmitiéndose solamente una parte de los grupos de píxeles en función del factor de compresión deseado; repitiéndose continuamente los pasos del a) al d), recalculándose repetidamente los valores de prioridad de los grupos de píxeles y conteniendo el vector de prioridades en todo momento los grupos de píxeles ordenados según la prioridad actual.
Description
Procedimiento para la compresión y la
descompresión de datos de vídeo.
El presente invento describe un procedimiento
para la compresión y la descompresión de datos de vídeo.
Los vídeos generan una gran cantidad de datos.
Para poder transmitir y almacenar estas grandes cantidades de datos
resulta conveniente comprimirlos.
Según el estado actual de la técnica, las
señales de vídeo se registran y reproducen en una sucesión rápida
de imágenes. En televisión (sistema PAL) la velocidad de la sucesión
es de 25 imágenes por segundo o de 50 semiimágenes por segundo. En
el caso de las grabaciones digitales, ésta es de 30 imágenes por
segundo. Cada imagen se descompone en líneas y, a continuación, se
transmiten secuencialmente.
Los métodos de compresión hasta ahora existentes
se basan esencialmente en la reducción de la definición, el
contraste y la disminución de imágenes por segundo. En el caso de la
compresión digital como, por ejemplo, los procesos MPEG, se
transmiten las imágenes de diferencia en lugar de imágenes
completas, es decir, las diferencias entre los puntos de imagen
(píxeles) individuales con la imagen anterior. El estándar más
moderno de codificación de vídeo es MPEG4.
MPEG son las siglas de "Motion Pictures Expert
Group". Este grupo determina los formatos de archivo y los
procedimientos para almacenar y comprimir ahorrando espacio datos de
vídeo y multimedia (vídeo, datos de imagen y sonido) a alta
calidad. El estándar MPEG se divide en MPEG-1,
MPEG-2, MPEG-3 y
MPEG-4, aunque el estándar MPEG-3
se ha integrado con MPEG-2.
Para que los ordenadores "normales" puedan
procesar y transmitir las enormes cantidades de datos de las
películas, sólo se almacenan las diferencias con respecto a la
imagen anterior. El formato MPEG almacena en intervalos regulares,
generalmente, de doce fotogramas, fotogramas I, es decir, imágenes
individuales comprimidas con JPEG. En función de las posibilidades,
los fotogramas que se encuentran entre dichos fotogramas I no se
archivan completamente. Es más, lo que almacena MPEG es el modo en
que pueden recuperarse dichos fotogramas mediante el desplazamiento
de partes de las imágenes anteriores y posteriores. Para ello, se
emplean también fotogramas P (fotogramas predichos) y fotogramas B
(fotogramas bidireccionales) anteriores. Pero como el resultado no
siempre es perfecto, se almacenan además de la imagen las
discrepancias restantes codificadas en JPEG. Con este método puede
reducirse el tamaño de archivo de una película de vídeo en un 99%
aproximado. La compresión posible puede llegar hasta 200:1.
MPEG-1 se ideó para reproducir
vídeo de manera fluida. La compresión/descompresión de
MPEG-1 fue en su origen un procedimiento que
dependía del hardware. Ahora, gracias a la mayor velocidad de los
procesadores, también es posible que la descompresión se realice
utilizando software. La principal diferencia entre
MPEG-1 y MPEG-2 consiste en que
MPEG-2 es capaz de gestionar mejor el procedimiento
de salto de líneas (entrelazado) propio de las imágenes de
televisión. El secreto de MPEG-2 radica en su
compresión de mayor calidad de modo que puede procesarse y editarse
el material fílmico con compresión 1 a 1 en calidad de estudio. En
consecuencia, MPEG-2 se estableció como un
estándar. En caso de codificación de fotogramas-I
pura, puede utilizarse MPEG-2 incluso para la
realización del corte y montaje. La parte del estándar
MPEG-3 prevista para la calidad de televisión de
alta definición (HDTV) se ha implementado en la actualidad en el
estándar MPEG-2.
MPEG-4 es una evolución del
formato MPEG-2 que se encuentra en desarrollo desde
1996. Aunque MPEG-4 fue ideado originalmente como
estándar de codificación para datos audiovisuales con velocidad de
transmisión muy baja, el desarrollo tenía muchas más finalidades
que únicamente el streaming de datos multimedia lineales en
aplicaciones inalámbricas o de Internet. MPEG-4
proporciona, por ejemplo, mecanismos efectivos para la compresión y
la distribución de contenidos multimedia interactivos. Además,
MPEG-4 dispone de potencial para 3D para visualizar
inteligencias artificiales o para representar avatares, por ejemplo,
en videoconferencias.
La tasa de compresión de MPEG-4
es mayor que la de MPEG-2, con lo cual pueden
comprimirse mejor los sprites ya que el mecanismo
codificador básicamente dispone de más tiempo. Llegado el caso,
incluso puede cambiarse a ondículas. El lenguaje de script
permite llevar a cabo significativamente más rápido operaciones como
"desplazar" en pocos bytes, ya que esto permitiría la forma
comprimida digitalizada de la misma operación. Con ayuda de estos
sprites puede desplazarse cualquier imagen fija contorneada
sobre imágenes móviles.
El artículo de SIMON, S.: "Generalized
Run-Length Coding for SNR-scalable
Image Compression" publicado en Signal Processing VII:
Theories and Applications, Proceedings of
Eusipco-94, Seventh European Signal Processing
Conference, Edimburgo (Reino Unido), 13-16 sept.
1994, páginas 560-563, XP008007229, presenta un
procedimiento para comprimir datos de imagen compuestos por un
vector de puntos de imagen (píxeles), en el cual cada píxel posee
un valor de píxel que describe la información de color o brillo de
dicho píxel. Para comprimir los datos de imagen se recomiendan
procedimientos basados en la codificación
run-length.
La finalidad del invento consiste en crear un
procedimiento para la compresión de datos de vídeo que permita una
adaptación simple y flexible a distintas velocidades de transmisión,
distintos anchos de banda, distintas definiciones y distintos
tamaños de visualización.
Este objetivo se resuelve mediante las
características contenidas en la reivindicación 1.
En las reivindicaciones siguientes se exponen
realizaciones y desarrollos ventajosos del invento.
Preferentemente se lleva a cabo un procesamiento
paralelo de la información de vídeo contenida en el chip de
grabación de vídeo. Este procesamiento paralelo tiene la finalidad
de determinar, en primera instancia, cuáles son los píxeles más
importantes y de situarlos en función de una priorización en un
vector prioritario. Este vector contiene en todo momento los
valores de píxel seleccionados según la priorización. En función de
este proceso de priorización, se transmiten o se guardan estos
píxeles y los valores de píxel utilizados para la determinación de
la priorización. Un píxel recibe una prioridad alta cuando la
diferencia entre éste y los píxeles contiguos es muy
elevada.
elevada.
Para la reconstrucción se representan los
valores de píxeles actuales en pantalla. Los píxeles que aún no se
han transmitido se calculan a partir de los píxeles ya
transmitidos.
En función de la capacidad de procesamiento, del
ancho de banda de transmisión y del tamaño de la visualización,
pueden emplearse distintos procedimientos para calcular los píxeles
que aún no se han transmitido. Si se dispone de un ancho de banda
muy elevado, puede utilizarse una simple interpolación lineal. Si el
ancho de banda del que se dispone es muy pequeño, el cálculo puede
efectuarse a partir de la transmisión de los píxeles
priorizados.
Mediante el historial de los píxeles
transmitidos pueden identificarse objetos y realizarse así una
valoración del movimiento de dichos objetos.
La idea básica del procedimiento está
fundamentada en la transmisión o el almacenamiento de los píxeles
priorizados. En el momento del almacenamiento o de la transmisión
de vídeo, deben tenerse en cuenta además las dependencias
temporales y posicionales (dentro del vector de imagen) de cada uno
de los píxeles o de los píxeles reunidos en grupos de píxeles.
Para poder alcanzar una compresión de datos
extremadamente alta, se transmiten los grupos de píxeles que en
cada momento poseen la prioridad máxima y que aún no se han
transmitido. Los planos, es decir, los valores de píxel entre los
grupos de píxeles que aún han de transmitirse, se calculan a partir
de los grupos de píxeles ya transmitidos, por ejemplo, por
interpolación. A una definición más alta (vector de imagen grande),
aumenta el factor de compresión alcanzable, ya que en tomas
naturales los planos mayores suelen tener una evolución de color
predecible (uniforme), por ejemplo, el cielo azul.
Cabe tener en cuenta también que se transmiten
en cada caso los valores de píxel exactos. Si es necesario, este
procedimiento permite transmitir sin pérdida la información de
vídeo.
La reproducción o reconstrucción de los datos de
vídeo se basa en valoraciones similares a la del funcionamiento de
la visión humana. El ser humano percibe estímulos, pero la
interpretación de la imagen captada tiene lugar en el cerebro. Los
estímulos se corresponderían con los grupos de píxeles transmitidos,
mientras que la interpretación sería el relleno de los planos entre
los grupos de píxeles que aún no se han transmitido.
Para llevar a cabo dicho proceso, pueden
emplearse vectores adicionales. Estos vectores son, entre otros,
vectores en los que existe una serie de datos a partir de la cual se
determina el valor de píxel contenido en un grupo de píxeles en la
posición actual. Otros datos pueden ser el momento en el que se
calcularon dichos valores o los grupos de píxeles a partir de los
que se calcularon o transmitieron. También puede analizarse como
información adicional la precisión de los valores (por ejemplo, el
cálculo a partir de los píxeles inmediatamente contiguos, la baja
variancia de los píxeles utilizados como base para el cálculo).
El procedimiento descrito permite adaptar mucho
más fácilmente el flujo de datos de vídeo a los distintos tamaños
de visualización y a las distintas definiciones de imagen.
Otra ventaja consiste en el hecho de que
mediante el método de codificación de vídeo descrito no se determina
automáticamente el algoritmo que debe utilizarse para la
descodificación. Esto se consigue por medio de la transmisión de
los valores de píxel priorizados que, a diferencia de otros
procesos, no presentan valores intermedios. Con ello, los
fabricantes tienen la posibilidad de desarrollar dispositivos
terminales de alto o bajo coste y destacarse de la competencia por
la diversidad de algoritmos.
El procesamiento masivo paralelo de datos de
vídeo pretendido en un chip desarrollado específicamente al efecto
permite utilizar frecuencias extremadamente bajas, un hecho que
repercute positivamente en el consumo de flujo.
Gracias a la priorización pueden transmitirse
determinadas zonas del vídeo (por ejemplo, los labios del
presentador del noticiario) con una prioridad mayor y, en
consecuencia, con una mejor definición.
El procedimiento permite filtrar del flujo de
datos del vídeo los subflujos de datos óptimos para distintos
dispositivos terminales sin que esto deba considerarse en el momento
de la grabación del vídeo.
A continuación, se describe con mayor detalle un
ejemplo de realización del invento haciendo referencia a dibujos. A
partir de estas figuras y de su descripción se obtienen otras
características, ventajas y posibilidades de aplicación del
invento. Las figuras muestran:
La figura 1 muestra la representación de un
vector de imagen de 20 x 21 píxeles;
La figura 2 muestra la representación de
distintas formas de grupos de píxeles;
La figura 3 muestra un vector de imagen con un
objeto móvil en un momento t1;
La figura 4 muestra un vector de imagen con un
objeto móvil en un momento t2;
La figura 5 muestra un vector de imagen con un
objeto móvil en un momento t3;
La figura 6 muestra un vector de imagen
regenerado con grupos de píxeles incorporados en la esquina de la
imagen;
La figura 7 muestra el relleno de los planos
entre los grupos de píxeles ya incorporados;
La figura 8 muestra la incorporación de otros
grupos de píxeles y el relleno de los planos que quedan en
medio.
Seguidamente se describe el proceso de
compresión y descompresión de una señal de vídeo con ayuda de un
ejemplo.
Se dan los siguientes supuestos:
La fuente de vídeo es una señal de vídeo
habitual hoy en día (por ejemplo, PAL o NTSC). La información de
vídeo puede leerse con un dispositivo electrónico corriente (por
ejemplo, una tarjeta digitalizadora). Para poder visualizar el
procedimiento, en adelante se utilizará un vector de imagen
minimizado con una anchura de 20 píxeles y una altura de 21 píxeles
(figura 1). Cada píxel del vector viene representado por un valor
de 32 bits (valor de píxel). Los 32 bits están separados, por
ejemplo, en 4 valores (transparente, rojo, verde, azul), cada uno
con 8 bits. La posición del píxel se determina mediante un número
entero. El vector de imagen está numerado en el modo mostrado en la
figura 1 del 0 al 419. El número de cada casilla se corresponde con
la posición del píxel correspondiente. Entre la fuente y el conducto
existe una conexión UDP (User Datagram Protocol). A través de esta
conexión, pueden enviarse los datos de vídeo comprimidos.
La compresión de la señal de vídeo se realiza
del modo siguiente:
El procedimiento se basa en el hecho de que se
efectúa constantemente una priorización de cada uno de los píxeles
de la señal de vídeo, situando los píxeles en un vector en función
de su priorización. Este vector contiene en todo momento los
valores de píxel actuales ordenados por prioridad. Un píxel obtiene
una prioridad elevada cuando la diferencia entre los píxeles
contiguos es muy elevada. Este píxel se reúne en un grupo de
píxeles junto con los píxeles contiguos utilizados para el cálculo.
Los grupos de píxeles se transmiten o se almacenan conforme a la
priorización.
La tarjeta digitalizadora dispone en todo
momento de la imagen actual en su vector de imagen, el cual puede
tener un tamaño de 20 x 21 píxeles tal como se muestra en la figura
1. Cada píxel está definido por su posición (de 0 hasta 419) y por
su valor de píxel (valor de color y brillo).
Anteriormente se ha determinado qué píxeles
contiguos conforman un grupo de píxeles. Con p0 se designa aquel
píxel que indica la posición del grupo de píxeles y para el que se
calcula la prioridad. La posición relativa del resto de píxeles,
por ejemplo p1-p4, de un grupo de píxeles con
respecto al píxel de referencia p0 se obtiene a partir del tipo
(forma) de grupo de píxeles utilizado. En la figura 2 se representan
a modo de ejemplo algunas formas posibles de grupos de píxeles.
Pueden formarse grupos de píxeles simétricos o asimétricos al píxel
de referencia p0. El tipo de grupo de píxeles utilizado dependerá
del tipo de material gráfico y de la tasa de compresión deseada.
Como norma general, el factor de compresión será mayor cuantos más
píxeles comprenda un grupo de píxeles. Para codificar y
descodi-
ficar, es decir, comprimir y descomprimir, la imagen de vídeo debe utilizarse la misma forma de grupos de píxeles.
ficar, es decir, comprimir y descomprimir, la imagen de vídeo debe utilizarse la misma forma de grupos de píxeles.
Por cada píxel p0 de un grupo de píxeles, se
calcula la prioridad en relación con el grupo de píxeles de éste.
Para ello se calcula la prioridad de cada píxel
0-419 de la imagen con referencia al píxel p0. Según
el invento se prevé que el cálculo de los valores de prioridad de
los píxeles se realice en la medida de lo posible dentro del marco
de un procesamiento de datos paralelo. Lo ideal es que el cálculo de
las prioridades de todos los píxeles se lleve a cabo
simultáneamente. Como se trata de una señal de vídeo, los valores de
prioridad de todos los píxeles se recalculan constantemente puesto
que el contenido de la imagen cambia de forma continua. Sin
embargo, el número de grupos de píxeles, sobre todo los grupos con
prioridades menores, tienen una probabilidad muy baja de
cambiar.
Para determinar la prioridad existen distintos
métodos de cálculo. A modo de ejemplo, aquí se presenta un método
lineal.
Para ello se descomponen los valores de píxeles
individuales P0, P1, P2, P3 y P4 de un grupo de píxeles en sus
partes de color rojo, verde y azul. Cada uno de estos valores de
color se representa mediante 8 bits. Para cada color de cada píxel
P1-P4 se determina un valor de color diferencial con
referencia a P0, por ejemplo, P0_rojo - P1_rojo, P0_rojo - P2_rojo
…, P0_azul - P4_azul. Los valores de color diferencial absolutos se
suman y se dividen por el número de colores y el número de píxeles
considerados. El resultado es un valor de prioridad para el grupo
de píxeles en cuestión. Este valor de prioridad será mayor cuantas
más diferencias haya en los valores de color de cada uno de los
píxeles del grupo.
Otros métodos para determinar el valor de
prioridad son la utilización de valores de gris o del valor máximo
de diferencia de un color. Puesto que el valor de prioridad no se
transmitirá ni se almacenará, el procedimiento de cálculo de la
prioridad no influye directamente en la descodificación.
Gracias a esta priorización se consigue que las
zonas de la imagen que presentan un fuerte cambio de color o
contraste, por ejemplo, los bordes, tengan una prioridad mayor y los
contenidos de imagen que básicamente no cambian, por ejemplo, el
cielo azul, tengan una prioridad baja.
En este paso se ordenan los valores de prioridad
en función del tamaño en orden descendente. El orden se realiza
después de determinarse cada valor nuevo de prioridad. Así, para
cada instante se obtiene una lista de grupos de píxeles ordenada
por prioridades en orden descendente. Lo que se pretende es que se
desarrollen captadores de imágenes (chips CCD) que puedan crear
estas listas por prioridades de forma inmediata. Si la imagen que
va a comprimirse se toma directamente con una cámara CCD o con un
escáner, en principio existe la posibilidad de obtener directamente
un vector ordenado por prioridades a partir del microchip de la
cámara o el escáner que procesa las imágenes. Con ello se ahorra
una buena parte del cálculo durante la compresión.
Al contrario de las imágenes fijas (como las
fotografías), en los datos de vídeo se produce continuamente un
cambio de prioridades de los grupos de píxeles, por ejemplo, por las
panorámicas o los objetos móviles. A modo de aclaración se
representa en las figuras de la 3 a la 5 un vector de vídeo en
distintos momentos t1 a t3 en donde un objeto se mueve de derecha a
izquierda.
Según la figura 3, la imagen contiene en el
momento t1 un objeto que llena los píxeles 156, 157, 176, 177,
191-197, 211-217,
231-237, 256, 257, 276, 277. Para calcular las
prioridades de los píxeles (0-419) se utiliza la
forma de grupo de píxeles contorneada en negrita en la figura 2
(abajo izquierda). De ahí se obtiene una clasificación de los
píxeles en prioridades como se representa, por ejemplo, en la tabla
1 en el momento t1 en la subsiguiente descripción del
procedimiento. La tabla contiene en cada caso sólo el número del
píxel de referencia (p0) del grupo de píxeles. Aquellos grupos de
píxeles que se encuentran en la zona del borde del objeto y cuyo
píxel de referencia (p0) presenta la mayor diferencia con respecto
al resto de píxeles del grupo reciben la prioridad máxima A. Los
grupos de píxeles cuyo píxel de referencia presenta una menor
diferencia con respecto al resto de píxeles del grupo reciben la
prioridad media B y los grupos de píxeles cuyo píxel de referencia
no presenta diferencia alguna con respecto al resto de píxeles del
grupo reciben la prioridad mínima C.
Prioridad A | Prioridad B | Prioridad C | |
Momento t1 | 175, 255, 231, 191, | 177, 197, 217, 237, 257, | 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, |
156, 157, 277, 276 | 176, 256, 211, 192 … | 10, 11, 12, 13, 14, 15 … | |
Momento t2 | 189, 173, 154, 155, | 175, 195, 215, 235, 255, | 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, |
274, 275, 253, 229 | 190, 191, 192, 193 … | 10, 11, 12, 13, 14, 15 … | |
Momento t3 | 187, 171, 227, 251, | 173, 193, 213, 233, 253, | 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, |
152, 153, 272, 273 | 188, 189, 190, 191 … | 10, 11, 12, 13, 14, 15 … | |
… | … | … | … |
En la compresión se transmiten o se almacenan en
primer lugar los grupos de píxeles a los que se les ha asignado la
prioridad A, luego los grupos de píxeles con la prioridad B y
finalmente los grupos de píxeles con la prioridad C. Puesto que el
objeto se va moviendo y ocupa una posición distinta en las figuras 4
y 5 con respecto a la figura 3, cambian las prioridades de cada uno
de los grupos de píxeles. La lista de prioridades se actualiza y se
procede seguidamente a la transmisión de los grupos de píxeles
actuales con la prioridad máxima.
Las prioridades recalculadas de los grupos de
píxeles en el momento t2 (figura 4) y en el momento t3 (figura 5)
se representan en la tabla 1.
Así pues, una posibilidad de transmisión
comprimida de una señal de vídeo según la tabla 1 podría tener el
siguiente aspecto:
Momento t1: Se transmiten los grupos de píxeles
con la prioridad máxima A (175, 255, 231, 191, 156, 157, 277, 276,
177, 197, 217).
En el momento t2 se calculan nuevas prioridades,
de modo que otros grupos de píxeles obtienen la prioridad máxima A.
Se prosigue, pues, con la transmisión de la nueva prioridad A: 189,
173, 154, 155, 274, 275, 253, 229.
Seguidamente, sigue la transmisión de los grupos
de píxeles con prioridad B: 175, 195, 215, 235, 255, 190, 191, 192,
193 …
En el momento t3 se calculan nuevas prioridades,
de modo que otros grupos de píxeles obtienen la prioridad máxima A.
Se prosigue entonces con la transmisión de la nueva prioridad A:
187, 171, 227, 251, 152, 153, 272, 273.
En un vector adicional se supervisa qué grupos
de píxeles ya se han transmitido. En el caso de que un grupo de
píxeles ya se haya transmitido, no es necesario transmitirlo una
segunda vez, siempre y cuando en ese tiempo no haya cambiado su
prioridad. Determinadas regiones de la imagen, por ejemplo, rostros,
pueden reconocerse y transmitirse de forma preferencial. Además, el
receptor puede solicitar determinados grupos de píxeles (por
ejemplo, en la identificación de errores de transferencia a través
de control CRC erróneo). Los grupos de píxeles solicitados de este
modo pueden recibir una prioridad elevada para ser transmitidos
inmediatamente.
Los términos "transmisión" y
"almacenamiento" se emplearán como sinónimos de ahora en
adelante. En primer lugar se transmiten o almacenan algunas
magnitudes de la imagen de vídeo, por ejemplo: ancho de la imagen
(en píxeles); alto de la imagen (en píxeles); forma de grupo de
píxeles utilizada (prescindible en caso de que sólo una forma esté
estandarizada).
A continuación se transmiten o almacenan los
grupos de píxeles individuales en relación con su prioridad, es
decir, los grupos de píxeles con alta prioridad se guardan primero
(y luego se leen también primero).
Para ello, en primer lugar, se almacena el valor
de posición del píxel de referencia p0 del grupo de píxeles.
Seguidamente, se almacenan los valores de píxel P0, P1, P2, P3 y P4.
Ejemplo: valor de posición P0, valores de píxel P0, P1, P2, P3 y
P4; valor de posición siguiente P0 (con prioridad idéntica o
inferior), valores de píxel P0, P1, P2, P3 y
P4 …; valor de posición siguiente P0 (con prioridad mínima), valores de píxel P0, P1, P2, P3 y P4.
P4 …; valor de posición siguiente P0 (con prioridad mínima), valores de píxel P0, P1, P2, P3 y P4.
El almacenamiento puede optimizarse utilizando
varios métodos que aquí sólo se citan a modo de ejemplo. Puede
llevarse a cabo una codificación run-length
de los grupos de píxeles. Por ejemplo, cuando una zona de la imagen
carece de parte roja, puede transmitirse con sólo 2 bits, por
ejemplo, en lugar de los 8 bits (rojo) o puede aprovecharse el
número de ceros a la izquierda. Además, pueden utilizarse métodos de
compresión habituales, como el formato ZIP. Fijando un valor límite
para la priorización puede garantizarse una calidad determinada.
Por ejemplo, puede fijarse un valor límite para los valores de
diferencia de píxeles por debajo del cual el grupo de píxeles
determinado recibe siempre la prioridad mínima. Si al principio se
transmiten los 4 grupos de píxeles de los puntos de las esquinas,
puede calcularse un plano máximo con pocos grupos de píxeles.
Durante la reconstrucción de los datos de vídeo
comprimidos, se crea en primer lugar un vector de imagen similar al
representado en la figura 1. Para ello se leen y se analizan los
datos principales de la imagen. A modo de ejemplo, éstos son el
ancho de imagen, el alto de imagen y la forma del grupo de píxeles
utilizada para la compresión. Si el alto y el ancho de la imagen
original y el alto y el ancho de la representación deseada (por
ejemplo, visualización limitada en PDA o pantalla de alta
definición) no coinciden, deben escalarse oportunamente.
A este efecto se determinan en primer lugar los
factores de conversión (ancho de imagen original/ancho de imagen
visualización y alto de imagen original/alto de imagen
visualización). Estos factores pueden utilizarse para convertir el
valor de posición de la imagen original en el valor de posición de
la nueva visualización.
En este momento, tal y como se muestra en la
figura 6, se leen los grupos de píxeles según el orden de prioridad.
Por ejemplo, se registran en el vector de imagen los cuatro
primeros grupos de píxeles con la prioridad máxima. En la figura 6
se trata de los grupos de píxeles de las esquinas. La posición del
píxel de referencia p0 de cada uno de estos grupos se representa
con los campos sobre fondo negro 21, 38, 381 y 398. Este valor de
posición (p0) consta en el archivo guardado como valor entero. A
continuación, pueden registrarse en el nuevo vector de imagen los
valores de píxel sobre fondo gris oscuro (p1-p4)
pertenecientes a cada grupo de píxeles. Los valores de píxel
intermedios que aparecen sobre fondo gris claro se calculan a partir
de los campos sobre fondo negro y gris oscuro. Para realizar el
cálculo, antes que nada se descomponen los valores de píxel ya
conocidos en sus partes roja, verde y azul. Seguidamente, se calcula
el valor medio de cada color, por ejemplo: píxel (22) = (píxel (2)
+ píxel (21) + píxel (42))/3.
A continuación se unen entre sí los grupos de
píxeles existentes mediante líneas, tal como se representa en la
figura 7. Se generan triángulos cuyos vértices se corresponden con
los grupos de píxeles. Este tipo de unión queda ejemplificado por
la línea trazada entre la posición de píxel 2 y la posición de píxel
17. La progresión de color de la línea se calcula en función de los
valores de color del píxel 2 y el píxel 17. En primer lugar, se
determina el número de píxeles entre ambas posiciones, en el ejemplo
14. Seguidamente, se establece la diferencia de color para cada
color (rojo, verde, azul), por ejemplo, el valor de color de la
posición 2 = 2 y el valor de color de la posición 17 = 30, de lo que
se deriva una diferencia de color de 28. Luego se calcula la
progresión de color por píxel -del píxel 2 al píxel 17- a partir de
la relación entre diferencia de color/número de píxeles, es decir,
en el ejemplo 28/14 = 2.
El resto de planos se rellenan trazando líneas
horizontales, por ejemplo, desde la posición 63 a la posición 74,
de la posición 82 a la posición 93, etc. En este caso también se
calcula la progresión del color entre los puntos de acuerdo con el
método explicado anteriormente.
Como muestra la figura 8, cada grupo de píxeles
que se añade genera nuevos triángulos que pueden rellenarse del
modo descrito. Después de que se ha rellenado todo el plano
utilizando las cuatro esquinas (21, 38, 398, 381), puede afinarse
la definición con cada nuevo grupo de píxeles. La inserción del
grupo de píxeles 87 conlleva la creación de 4 triángulos con los
puntos de referencia (21, 38, 87), (21, 87, 381), (381, 87, 398) y
(398, 78, 38). Si en ese momento se añade otro grupo de píxeles
(247) dentro de uno de estos triángulos, por ejemplo, 87, 381, 398,
se generan otros tres triángulos (247, 381, 398), (247, 87, 381) y
(247, 87, 398). Así pues, cada nuevo grupo de píxeles genera 3
triángulos nuevos que pueden rellenarse. Cuantos más grupos de
píxeles se agreguen, es decir, cuantos más triángulos se generen,
más se aproxima la progresión de color calculada a la progresión de
color real de la imagen. Como a partir de ese momento sólo se crean
triángulos nuevos, pueden usarse procedimientos optimizados para la
realización de los cálculos. Además, pueden calcularse los 3
triángulos que se generan cada vez de forma paralela para
incrementar la velocidad de procesamiento. Otras posibilidades de
paralelización se producen al añadirse nuevos grupos de píxeles en
distintas regiones de la imagen.
En los pasos del procedimiento descritos
anteriormente se da por sentado que el contenido de la imagen no ha
cambiado. Si cambia el contenido de la imagen, se redistribuyen las
prioridades de cada uno de los grupos de píxeles y se transmiten
los grupos de píxeles que en ese instante poseen la prioridad
máxima. Sólo cambia el orden de los grupos de píxeles recién
transmitidos y añadidos a la imagen; el principio de reconstrucción
de la imagen descrito anteriormente no varía.
Para tener en cuenta los cambios temporales del
contenido de la imagen, pueden crearse otros vectores adicionales
(con el tamaño del vector de imagen). Estos vectores pueden contener
datos acerca de: el tiempo, es decir, el momento en el que se
calculó o transmitió el píxel por última vez; la base de cálculo y
qué píxeles transmitidos se utilizaron para calcular el valor de
píxel; la probabilidad/precisión, si se transmitió o calculó un
valor de píxel y, en caso de que se calculara, qué dimensión
alcanza la variancia de los grupos de píxeles a partir de los que
se calculó el nuevo valor; discrepancia de los valores de píxel ya
calculados con los valores de píxel transmitidos.
A partir de estas magnitudes, pueden definirse
regiones gráficas en las que habitualmente se producen cambios de
grupos de píxeles. Los grupos de píxeles contiguos, o también
sectores completos, están normalmente sujetos a cambios similares,
por ejemplo, en lo que concierne al brillo o al color. Analizando
estos cambios, pueden determinarse por regla general objetos y el
comportamiento dinámico de éstos, por ejemplo, un objeto que se
mueve en el vídeo. Los cambios uniformes relativos al vector de
imagen completo pueden deberse a una panorámica, por ejemplo. Si
esta información se analiza con la ayuda de redes neuronales capaces
de aprender, por ejemplo, es posible realizar de modo muy sencillo
valoraciones sobre los valores de píxel de los grupos de píxeles
que aún no se han transmitido. Si estas valoraciones son ciertas,
pueden identificarse grupos de píxeles que influyen especialmente
en los cambios de los objetos. Si estos grupos de píxeles se vuelven
a solicitar a la fuente, es posible determinar y predecir con
precisión los movimientos de los objetos con una cantidad limitada
de grupos de píxeles. En la práctica esto supone que, aun
disponiendo de un ancho de banda pequeño, se producen tiempos de
retraso bajos, los cuales son significativamente inferiores a los
correspondientes a los procedimientos basados en fotogramas. El
análisis de los vectores generados adicionalmente en el receptor
también permite obtener un buen reconocimiento de
objetos.
objetos.
En función de los recursos disponibles, además
de la priorización pura por los valores de color de los píxeles
contiguos, puede recurrirse también a las interdependencias de la
posición de los grupos de píxeles priorizados. Para ilustrar esto,
se expone un caso aplicado. Al observar el horizonte sobre el mar,
éste parece una línea horizontal. Cabe esperar, pues, que los
valores de prioridad de cada grupo de píxeles situado a lo largo de
dicho horizonte sean similares. En este caso, los puntos de la línea
del horizonte que se encuentran más separados entre sí poseen el
mayor contenido de información. Transfiriendo únicamente los grupos
de píxeles situados más a la izquierda y más a la derecha es
posible reconstruir toda la línea del horizonte.
Otra posibilidad de priorización radica en la
valoración superior de determinados sectores de la imagen. Estos
sectores pueden ser rostros, por ejemplos. Aunque en los vídeos de
las vacaciones, los rostros suelen ocupar un sector relativamente
reducido de la imagen completa, son el punto de mira central en la
visualización. Este comportamiento visual humano puede tenerse en
cuenta priorizando los grupos de píxeles de estos sectores de la
imagen (sectores de rostro). También puede darse prioridad a los
grupos de píxeles del centro del vídeo.
Otra posibilidad de optimización consiste en la
superposición de los grupos de píxeles contiguos entre sí. Mediante
una hábil selección de los grupos de píxeles puede evitarse que se
transmitan dos veces grupos de píxeles contiguos con valores de
píxel superpuestos.
La capacidad necesaria para la descodificación
puede escalarse libremente. En pantallas más pequeñas (por ejemplo,
móviles) se precisará seguramente menos capacidad que para la
reproducción en grandes pantallas de alta definición, aunque ambos
utilicen el mismo flujo de datos de origen compuesto por los grupos
de píxeles priorizados. Esta posibilidad de distintas escalas
permite a los fabricantes de dispositivos terminales incluir
optimizaciones especiales, como número de objetos o historial de
cambios, en sus dispositivos. Para los fabricantes supone una
oportunidad de diferenciarse de sus competidores sin poner en
peligro la compatibilidad de la transmisión de vídeo.
Claims (14)
-
\global\parskip0.960000\baselineskip
1. Procedimiento para la compresión de datos de vídeo compuesto por un vector de puntos de imagen individuales (píxeles), en el cual cada píxel (0-419) presenta un valor de píxel que cambia en el tiempo y que contiene la información de color o brillo de dicho píxel, caracterizado por los siguientes pasos: a) determinación del valor de prioridad de cada píxel del vector mediante la identificación del píxel que se utilizará como píxel de referencia (P0) y el cálculo de los valores de diferencia a partir del valor de píxel que en cada momento presenta el píxel de referencia (P0) en relación con los valores de píxel momentáneos de un grupo de píxeles contiguos (P1-P4) fijado con antelación; b) reunión de los píxeles empleados para el cálculo del valor de prioridad (P0-P4) en un grupo de píxeles; c) ordenamiento de los grupos de píxeles a partir del valor de prioridad del píxel de referencia (P0) correspondiente y colocación dentro de un vector de prioridades, y d) almacenamiento y/o transmisión de los grupos de píxeles en función de su prioridad en el vector de prioridad, almacenándose o transmitiéndose solamente una parte de los grupos de píxeles en función del factor de compresión deseado; repitiéndose continuamente los pasos del a) al d), recalculándose repetidamente los valores de prioridad de los grupos de píxeles y conteniendo el vector de prioridades en todo momento los grupos de píxeles ordenados según la prioridad actual. - 2. Procedimiento según la reivindicación 1 caracterizado por el hecho de que el valor de diferencia se obtiene de la diferencia entre el valor de píxel de un píxel determinado y su píxel contiguo del grupo de píxeles.
- 3. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que en primer lugar se almacenan y/o se transmiten las magnitudes de la imagen de vídeo, como son el ancho de imagen en píxeles, el alto de imagen en píxeles y la forma del grupo de píxeles utilizado.
- 4. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que para cada grupo de píxeles se almacena o se transmite la posición de un píxel de referencia (P0), el valor de píxel de éste y el valor de píxel del resto de píxeles (P1-P4) del grupo de píxeles.
- 5. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que los grupos de píxeles de determinados sectores de la imagen reciben una prioridad más elevada.
- 6. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que los valores de píxel de los grupos de píxeles se comprimen por codificación run-length u otro sistema de compresión.
- 7. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que la determinación y emisión constante de los grupos de píxeles ordenados por prioridad se lleva a cabo mediante un sistema de captación de imágenes, como, por ejemplo, un escáner o una cámara CCD.
- 8. Procedimiento según una de las reivindicaciones anteriores caracterizado por el hecho de que pueden utilizarse tarjetas digitalizadoras (por ejemplo, soluciones de software) para convertir material de vídeo de distintos formatos (por ejemplo, AVI, MPEG-1, MPEG-2, MPEG-4 …).
- 9. Procedimiento para la reconstrucción de datos de vídeos comprimidos con el procedimiento según las reivindicaciones de la 1 a la 8 caracterizado por el hecho de que los valores de píxel leídos en cada caso se representan en forma de un vector de imagen calculándose los píxeles que aún han de transmitirse a partir de los píxeles ya transmitidos.
- 10. Procedimiento según la reivindicación 9 caracterizado por los siguientes pasos: a) generación de un vector de imagen vacío con las magnitudes obtenidas con la lectura de la imagen de vídeo comprimida; b) lectura continuada de los grupos de píxeles almacenados o transmitidos e inserción en el vector de imagen; c) construcción de triángulos por unión de tres grupos de píxeles inmediatamente contiguos mediante una línea como mínimo; d) relleno de los planos de los píxeles que conforman los triángulos mediante la progresión de brillo y/o color calculada a partir de los grupos de píxeles que conforman el triángulo, y e) repetición de los pasos del b) al e).
- 11. Procedimiento según la reivindicación 9 o 10 caracterizado por el hecho de que los triángulos son escalables en tamaño y pueden adaptarse a distintas definiciones de imagen.
- 12. Procedimiento según una de las reivindicaciones de la 9 a la 11 caracterizado por el hecho de que pueden crearse vectores adicionales que contengan datos sobre: el tiempo, es decir, el momento en el que se calculó o transmitió el píxel por última vez; la base de cálculo y qué píxeles transmitidos se utilizaron para calcular el valor de píxel; la probabilidad/precisión, si se transmitió o calculó un valor de píxel y, en caso de que se calculara, qué dimensión alcanza la variancia de los grupos de píxeles a partir de los que se calculó el nuevo valor; discrepancia de los valores de píxel ya calculados con los valores de píxel transmitidos.
- 13. Procedimiento según una de las reivindicaciones de la 9 a la 12 caracterizado por el hecho de que, con la ayuda de los vectores creados según la reivindicación 12, pueden reconocerse fácilmente objetos y perfiles de movimiento.
- 14. Procedimiento según la reivindicación 13 caracterizado por el hecho de que, mediante el análisis de los perfiles de movimiento y de los objetos, pueden conseguirse movimientos fluidos con tiempos de latencia extremadamente reducidos aun contando con velocidades de transferencia limitadas.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10113880A DE10113880B4 (de) | 2001-03-21 | 2001-03-21 | Verfahren zur Komprimierung und Dekomprimierung von Videodaten |
DE10113880 | 2001-03-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2265504T3 true ES2265504T3 (es) | 2007-02-16 |
Family
ID=7678464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02729802T Expired - Lifetime ES2265504T3 (es) | 2001-03-21 | 2002-03-19 | Procedimiento para la compresion y la descompresion de datos de video. |
Country Status (13)
Country | Link |
---|---|
US (1) | US7130347B2 (es) |
EP (1) | EP1371229B1 (es) |
JP (1) | JP4102197B2 (es) |
CN (1) | CN1278563C (es) |
AT (1) | ATE327638T1 (es) |
CA (1) | CA2441473C (es) |
CZ (1) | CZ20032875A3 (es) |
DE (2) | DE10113880B4 (es) |
ES (1) | ES2265504T3 (es) |
PL (1) | PL206719B1 (es) |
PT (1) | PT1371229E (es) |
RU (1) | RU2276470C2 (es) |
WO (1) | WO2002078352A1 (es) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10229706A1 (de) * | 2002-07-02 | 2004-12-09 | T-Mobile Deutschland Gmbh | Verfahren zur Speicherplatzverwaltung in einem Speichrmedium eines digitalen Endgeräts bei einer Datenspeicherung nach dem Verfahren der priorisierten Pixelübertragung |
DE10229976B4 (de) * | 2002-07-03 | 2007-06-28 | T-Mobile Deutschland Gmbh | Verfahren zur Ver- und Entschlüsselung von nach dem Verfahren der priorisierten Pixelübertragung übertragenen oder gespeicherten digitalen Daten |
DE10230812B4 (de) | 2002-07-08 | 2004-11-25 | T-Mobile Deutschland Gmbh | Verfahren zur Übertragung von zusätzlichen Informationen bei Verwendung eines Verfahrens zur Komprimierung von Daten mittels einer priorisierenden Pixelübertragung |
DE10230809B4 (de) * | 2002-07-08 | 2008-09-11 | T-Mobile Deutschland Gmbh | Verfahren zur Übertragung von Audiosignalen nach dem Verfahren der priorisierenden Pixelübertragung |
DE10231286B4 (de) | 2002-07-10 | 2004-05-19 | T-Mobile Deutschland Gmbh | Verfahren zur Übertragung von zusätzlichen Daten innerhalb einer Videodatenübertragung |
DK1600008T3 (da) * | 2003-02-27 | 2008-06-30 | T Mobile Deutschland Gmbh | Fremgangsmåde til komprimeret overförsel af billeddata til en tredimensionel gengivelse af scener og objekter |
US7375347B2 (en) | 2004-04-26 | 2008-05-20 | Sensors For Medicine And Science, Inc. | Systems and methods for extending the useful life of optical sensors |
DE102007052622A1 (de) * | 2007-11-05 | 2009-05-07 | T-Mobile International Ag | Verfahren zur Bildanalyse, insbesondere für ein Mobilfunkgerät |
DE102007059273A1 (de) * | 2007-12-08 | 2009-06-18 | T-Mobile Internationale Ag | Virtuelle Tastatur eines mobilen Endgerätes |
FI127117B (fi) * | 2009-06-17 | 2017-11-30 | Gurulogic Microsystems Oy | Kuvaprosessoija ja tietokoneohjelma |
DE102010047770B4 (de) * | 2010-10-08 | 2015-05-13 | Airbus Operations Gmbh | Analysetool für Bussysteme |
CN102186067B (zh) * | 2011-03-31 | 2013-10-09 | 深圳超多维光电子有限公司 | 一种图像帧的传输方法和装置、显示方法和系统 |
JP2013005204A (ja) * | 2011-06-16 | 2013-01-07 | Sony Corp | ビデオ送信装置、ビデオ受信装置、およびビデオ送信方法 |
MX2014000159A (es) | 2011-07-02 | 2014-02-19 | Samsung Electronics Co Ltd | Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada. |
US9696424B2 (en) | 2014-05-19 | 2017-07-04 | Rockwell Automation Technologies, Inc. | Optical area monitoring with spot matrix illumination |
US20150334371A1 (en) * | 2014-05-19 | 2015-11-19 | Rockwell Automation Technologies, Inc. | Optical safety monitoring with selective pixel array analysis |
US11243294B2 (en) | 2014-05-19 | 2022-02-08 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
US9921300B2 (en) | 2014-05-19 | 2018-03-20 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
CN105245888A (zh) * | 2014-06-11 | 2016-01-13 | 富士通株式会社 | 图像压缩方法和图像压缩装置 |
US9625108B2 (en) | 2014-10-08 | 2017-04-18 | Rockwell Automation Technologies, Inc. | Auxiliary light source associated with an industrial application |
US11044466B2 (en) | 2018-01-26 | 2021-06-22 | Samsung Electronics Co., Ltd. | Image processing device |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE6922682U (de) | 1969-06-06 | 1970-02-12 | Blaupunkt Werke Gmbh | Drahtwiderstand |
JP3276985B2 (ja) * | 1991-06-27 | 2002-04-22 | ゼロックス・コーポレーション | イメージピクセル処理方法 |
JPH05244435A (ja) * | 1992-02-28 | 1993-09-21 | Fujitsu Ltd | 画像の階層符号化方法および画像符号化装置 |
GB2270811B (en) * | 1992-09-17 | 1996-02-07 | Sony Broadcast & Communication | Video data compression |
KR0155784B1 (ko) * | 1993-12-16 | 1998-12-15 | 김광호 | 영상데이타의 적응형 가변장 부호화/복호화방법 |
JP2797959B2 (ja) * | 1994-03-12 | 1998-09-17 | 日本ビクター株式会社 | 多次元画像圧縮伸張方法 |
US5825917A (en) * | 1994-09-30 | 1998-10-20 | Sanyo Electric Co., Ltd. | Region-based image processing method, image processing apparatus and image communication apparatus |
KR100249028B1 (ko) * | 1995-03-20 | 2000-03-15 | 전주범 | 정지영상을 가진 영상신호를 부호화/복호화하기 위한 부호화/복호화시스템 |
WO1997007635A2 (en) * | 1995-08-14 | 1997-02-27 | Barkfort Limited | A method and apparatus for compressing digital image data |
DE19541457C1 (de) * | 1995-11-07 | 1997-07-03 | Siemens Ag | Verfahren zur Codierung eines Videodatenstroms einer aus Bildblöcken bestehenden Videosequenz |
-
2001
- 2001-03-21 DE DE10113880A patent/DE10113880B4/de not_active Expired - Fee Related
-
2002
- 2002-03-19 RU RU2003130965/09A patent/RU2276470C2/ru not_active IP Right Cessation
- 2002-03-19 ES ES02729802T patent/ES2265504T3/es not_active Expired - Lifetime
- 2002-03-19 PT PT02729802T patent/PT1371229E/pt unknown
- 2002-03-19 US US10/472,539 patent/US7130347B2/en not_active Expired - Lifetime
- 2002-03-19 WO PCT/DE2002/000987 patent/WO2002078352A1/de active IP Right Grant
- 2002-03-19 CA CA2441473A patent/CA2441473C/en not_active Expired - Fee Related
- 2002-03-19 DE DE50206894T patent/DE50206894D1/de not_active Expired - Lifetime
- 2002-03-19 AT AT02729802T patent/ATE327638T1/de active
- 2002-03-19 CZ CZ20032875A patent/CZ20032875A3/cs unknown
- 2002-03-19 JP JP2002576445A patent/JP4102197B2/ja not_active Expired - Fee Related
- 2002-03-19 EP EP02729802A patent/EP1371229B1/de not_active Expired - Lifetime
- 2002-03-19 CN CNB028069617A patent/CN1278563C/zh not_active Expired - Fee Related
- 2002-03-19 PL PL368828A patent/PL206719B1/pl unknown
Also Published As
Publication number | Publication date |
---|---|
JP2004534434A (ja) | 2004-11-11 |
EP1371229B1 (de) | 2006-05-24 |
JP4102197B2 (ja) | 2008-06-18 |
RU2276470C2 (ru) | 2006-05-10 |
CA2441473A1 (en) | 2002-10-03 |
PT1371229E (pt) | 2006-09-29 |
WO2002078352A1 (de) | 2002-10-03 |
DE10113880A1 (de) | 2002-10-17 |
CN1278563C (zh) | 2006-10-04 |
CN1498501A (zh) | 2004-05-19 |
PL206719B1 (pl) | 2010-09-30 |
EP1371229A1 (de) | 2003-12-17 |
PL368828A1 (en) | 2005-04-04 |
RU2003130965A (ru) | 2005-04-27 |
DE50206894D1 (de) | 2006-06-29 |
CA2441473C (en) | 2012-07-17 |
ATE327638T1 (de) | 2006-06-15 |
US20040095996A1 (en) | 2004-05-20 |
DE10113880B4 (de) | 2004-04-29 |
CZ20032875A3 (cs) | 2004-01-14 |
US7130347B2 (en) | 2006-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2265504T3 (es) | Procedimiento para la compresion y la descompresion de datos de video. | |
KR102596002B1 (ko) | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법 | |
KR102468178B1 (ko) | 몰입형 비디오 포맷을 위한 방법, 장치 및 스트림 | |
CN111615715A (zh) | 编码/解码体积视频的方法、装置和流 | |
US11647177B2 (en) | Method, apparatus and stream for volumetric video format | |
KR20170123656A (ko) | 구면 영상 스트리밍 | |
KR20170132098A (ko) | 레거시 및 몰입형 렌더링 디바이스를 위한 몰입형 비디오를 포맷팅하는 방법, 장치 및 스트림 | |
KR20230153532A (ko) | 포인트 클라우드 데이터 부호화 장치, 포인트 클라우드 데이터 부호화 방법, 포인트 클라우드 데이터 복호화 장치 및 포인트 클라우드 데이터 복호화 방법 | |
KR102585498B1 (ko) | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법 | |
CN111527752A (zh) | 图像编码和解码的方法和装置以及存储比特流的记录介质 | |
US20220321912A1 (en) | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method | |
WO2019138163A1 (en) | A method and technical equipment for encoding and decoding volumetric video | |
EP3547703A1 (en) | Method, apparatus and stream for volumetric video format | |
KR20220035229A (ko) | 볼류메트릭 비디오 콘텐츠를 전달하기 위한 방법 및 장치 | |
CN114270863A (zh) | 一种编码和解码立体视频的方法和装置 | |
CN114930812B (zh) | 用于解码3d视频的方法和装置 | |
US20230388542A1 (en) | A method and apparatus for adapting a volumetric video to client devices | |
KR102658474B1 (ko) | 가상 시점 합성을 위한 영상 부호화/복호화 방법 및 장치 | |
AU2020395346B2 (en) | Rank information in immersive media processing | |
RU2807582C2 (ru) | Способ, устройство и поток для формата объемного видео | |
US20230032599A1 (en) | Methods and apparatuses for encoding, decoding and rendering 6dof content from 3dof+ composed elements | |
CN115885513A (zh) | 用于对体积视频进行编码和解码的方法和装置 | |
CN114651271A (zh) | 用来解码部份比特流以产生基于投影并具有约束后保护带尺寸大小、约束后投影面尺寸大小、与/或约束后画面尺寸大小的帧的视频解码方法 |