ES2342365T3 - Codificacion y descodificacion de alta precision para imagenes de video. - Google Patents
Codificacion y descodificacion de alta precision para imagenes de video. Download PDFInfo
- Publication number
- ES2342365T3 ES2342365T3 ES02748364T ES02748364T ES2342365T3 ES 2342365 T3 ES2342365 T3 ES 2342365T3 ES 02748364 T ES02748364 T ES 02748364T ES 02748364 T ES02748364 T ES 02748364T ES 2342365 T3 ES2342365 T3 ES 2342365T3
- Authority
- ES
- Spain
- Prior art keywords
- frame
- values
- bit
- bits
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
- H04N19/45—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Color Television Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Procedimiento para comprimir y descomprimir una secuencia de imágenes de vídeo digitalizadas que incluye una secuencia de tramas representadas con una primera precisión de bits en un primer espacio cromático, y el procedimiento se caracteriza por las etapas de a) transformación de la secuencia de tramas para obtener una representación en un segundo espacio cromático con una segunda precisión de bits superior a la primera precisión de bits; b) realización de posteriores etapas de codificación con la segunda precisión de bits para generar un flujo de bits comprimido; y c) realización de posteriores etapas de descodificación con la segunda precisión de bits en el flujo de bits comprimido, y las posteriores etapas de descodificación incluyen la aplicación de una transformada discreta de coseno inversa.
Description
Codificación y descodificación de alta precisión
para imágenes de vídeo.
La presente invención se refiere a la compresión
de vídeo, y más concretamente a una compresión de vídeo de calidad
mejorada basada en mejoras novedosas referidas a los sistemas de
codificación y descodificación de tipo MPEG.
MPEG-2 Y MPEG-4
son estándares internacionales de compresión de vídeo que definen
una sintaxis de vídeo que proporciona una manera eficiente de
representar secuencias de imágenes en forma de datos codificados más
compactos. El lenguaje de los bits codificados constituye la
"sintaxis". Por ejemplo, unos pocos testigos pueden representar
un bloque de muestras completo (por ejemplo, 64 muestras para
MPEG-2). Ambos estándares MPEG describen también un
procedimiento de descodificación (reconstrucción) en el que para los
bits codificados se establece una correspondencia entre la
representación compacta y una aproximación del formato original de
la secuencia de imágenes. Por ejemplo, la presencia de un indicador
en el flujo de bits determina si los siguientes bits deben ir
precedidos de un algoritmo de predicción antes de ser descodificados
con un algoritmo basado en la transformada discreta de coseno
(DCT). Los algoritmos que comprenden el procedimiento de
descodificación se rigen por la semántica definida por estos
estándares MPEG. Esta sintaxis se puede aplicar para obtener
provecho de características de vídeo tales como la redundancia
espacial, la redundancia temporal, el movimiento uniforme, el
enmascaramiento espacial, etc. De hecho, estos estándares MPEG
definen un lenguaje de programación así como un formato de datos.
Un descodificador de MPEG debe ser capaz de interpretar y
descodificar un flujo de datos entrante, pero, siempre que el flujo
de datos observe la sintaxis MPEG correspondiente, se pueden usar
una amplia variedad de posibles estructuras de datos y técnicas de
compresión. También es posible trasladar la semántica necesaria a
una sintaxis alternativa.
Estos estándares MPEG utilizan diversos
procedimientos de compresión, entre los que se incluyen
procedimientos intratrama e intertrama. En la mayoría de las
escenas de vídeo, el fondo permanece relativamente estable,
mientras que la acción tiene lugar en el primer plano. El fondo
puede moverse, pero gran parte de la escena es redundante. Estos
estándares MPEG comienzan la compresión creando una trama de
referencia denominada "intratrama" o "trama I". Las
tramas I se comprimen sin hacer referencia a otras tramas y, por lo
tanto, contienen una trama completa de información de vídeo. Las
tramas I proporcionan puntos de entrada a un flujo de bits para
ofrecer un acceso aleatorio, pero solo se pueden comprimir hasta
cierto punto. Por regla general, los datos que representan tramas I
se colocan en el flujo de bits cada 12 a 15 tramas. A partir de
aquí, ya que solo una pequeña parte de las tramas situadas entre
las tramas I de referencia son diferentes de las tramas I entre las
que están comprendidas, solo se capturan, comprimen y almacenan las
diferencias en las imágenes. Para estas diferencias se usan dos
tipos de tramas: tramas predictivas o tramas P, y tramas
bidireccionales interpoladas o tramas B.
Las tramas P se codifican generalmente haciendo
referencia a una trama anterior (una trama I o bien una trama P
previa), y, en general, se usan como referencia para tramas P
posteriores. Las tramas P reciben una cantidad de compresión
bastante elevada. Las tramas B proporcionan la mayor cantidad de
compresión, pero requieren una trama de referencia tanto previa
como futura para que se pueda codificar. Nunca se usan tramas
bidireccionales como tramas de referencia.
Los macrobloques son zonas de píxeles de imagen.
Para MPEG-2, un macrobloque es un conjunto de 16x16
píxeles de cuatro bloques de DCT de 8x8, junto con un vector de
movimiento para tramas P y uno o dos vectores de movimiento para
tramas B. Los macrobloques contenidos en tramas P se pueden
codificar de forma individual usando una codificación intratrama o
intertrama (predictiva). Los macrobloques contenidos en tramas B se
codifican de forma individual usando una codificación intratrama,
una codificación predictiva hacia delante, una codificación
predictiva hacia atrás, o una codificación predictiva tanto hacia
delante como hacia atrás (es decir, interpolada
bidireccionalmente).
Tras la codificación, un flujo de bits de datos
en formato MPEG comprende una secuencia de tramas I, P y B. Una
secuencia puede consistir en casi cualquier patrón de tramas I, P y
B (en su colocación, existen ciertas restricciones semánticas de
poca importancia). No obstante, en la práctica industrial, es común
encontrar un patrón fijo (por ejemplo, IBBPBBPBBPBBPBB).
Desde hace algún tiempo se sabe que los cálculos
se reducen cuando se determinan vectores de movimiento mediante la
utilización de una búsqueda de movimiento jerárquica. Por ejemplo,
los algoritmos MPEG intentan encontrar una concordancia entre zonas
del "macrobloque". Los codificadores de tipo MPEG y otros
codificadores basados en la DCT (transformada discreta de coseno)
con compensación de movimiento intentan hacer que cada región de un
macrobloque de una trama actual concuerde con una posición en un
trama previa (trama P) o en una trama previa y posterior (trama B).
No obstante, no siempre es necesario encontrar una buena
concordancia, ya que MPEG puede codificar un nuevo macrobloque como
un ("intra") nuevo macrobloque independiente en este caso sin
usar tramas previas o posteriores. En tales sistemas de DCT con
compensación de movimiento es necesario un vector de movimiento de
macrobloque para cada zona del macrobloque para
MPEG-2. En MPEG-4, un conjunto de 4
vectores de movimiento, correspondientes a un vector para cada
región de 8x8 (es decir, 4 vectores por macrobloque) también
constituye un modo de codificación opcional.
Las aplicaciones de los códecs de vídeo de
MPEG-2 y MPEG-4 de referencia
utilizan la siguiente metodología de codificación:
a) Al convertir un espacio cromático RGB en YUV,
solo se mantiene el número de bits que se van a codificar (por
ejemplo, MPEG-2 está limitado a una codificación de
8 bits, y por tanto los valores YUV también están limitados a 8
bits).
b) Al codificar y descodificar, solo se conserva
el número de bits que se han codificado, aplicando un redondeo
prudente para reducir las perturbaciones.
c) Al volver a pasar a RGB, la precisión es
limitada debido a las limitaciones en el número de bits que se han
conservado (un máximo de 8 bits para MPEG-2)
La fig. 1 es un diagrama de bloques de un
procedimiento de codificación de vídeo de referencia de
MPEG-2 de la técnica anterior. Las tramas de
entrada RGB 102 codificadas a 8 bits/píxel por color se aplican a un
convertidor de RGB a YUV 104, que está limitado intencionadamente a
una precisión de 8 bits por color en su salida. El resultado se
aplica a una función DCT 106, y después a una función de
cuantificación 108, después a una función DCT inversa 110, y la
salida final 212 se almacena con la misma precisión que los datos de
entrada.
El codificador de vídeo de referencia de
MPEG-4 se aplica con el mismo procedimiento, aunque
la precisión intermedia se puede ampliar hasta 12 bits (aunque las
tablas VLC -de codificación de longitud variable- no están
adaptadas para el uso del intervalo completo).
Se utilizan técnicas para aplicación de
vibraciones aleatorias (dithering) en los valores de
precisión limitada (un máximo de 8 bits por componente cromático en
MPEG-2) con el fin de reducir la evidente
visibilidad de saltos bruscos. No obstante, en la codificación, a
causa de esta vibración, se crean ruido y perturbaciones, que
también se crean debido al uso de una precisión de procesamiento
intermedio limitada.
Además de esta limitada precisión de
procesamiento intermedio, MPEG-2 y
MPEG-4 permiten que el algoritmo basado en una DCT
inversa (IDCT) usado durante la codificación (a menudo incorporado
en una representación de coma flotante de alta precisión) sea
ligeramente diferente al algoritmo IDCT usado durante la
descodificación. Esto se conoce como "discordancia en la
IDCT". La discordancia en la IDCT provoca una deriva gradual
impredecible en la señal, que la aleja de los valores de
descodificación previstos. Esto se reduce, convencionalmente,
mediante el uso de una vibración aleatoria o dithering del
bit de orden inferior en la frecuencia más alta de la IDCT (séptimo
armónico para el tamaño de bloque típico de la DCT de 8x8 usado en
MPEG-2 y MPEG-4). Dicha vibración
añade ruido y perturbaciones a la señal.
La fig. 2 es un diagrama de bloques de un
procedimiento de descodificación de vídeo de referencia
MPEG-2 de la técnica anterior. Se aplica un flujo
de bits de entrada codificados 202 a una función de
descuantificación 204 que posee una precisión limitada que
concuerda con la precisión del flujo de bits de entrada
(típicamente, 8 bits para MPEG-2). El resultado se
aplica a una función IDCT 206 (que puede no coincidir con la función
IDCT 110 del codificador), que produce una salida de valores de 8
bits con signo 208. Esta salida comprende una trama I 210, o bien
se combina con datos de una trama previa 212 o de una trama
posterior 214 (ambas con la misma precisión) para generar una nueva
trama 216. De este modo, el procedimiento de descodificación de
MPEG-2 limita la precisión de procesamiento
intermedio hasta un máximo de 8 bits. Asimismo, la precisión de
procesamiento intermedio para la descodificación de vídeo de
MPEG-4 también está limitada al número de bits
usados en la codificación (un máximo de 12 bits, pero a menudo se
fija en 8 bits).
La precisión limitada en MPEG-2
y MPEG-4 también limita la gama dinámica (es decir,
el número de niveles de iluminación que se pueden representar para
una imagen) y la gama de contraste (es decir, el número de niveles
distintos asignados a zonas de la imagen con un contraste similar).
Por consiguiente, los procedimientos de codificación y
descodificación usados en MPEG-2 y
MPEG-4 reducen la calidad potencial de las imágenes
de salida descomprimidas, en comparación con las imágenes de
entrada originales. La presente invención se ocupa de estas
limitaciones.
La solicitud de patente internacional WO94/08427
describe un sistema de codificación/descodificación de vídeo en
movimiento en el que los coeficientes de la componente de corriente
continua obtenidos a partir de una transformada discreta de coseno
de una señal de vídeo se codifican con una precisión, expresada en
función de los bits de cuantificación, que se puede modificar de
acuerdo con la calidad de imagen deseada. No obstante, este sistema
presenta inconvenientes, entre los que se incluye el inconveniente
que supone la pérdida del detalle fino de la imagen transportado
por los componentes de corriente alterna en una señal con una amplia
gama dinámica.
La invención se dirige a una compresión de vídeo
con una calidad mejorada, basada en mejoras innovadoras en los
sistemas de codificación y descodificación de tipo MPEG. En un
aspecto, la invención proporciona un procedimiento para mejorar
considerablemente la calidad de imagen de la codificación de vídeo
de tipo MPEG mediante la conservación de un mayor número de bits
durante las etapas intermedias del procesamiento de la codificación
y la descodificación. Resulta sorprendente que esta mejora en la
calidad no haga que el número total de bits necesarios para
codificar una secuencia de imágenes sea proporcionalmente mayor.
Además, los problemas de discordancia en la IDCT se pueden eliminar
haciendo que el algoritmo numérico de la función IDCT del
descodificador concuerde de manera exacta con el algoritmo numérico
de la función IDCT usado para la parte de descodificación del
codificador. La eliminación de la discordancia en la IDCT permite
aumentar las relaciones de compresión reduciendo el número de
tramas I necesarias.
Otro aspecto de la invención consiste en un
procedimiento para comprimir y descomprimir una secuencia de
imágenes de vídeo digitalizadas que incluyen una secuencia de
tramas representadas con una primera precisión de bits en un primer
espacio cromático, y el procedimiento incluye la transformación de
la secuencia de tramas para obtener una representación en un
segundo espacio cromático con una segunda precisión de bits superior
a la primera precisión de bits; la realización de posteriores
etapas de codificación con la segunda precisión de bits para
generar un flujo de bits comprimido; y la descodificación del flujo
de bits comprimido mediante la descuantificación del flujo de bits
comprimido con la segunda precisión de bits para generar una salida
descuantificada, la aplicación de una transformada discreta de
coseno con la segunda precisión de bits en la salida
descuantificada para producir una salida descomprimida, y la
generación de tramas de imagen con la segunda precisión de bits a
partir de la salida descomprimida.
Otro aspecto más de la invención consiste en un
procedimiento para comprimir y descomprimir una secuencia de
imágenes de vídeo digitalizadas que incluyen una secuencia de tramas
representadas con una primera precisión de bits en un primer
espacio cromático, y el procedimiento incluye la transformación de
la secuencia de tramas para obtener una representación en un
segundo espacio cromático con una segunda precisión de bits superior
a la primera precisión de bits; la realización de posteriores
etapas de codificación con la segunda precisión de bits para
generar un flujo de bits comprimido, entre las que se incluye la
aplicación de un algoritmo numérico basado en una transformada
discreta de coseno inversa; y la realización de posteriores etapas
de descodificación con la segunda precisión de bits en el flujo de
bits comprimido, entre las que se incluye la aplicación de un
algoritmo numérico concordante basado en una transformada discreta
de coseno inversa.
La invención incluye las correspondientes
aplicaciones para un programa informático y las aplicaciones para
un aparato.
En los dibujos adjuntos y en la siguiente
descripción se exponen los detalles de una o más formas de
realización de la invención. A partir de la descripción y los
dibujos, y de las reivindicaciones, se pondrán de manifiesto otras
características, objetos y ventajas de la presente invención.
Figura 1. Diagrama de bloques de un
procedimiento de codificación de vídeo de referencia
MPEG-2 de la técnica anterior.
Figura 2. Diagrama de bloques de un
procedimiento de descodificación de vídeo de referencia
MPEG-2 de la técnica anterior.
Figura 3. Diagrama de bloques de un
procedimiento de codificación de tipo MPEG de acuerdo con la
presente invención.
Figura 4. Diagrama de bloques de un
procedimiento de descodificación de tipo MPEG de acuerdo con la
presente invención.
Figura 5. Diagrama de flujo que resume un
procedimiento preferido para ampliar la gama dinámica y/o de
contraste durante la compresión de la imagen.
Los símbolos de referencia similares de los
diversos dibujos indican elementos similares.
Las condiciones de precisión limitada y las
técnicas comprendidas en MPEG-2 y
MPEG-4 están diseñadas para minimizar la cantidad
de memoria necesaria para almacenar tramas I, B y P. No obstante, la
memoria de trama posee actualmente un precio bastante asequible. La
presente invención se basa, en parte, en el descubrimiento de que
se puede lograr una calidad de imagen mejorada considerablemente a
partir de la codificación de vídeo de tipo MPEG mediante la
conservación de un mayor número de bits durante las etapas
intermedias de procesamiento de codificación y descodificación.
Resulta sorprendente que esta mejora en la calidad no haga que el
número total de bits necesarios para codificar una secuencia de
imágenes sea proporcionalmente mayor. De hecho, por lo general, el
número de bits se reduce usando la presente invención.
La fig. 3 es un diagrama de bloques de un
procedimiento de codificación de tipo MPEG de acuerdo con la
presente invención. Las tramas de entrada RGB 302 se aplican a un
convertidor de RGB a YUV 304. Se suelen preferir los modernos
dispositivos de generación de tramas (por ejemplo, cámaras de vídeo
y escáneres de película de alta definición) como fuente de entrada,
debido a que dichos dispositivos pueden producir unas imágenes de
salida con una mayor gama cromática (por ejemplo, 10 bits/píxel por
color). No obstante, la fuente de entrada puede ser un dispositivo
convencional de MPEG-2 o MPEG-4 de 8
bits. El resultado se aplica a una función DCT 306, que conserva
más bits de precisión (por ejemplo, 16 bits) de los que se
encuentran en la señal de entrada original. La salida de la función
DCT 306 se aplica a una función de cuantificación 308, y después a
una función IDCT 310, que, de nuevo, conserva más bits de precisión
(por ejemplo, 16 bits) de los que se encuentran en la señal de
entrada original (como por ejemplo, tramas I sin signo y tramas P y
B con signo de 16 bits, siendo 16 bits una representación
conveniente para sistemas digitales de hardware y software). La
salida final 312 es, típicamente, una señal YUV almacenada con la
misma precisión que la precisión de procesamiento intermedio. Una
característica importante de tal aumento de precisión en la salida
es que permite mejorar la predicción de las siguientes tramas P y
B.
El concepto de discordancia de IDCT que se
incorpora en la codificación de vídeo MPEG-2 y
MPEG-4 se basa en la suposición de que el cálculo
usado para la descodificación puede diferir con respecto al cálculo
usado para la parte de descodificación de la codificación. Tal como
se menciona anteriormente, esta discordancia provocará una deriva,
incluso en presencia de la vibración aleatoria de discordancia de la
DCT de bits inferiores y armónicos altos (que también añade ruido).
La práctica habitual en MPEG-2 consiste en colocar
tramas I, unas cerca de otras (aproximadamente, cada medio
segundo), para volver a corregir esta deriva, y para limitar el
alcance del error. No obstante, las tramas I resultan relativamente
poco eficientes, con un coste, por lo general, de aproximadamente 3
veces el número de bits como tramas P, y 5 veces el número de bits
como tramas B. Las tramas I también forman puntos de reinicio y de
referencia durante la "sintonización" de una secuencia de
imágenes en movimiento. No obstante, la frecuencia de su aparición
en los medios almacenados podría aumentarse provechosamente hasta
varios segundos (por ejemplo, en el intervalo de aproximadamente 1 a
5 segundos, de media) para mejorar la eficiencia, de no ser por la
discordancia de la IDCT.
La discordancia de la IDCT se puede eliminar
haciendo que los algoritmos numéricos de la función IDCT del
descodificador concuerden de manera exacta con los de la función
IDCT usada por la parte de descodificación del codificador.
Cualquier limitación de precisión en estas funciones IDCT
concordantes se corrige automáticamente en cada trama P, gracias al
mecanismo de realimentación natural que surge al pasar de una trama
P a la siguiente mediante la codificación de su señal de diferencia
(que incluye la diferencia entre las limitaciones de precisión de
la IDCT). La "concordancia exacta" de los algoritmos numéricos
se refiere al hecho de que esas partes de los algoritmos que
transforman la entrada en una salida deberían aplicar las mismas
definiciones para las funciones de multiplicación y suma, las
mismas representaciones numéricas, la misma precisión, etc. No
obstante, no es necesario que los algoritmos numéricos sean
idénticos, en lo que respecta a su aplicación en programas
informáticos o circuitos integrados. De este modo, por ejemplo, se
pueden usar diferentes lenguajes informáticos y modos de generación
binarios (por ejemplo, interpretados frente a compilados).
De este modo, se puede lograr una codificación
de alta calidad mediante la precisión suficiente en la función
IDCT. No obstante, la función IDCT no requiere una precisión muy
alta. Por ejemplo, en el software de referencia de vídeo de
MPEG-4, se usa una aplicación de una IDCT con coma
flotante de precisión doble (64 bits). Esto resulta totalmente
innecesario, ya que una aplicación de la IDCT de 16 bits es
suficiente para proporcionar las mejoras necesarias para codificar
una gama dinámica de hasta 12 bits. Se pueden usar aplicaciones de
la IDCT de codificador y descodificador (que concuerdan de forma
exacta) superiores a 16 bits, tales como las aplicaciones de coma
flotante de 32 bits, para ampliar la gama dinámica hasta 16 bits (lo
cual produce una gama dinámica superior a 1 billón a uno en pasos
logarítmicos de menos del diez por ciento, lo cual supera los
límites de la visión humana). De este modo, al hacer que las
aplicaciones de codificador y descodificador de la IDCT concuerden
de forma exacta, el presente procedimiento reduce en gran medida la
cantidad de cálculos necesarios para las aplicaciones de la IDCT,
al tiempo que elimina los problemas de la discordancia de la IDCT.
Además, contrariamente a lo esperado, el uso de aplicaciones de la
IDCT de codificador y descodificador que concuerdan de forma
exacta, en realidad aumenta la eficiencia global (es decir, se logra
una relación de compresión más alta) incluso con un aumento en la
precisión intermedia, ya que las tramas I, en las que cada bit
resulta costoso, se pueden separar aún más en el tiempo (por
ejemplo, en un intervalo de aproximadamente 1 a 5 segundos, de
media). De hecho, la separación entre las tramas I intercaladas se
puede multiplicar de forma virtualmente ilimitada, o limitada
únicamente por el deseo de poder saltar en medio de un programa o
para corregir errores generados por un canal de distribución con
pérdidas.
La fig. 4 es un diagrama de bloques de un
procedimiento de descodificación de tipo MPEG de acuerdo con la
presente invención. Se aplica un flujo de bits de entrada codificado
de alta precisión 402 a una función descuantificadora 404 que posee
una precisión de procesamiento "intermedia" que concuerda con
la precisión del flujo de bits de entrada. El resultado obtenido se
aplica preferentemente a una función IDCT 406 que concuerda de forma
exacta con la función IDCT 310 del codificador correspondiente. La
función IDCT 406 produce una salida de valores con signo 408 de la
misma precisión intermedia que todas las etapas de procesamiento
interno previas (por ejemplo, 16 bits). Esta salida comprende una
trama I 410, o bien se combina con datos precedentes de una trama
previa 412 o de una trama posterior 414 (ambas con la misma
precisión) para generar una nueva trama 416.
Además, se deberían eliminar todas las formas de
vibración o dither, reduciendo de ese modo el ruido y las
perturbaciones. Concretamente, se debería eliminar la aplicación de
vibración en el redondeo (excepto con una precisión plena, como por
ejemplo, de 16 bits, es decir, redondeo del 17º bit), y aplicación
de la vibración del bit inferior del armónico alto de la
discordancia de la IDCT. Además, en la forma de realización
preferida, la precisión de píxel intermedia adicional se usa durante
cualquier etapa de conversión del espacio cromático (por ejemplo,
de YUV a RGB u otras conversiones, como por ejemplo de YUV 2:0 a YUV
4:2:2, para visualizar, utilizar o almacenar la imagen convertida)
durante la descodificación, redondeando únicamente en la etapa
final.
Cabe señalar que las técnicas de alta precisión
que se muestran en la fig. 3 y en la fig. 4 se pueden usar para
codificar y posteriormente descodificar una entrada de precisión
estándar (por ejemplo, la entrada con precisión de 8 bits utilizada
por MPEG-2). Aunque el resultado no posee una
calidad tan alta como la codificación y la descodificación de una
entrada de mayor precisión, el resultado seguirá constituyendo una
mejora con respecto a la actual codificación y descodificación de
MPEG. Además, tanto el procedimiento de codificación como el de
descodificación se pueden mejorar mediante un aumento en la
precisión durante el procesamiento intermedio y el almacenamiento.
No es necesario que dicha precisión sea idéntica para obtener
mejoras, pero la mejora se optimiza cuando las partes de
descodificación de la codificación y descodificación concuerdan de
forma exacta en la precisión y el algoritmo numérico.
A continuación, se presenta un resumen de la
forma de realización preferida del presente procedimiento para
mejorar la calidad de la imagen comprimida:
1) Conservar más bits de precisión durante el
procesamiento intermedio que la precisión de la entrada (por
ejemplo, conservar más bits de precisión de la etapa de conversión
de RGB a YUV durante la codificación, y conservar más bits de
precisión de la etapa de IDCT).
2) Almacenar el resultado del aumento en la
precisión intermedia.
3) Utilizar, de forma opcional, una aplicación
de la IDCT que concuerde de forma exacta en el codificador y el
descodificador.
4) Eliminar, de forma opcional, todas las formas
de vibración o dither.
5) Utilizar la precisión de píxel adicional
durante la etapa final de conversión de espacio cromático durante
la descodificación, redondeando únicamente en la etapa final.
El presente inventor ha expuesto anteriormente
el concepto de aumento gradual en la gama dinámica y colorimétrica
de las representaciones de imágenes basadas en píxeles. Véase, por
ejemplo, "The Use of Logarithmic and Density Units for
Pixels", de Gary Demos, presentado en la conferencia de la SMPTE
de octubre de 1990, y publicado en el SMPTE Journal (oct. de 1990,
vol. 100, nº 10). Véase también "An Example Representation for
Image Color and Dynamic Range which is Scalable, Interoperable, and
Extensible", de Gary Demos, presentado en la conferencia de la
SMPTE de octubre de 1993, y publicado en las actas y las ediciones
preliminares.
El uso de una representación logarítmica para
los valores de los píxeles posee muchas ventajas. Por ejemplo, la
metodología de codificación de YUV calcula U como
R-Y, y V como B-Y. En una
representación logarítmica, U se convierte en R/Y y V se convierte
en B/Y, las cuales son de igual luminancia (o "isoluminantes")
según la terminología acuñada en la publicación de la SMPTE de
1993, "An Example Representation for Image Color and Dynamic
Range which is Scalable, Interoperable, and Extensible", referida
anteriormente. Es decir, ambos canales U y V no contienen ninguna
señal bajo variación de iluminación si poseen una tonalidad
constante. Esto permite una alta eficiencia en la codificación del
color usando los canales U y V. Además, esta eficiencia en la
codificación de la tonalidad se obtiene a lo largo de una gama
dinámica muy amplia de brillo general. Una representación
logarítmica también permite el uso de procedimientos sencillos de
medida y calibrado de sistemas, además de ser perceptualmente
uniforme a lo largo de una gama de brillo muy amplia.
La tabla 1 indica la gama y la capacidad de
definición tonal de diversos números de bits en el intervalo de 9 a
14 bits/píxel. A partir de esta tabla, se puede observar que es
posible aproximarse a la gama de la visión humana, que comprende
una gama de aproximadamente 10.000.000 a 1 en gama de brillo, gama
cromática y definición tonal (en pasos de 1/8 por ciento), usando
una precisión de menos de 16 bits usando una representación
logarítmica.
Las actuales cámaras y proyectores electrónicos
de alta calidad son capaces de funcionar a aproximadamente 10
bits/píxel por color de gama dinámica y cromática. Por ejemplo, la
cámara Polaroid/Phillips LDK9000 proporciona una imagen con un bajo
nivel de ruido y una amplia gama cromática. Esta cámara posee un
tamaño de píxel CCD de 11 micrómetros y una cuenta de electrones a
máxima capacidad de píxel (full well) de aproximadamente
25.000 electrones. Son perfectamente factibles tamaños de sensor más
grandes, con el potencial de aumentar la cuenta de electrones a
máxima capacidad hasta cientos o miles o millones de electrones. En
el lado de proyección de la imagen, unos proyectores de
microespejos con una entrada gamma de 10 bits son capaces de
lograr una gama dinámica de 1000:1 con una distinción tonal
razonable, aproximándose de este modo a la calidad cinematográfica.
Aunque las mejores películas pueden alcanzar una gama dinámica más
amplia (aproximadamente de 3000:1) con una alta fidelidad tonal y
una amplia gama cromática, ahora es posible prever que la creación y
presentación de imágenes digitales competirá con este rendimiento
y, finalmente, lo superará.
Como se señala anteriormente, la calidad de la
compresión de la imagen en movimiento se puede mejorar
considerablemente mediante la conservación de una precisión
ampliada durante el procesamiento intermedio. También se puede
utilizar el mismo mecanismo para ampliar enormemente la gama
dinámica de la información de la imagen que puede comprimirse de
forma eficiente. Por ejemplo, si se conservan 14 bits de precisión
intermedia, esta gama de bits puede representar una gama dinámica
de 700.000.000:1 en pasos logarítmicos de 1/8%.
También resulta útil realizar la observación
directa, que no se contempla en las publicaciones referidas, de que
la distinción del brillo es local. De este modo, no es posible
distinguir pequeñas variaciones de brillo en un área de sombras
oscuras que esté situada justo al lado de un objeto muy brillante.
De este modo, solo es necesario conservar la distinción en la gama
tonal y dinámica con respecto al brillo local en esa misma zona de
una imagen. No obstante, una parte diferente de la imagen podría
tener sombras oscuras, y podría estar lo bastante alejada de la
región luminosa como para que se observe una distinción sustancial
en el detalle, lo cual requiere un detalle correspondiente en la
gama tonal de la representación de brillo local.
Estos conceptos, combinados con el uso de la
precisión ampliada durante el procesamiento intermedio, se pueden
aplicar a la compresión de imágenes en movimiento. Concretamente,
una vez que la precisión intermedia que se mantiene dentro del
sistema de compresión se amplía a números de bits más altos, como
por ejemplo 13, 14, 15 ó 16, esta precisión ampliada también será
capaz de representar imágenes con una amplia gama dinámica. Además,
para lograr una compresión eficiente, se puede utilizar la
limitación perceptual de la distinción tonal en áreas luminosas
frente a la distinción ampliada en sombras.
En los sistemas de compresión de tipo MPEG, la
distinción tonal se determina mediante el "parámetro de
cuantificación" o "QP". QP se divide en los coeficientes de
frecuencia de la DCT para reducir el número de bits necesarios para
codificar un flujo de imágenes en movimiento. Durante la
descodificación, el QP se multiplica por los coeficientes de la DCT
antes de calcular la IDCT. De este modo, aunque el QP se aplica en
el espacio de frecuencia (DCT), sigue representando un parámetro de
precisión tonal.
Atendiendo a las características de distinción
de zonas descritas anteriormente, se puede utilizar un QP alto en
áreas de alto brillo sin una pérdida visible de claridad o tono, ya
que la distinción tonal es relativa al brillo completo. No
obstante, en las zonas oscuras de las sombras de la imagen, se debe
utilizar un QP bajo para permitir la precisión tonal fina.
En MPEG-1,
MPEG-2 y MPEG-4, resulta habitual
utilizar un factor lineal del QP en el intervalo de 1 a 32. Aunque
esto resulta adecuado para una gama dinámica de 8 bits, como la que
proporciona MPEG-2, esta gama resulta insuficiente
para números de bits más altos (como 10 bits o 12 bits), o para una
gama dinámica más amplia. En MPEG-2 y
MPEG-4, es posible variar el QP de un macrobloque al
siguiente. Normalmente, este es el mecanismo mediante el cual se
ajusta la tasa de bits para mantener una tasa de bits constante. Un
QP más alto produce menos bits codificados, mientras que un QP más
bajo produce más bits codificados. De este modo, lo único que se
requiere para mantener una tasa de bits constante en un sistema de
precisión limitada tal como en la capacidad de 8 bits de
MPEG-1 y MPEG-2 es variar el QP en
el intervalo de 1 a 32. No obstante, para una precisión de 10 bits
o de 12 bits, como en MPEG-4, si el grado de cambio
en la escena varía mucho (alta tensión de escena), y se requiere
una tasa de bits baja y constante, un intervalo de QP de 32 valores
posibles puede resultar insuficiente. Un intervalo de QP de 32
valores para 10 bits es equivalente a un intervalo de QP de 8
valores para 8 bits, siendo únicamente un cuarto del intervalo
disponible para sistemas de codificación de 8 bits tales como
MPEG-2. Para sistemas de codificación de 12 bits,
tales como MPEG-4, un intervalo de 32 valores es
equivalente a un intervalo de QP de 2 valores para una codificación
de 8 bits, estando únicamente los primeros dieciséis del intervalo
de QP disponibles para un sistema de 8 bits.
Resulta útil ampliar el intervalo de QP en el
caso general. No obstante, se puede observar que el uso de una
codificación y/o descodificación intermedia de alta precisión junto
con una correspondencia directa entre el intervalo de QP y los
valores de QP (es decir, un valor x es el mismo que el número de
representación x; de este modo, un valor 14 es igual al número de
representación 14) puede dar lugar a una compresión y descompresión
de alta calidad.
Es deseable mantener el pequeño número de pasos
en el QP (por ejemplo, 32 ó 64 valores, o algún número pequeño como
estos) si se desea una variación de QP dentro de una trama, ya que
los bits necesarios para codificar variaciones de QP por
macrobloque están limitados a 2 unidades en MPEG-4.
Si se varía el QP sólo una vez por trama, o una vez por rebanada
(slice) o gran estructura de este tipo, entonces el número de
valores para QP puede ser grande.
Si fuera necesario, el intervalo eficaz de QP se
puede ampliar hasta un amplio intervalo de valores (es decir, los
valores de QP aplicados realmente durante la compresión y
descompresión) dentro de un pequeño número de códigos de
representación aprovechando la naturaleza perceptualmente
logarítmica de la gama dinámica. Por consiguiente, se puede usar
una tabla de consulta no lineal para establecer una correspondencia
entre un pequeño número de códigos QP representativos (por ejemplo,
el intervalo de 1 a 32, o de 1 a 128) y un intervalo mucho más
amplio de valores de QP determinados (por ejemplo, de 1 a 128, de 1
a 256, de 1 a 1024, o de 1 a 4096). En dicha tabla, las entradas
bajas de código de QP se corresponderían prácticamente uno a uno con
determinados valores de QP. Por ejemplo, los códigos de QP 1 a 4
pueden corresponderse con determinados valores de salida de QP de 1
a 4. No obstante, la correspondencia irá adoptando gradualmente una
pendiente más acentuada, en un modelo logarítmico, de tal forma que
el código de QP 8 puede corresponderse con un valor de QP
determinado 16, el código de QP 16 podría corresponderse con un
valor de QP determinado 64, y el código QP 32 podría corresponderse
con un valor de QP determinado 256. Se puede observar que
MPEG-2 sí permite un modo de QP lineal de 1 a 31,
un modo de QP de doble paso que establece una correspondencia entre
cada código de 1 a 31 y dos veces su valor (es decir, de 2 a 62). Y
un modo de QP no lineal que establece una correspondencia entre
códigos de 1 a 31 y determinados valores de 1 a 112. En
MPEG-2, estos grandes valores determinados de QP dan
lugar a una codificación extremadamente tosca que usa valores de
píxel de 8 bits. Por ejemplo, los valores de QP de 62 a 112
corresponden a la codificación de solo dos o un bit,
respectivamente, de los valores de 8 bits. De este modo, cualquier
imagen codificada que use estos valores tendrá una calidad
extremadamente baja.
Otra posibilidad consiste en que, si se
especifica el QP una vez por trama o rebanada u otra gran
estructura, el número de bits disponibles para el QP no está
limitado, y los valores de QP pueden representarse completamente a
lo largo de un intervalo muy amplio dentro de cualquier número de
bits, incluidos 16 bits, 32 bits, 32 bits con coma flotante, e
incluso números de bits más altos. No obstante, el marco conceptual
de las imágenes de amplia gama dinámica es tal que algunas partes
de la imagen tienen un brillo alto, y requieren unos valores
determinados de QP altos, y otras partes tienen un brillo bajo, y
requieren unos valores determinados de QP bajos. De este modo,
resulta útil usar un procedimiento para especificar eficientemente
valores de QP en función de una zona. El mecanismo existente en los
sistemas de codificación (tales como MPEG-4), de
permitir que los valores de QP varíen \pm2 unidades por
macrobloque, es suficiente si el intervalo de códigos de QP es
limitado (por ejemplo, de 1 a 32, como en MPEG-4).
No obstante, si se necesita un intervalo grande de valores de QP,
existen otros procedimientos sencillos para especificar los valores
de QP zonales que también resultan apropiados y útiles.
De este modo, el uso de valores de QP que varían
zonalmente es lo suficientemente general como para permitir
representaciones de una gama dinámica muy amplia que se pueden
comprimir enormemente, y aún así ser visualmente indistinguibles de
la imagen en movimiento original.
Es preciso prestar atención al número de bits
disponibles para la representación codificada tras dividir por
determinados valores de QP (la división de la salida de la DCT por
QP se denomina también "cuantificación"). Tras la
cuantificación, los bits restantes de deben codificar para obtener
el flujo de bits. Los bits codificados, excepto en el caso de
intratramas e intramacrobloques, representan la diferencia entre la
mejor concordancia predicha mediante un vector de movimiento en una
trama previa o posterior, y la trama actual y el macrobloque
actual. La representación codificada de esta diferencia codificada
con la DCT y cuantificada determinará la relación de compresión que
se puede lograr.
En MPEG-2 y
MPEG-4, el intervalo máximo de valores codificados
es \pm2047 (limitado por la representación de la tabla de VLC).
Esto corresponde a una precisión descuantificada de 8 bits. De este
modo, para la codificación descuantificada (es decir, QP=1) de
imágenes de 10 bits, resulta posible superar este intervalo máximo
de codificación en un factor de cuatro. Esto puede suceder si el
mejor bloque predictor de concordancias contiene una transición a
escala completa de negro a blanco en CC, o el cambio de coeficiente
de CA a escala completa (tal como un borde acentuado entre negro y
blanco predicho a partir de una zona gris plana). Los predictores
óptimos rara vez proporcionarán una concordancia tan escasa, y por
ello, en el caso de este ejemplo de 10 bits, rara vez o nunca será
necesaria una codificación a escala completa. No obstante, el
intervalo de valores codificados en una imagen en movimiento de 12
bits, o de imágenes aún más amplias de 14 ó 16 bits, superará a
menudo una limitación del intervalo como, por ejemplo, de \pm2047.
Aunque el límite de \pm2047 se amplía fácilmente, resulta
beneficioso desde el punto de vista conceptual tratar de limitar el
número medio de bits que se codifican. Tanto el número medio de
bits como el máximo intervalo codificado se reducen directamente
mediante el uso de valores QP. Por ejemplo, un QP de 4 amplía la
gama dinámica disponible con una representación codificada de
\pm2047 para incluir todos los casos posibles de codificación de
10 bits, y todos los casos probables de codificación de imágenes en
movimiento de 12 bits. Por lo tanto, se puede observar que la
ampliación de los valores de QP a un mayor número de valores, como
16, 32 ó 64, puede ampliar aún más la gama dinámica de la imagen en
movimiento que se puede representar mediante un número limitado de
bits codificados, con lo cual se obtiene una alta compresión.
Una clave de este concepto consiste en que los
valores altos de QP en imágenes con una amplia gama dinámica
corresponden a zonas de la imagen que poseen un brillo elevado, que
no requieren una distinción tonal fina. Este procedimiento de
codificación de imágenes con una amplia gama dinámica, que mantiene
una precisión ampliada para tramas, y utiliza valores altos de QP
en zonas luminosas y valores bajos de QP en zonas oscuras, puede
lograr relaciones de compresión elevadas con una codificación
perceptualmente perfecta que resulta indistinguible del
original.
Por lo tanto, la utilidad de las técnicas de
compresión de tipo MPEG se puede ampliar para usarlas en la
compresión de imágenes en movimiento con una amplia gama dinámica.
A medida que las cámaras, proyectores y otros componentes de
sistemas de imagen amplían sus capacidades de gama, esta metodología
de compresión se puede aplicar para facilitar una compresión con
una alta eficiencia. El sistema de compresión resultante puede ir
ampliándose a lo largo de muchas generaciones de futuras mejoras
tecnológicas en los sistemas de creación y manipulación de
imágenes.
En resumen, un aspecto de los procedimientos
ilustrativos incluye la aplicación de una compresión de alta
precisión a imágenes con una amplia gama dinámica mediante la
ampliación del intervalo de valores de QP. La ampliación puede
lograrse aumentando el intervalo de valores de QP directamente, o
indirectamente a través de una transformación no lineal (como, por
ejemplo, una función o tabla de consulta) que establece una
correspondencia entre un pequeño intervalo de códigos de QP y un
intervalo más amplio de valores de QP para la división (compresión)
y multiplicación (descompresión). Otro aspecto de los procedimientos
consiste en la determinación de tales valores de QP de amplio
intervalo basados en información zonal, o mediante el análisis de la
información disponible durante la descompresión (por ejemplo,
coeficientes de la DCT, o el número de bits generados para un número
dado de valores de QP candidatos, de los que se selecciona uno que
resulte apropiado), o una combinación de los dos procedimientos de
determinación.
También se puede aplicar una precisión de
procesamiento intermedio ampliada y un intervalo de valores de QP
ampliado a la codificación de zonas de una imagen en movimiento con
una gama de contraste tanto ampliada como reducida. Por ejemplo, en
días neblinosos, es normal que haya un alto contraste en los objetos
del primer plano, pero que disminuye con la distancia. Los objetos
lejanos a menudo tendrán un contraste muy bajo. Otras situaciones
comunes, tales como las escenas que tienen lugar tras las ventanas
de un edificio o el parabrisas de un coche, también tienen un
contraste reducido debido al cristal y la reflexión del cristal. Las
reflexiones también presentan un contraste reducido.
Los principios de la ampliación en la precisión
y el intervalo de valores de QP se pueden aplicar a zonas de
contraste reducido de una imagen para ampliar la precisión con la
que se codifican por compresión las partes de bajo contraste. Al
igual que con la ampliación de la gama dinámica, que usa valores
bajos de QP para zonas oscuras y valores altos de QP para regiones
luminosas, se pueden utilizar valores bajos de QP con zonas de bajo
contraste (a menudo, distantes), mientras que para zonas de alto
contraste (normalmente, el primer plano) se utilizan valores altos
de QP. De este modo, si el sensor de una cámara tiene la suficiente
resolución de bits, los objetos distantes situados en el cielo o en
el suelo en un día neblinoso se pueden distinguir perfectamente
cuando se descomprimen. Se puede aumentar su contraste más tarde de
manera artificial, con lo que se revela una imagen nítida con una
gama dinámica normal.
Aunque las cámaras y películas actuales están
limitadas a aproximadamente a 10 bits de gama dinámica de tipo
gamma o logarítmica, es bastante probable que las futuras
cámaras cuenten con una mayor precisión. Tal ampliación en la
distinción del brillo de la imagen de la cámara resultaría útil para
visualizar el detalle en áreas de bajo contraste, además de ampliar
la gama dinámica. Al igual que las cámaras, al ampliarse la gama
dinámica y el brillo máximo de los proyectores, resulta posible
distinguir detalles de bajo contraste dentro de esta gama ampliada.
Las variaciones sutiles en el brillo, como, por ejemplo, en el caso
de la caída gotas de lluvia, se observan con mucha más facilidad en
un proyector con una amplia gama dinámica que en un monitor de
visualización con una gama dinámica limitada. Un objeto mostrado por
un proyector de amplia gama dinámica se distingue fácilmente debido
a que posee una amplia gama de variación de brillo para el
observador, mientras que un monitor de ordenador de tipo CRT posee
una pequeña gama de variación de brillo. De este modo, a medida que
las cámaras y los dispositivos de visualización amplían su gama
dinámica y distinción tonal (es decir, añaden más bits de
resolución, más allá de las actuales capacidades de 10 bits),
resultará deseable ampliar, no solo la gama dinámica, sino también
la distinción tonal.
Básicamente las mismas técnicas que permiten una
gama dinámica ampliada permiten también una alta codificación de la
distinción de zonas de bajo contraste. Concretamente, se aplican
valores de QP a coeficientes de CA de la salida de la DCT de una
manera distinta al coeficiente de CC, que se suele codificar de
forma especial (para mejorar la eficiencia de la codificación del
término de CC). Por lo tanto, el escalamiento de los coeficientes
de CA se dispone naturalmente alrededor del valor de CC
predominante. Por ejemplo, una zona de bajo contraste en una
neblina gris tendrá unos coeficientes de CA de baja amplitud
alrededor del valor medio de neblina de CC. De este modo, al
aplicar valores de QP bajos se conservarán de forma natural las
sutiles variaciones de tono dentro de las zonas de bajo contraste.
Al igual que con la gama dinámica ampliada, unos valores de QP
altos permiten la codificación normal de zonas del primer plano con
un alto contraste.
A fin de ajustar los valores de QP para que
resulten apropiados para zonas oscuras y zonas neblinosas, y que
sigan siendo adecuados para zonas de brillo completo y contraste
normal, los valores de QP se deberían determinar de forma zonal con
respecto al contraste y el brillo de cada zona de la imagen. Esto
también se puede determinar automáticamente si se establecen unos
valores de QP para cada macrobloque tales que cada macrobloque de
una zona genere aproximadamente el mismo número de bits. Para una
imagen que posea una amplia gama dinámica y que incluya zonas
oscuras, así como zonas de bajo contraste, al dar a cada macrobloque
un número constante de bits se optimizará automáticamente la
representación a lo largo de toda la gama de brillo y contraste. No
obstante, también resulta deseable proporcionar más bits para las
zonas de alto detalle que para las zonas de bajo detalle, y
proporcionar más bits a las zonas en movimiento que a las zonas
estáticas.
La determinación de un valor de QP para cada
macrobloque se puede automatizar analizando las amplitudes relativas
de los coeficientes de la DCT de cada macrobloque. A los
macrobloques que contienen coeficientes de la DCT que indican
detalle y los que indican movimiento se les puede proporcionar más
bits que a los macrobloques en los que los pesos relativos de los
coeficientes indican un bajo nivel de detalle o un bajo nivel de
cambio (movimiento). No obstante, el ruido del sensor de la cámara
también se debe tener en cuenta, ya que el ruido tendrá un
comportamiento tanto de cambio (movimiento) como de detalle
(coeficientes de alta frecuencia). Cuando se usa con una gama
dinámica verdaderamente amplia y un sensor de alta distinción con un
bajo nivel de ruido que resulte adecuado, las propias medidas
relativas del peso del coeficiente de la DCT pueden constituir un
indicador apropiado para ajustar automáticamente el valor del QP.
Concretamente, los coeficientes de la DCT más grandes, dan lugar a
valores de QP más grandes. Por consiguiente, se puede determinar
empíricamente una correspondencia o correlación entre coeficientes
de la DCT y los correspondientes valores de QP deseados.
Otro procedimiento que se puede usar para
determinar (o ayudar a determinar, junto con otros mecanismos)
valores de QP apropiados es el de los algoritmos zonales simples,
tales como el brillo y contraste máximos de la zona. También se
puede proporcionar información adicional mediante algoritmos de
medición de amplitud del detalle zonal (estático de alta frecuencia
de la imagen). Cada procedimiento posee sus ventajas particulares.
No obstante, los coeficientes de la DCT son en sí mismos
suficientes para determinar valores de QP en el caso de
intramacrobloques. Es decir, los coeficientes de la DCT constituyen
una medida del detalle combinado con el movimiento para macrobloques
predichos, de manera que el uso de una medida de detalle diferente
(como, por ejemplo, una transformada paralela
intra-DCT) puede ayudar a aislar los cambios en el
detalle del movimiento (como, por ejemplo, las gotas de lluvia o
las olas en el agua que se mueven en el horizonte) a partir del
detalle del macrobloque de imagen de la trama actual (estático tras
la compensación del movimiento, como, por ejemplo, hojas de hierba
con una cámara que se mueve lentamente). La sencillez de uso de los
propios coeficientes de la DCT para indicar el QP hace que resulte
un procedimiento particularmente atractivo para su aplicación
práctica.
La fig. 5 es un diagrama de flujo que resume un
procedimiento preferido de ampliación de la gama dinámica y/o el
contraste durante la compresión de la imagen.
Etapa 500: Comenzar con una imagen de
fuente con una amplia gama dinámica o una amplia gama de
contraste.
Etapa 502: Si fuera necesario, ampliar el
intervalo de valores eficaces del conjunto de códigos del parámetro
de cuantificación (QP). Esto se puede realizar, por ejemplo,
mediante una de las siguientes técnicas:
1) Ampliar el conjunto de códigos de QP desde un
intervalo nominal (típicamente, 32 niveles) hasta un intervalo
actual más grande (128, 1024, o 4096 niveles, o lo que resulte
apropiado para el intervalo de la imagen). De este modo, los
valores nominales representan directamente un intervalo ampliado de
posibles valores.
2) Usar una tabla de consulta o función de
correspondencia no lineales para correlacionar códigos QP nominales
de forma no lineal con un mayor intervalos de valores eficaces. La
correspondencia sería típicamente lineal a valores bajos, pero
aumentaría de tamaño de paso de multiplicación y división de QP
eficaz, ya que los valores aumentan hacia un típico máximo del
intervalo. Por ejemplo, se pueden ampliar 32 o 64 códigos usando una
función de consulta o correspondencia no lineal para producir un
intervalo eficaz más grande y que posee un valor máximo más grande,
como, por ejemplo, 128, 1024, 4096, o lo que resulte apropiado para
el intervalo de la imagen.
Etapa 504: Determinar el valor de QP que
se debería codificar para cada macrobloque de una imagen que sufre
una compresión, usando preferentemente uno de los siguientes
procedimientos:
1) Determinar un valor de QP apropiado usando
algoritmos para determinar el contraste de la zona de imagen local
dentro de cada trama, la gama dinámica local dentro de cada trama,
las amplitudes de detalle locales dentro de cada trama, y el
movimiento local entre una o más tramas secuenciales (tal como se
describe anteriormente), a partir de un análisis del flujo de
imágenes en movimiento.
2) Determinar un valor de QP basado en una
información generada en el procedimiento de compresión, que se basa
en el número de bits generados (para un cierto número de valores
candidatos de QP), y la amplitud y frecuencia de coeficientes de la
DCT previas a la cuantificación.
3) Aplicar una combinación de la información
procedente de 1) y 2), determinando un valor de QP para cada
macrobloque utilizando tanto información local como información
generada a partir del procedimiento de compresión.
Etapa 506: Usar una precisión ampliada
para todo el procesamiento intermedio, tal como se describe
anteriormente, para comprimir la imagen usando el valor o valores
de QP determinados de la etapa 504. La imagen comprimida, junto con
los códigos de QP nominales relacionados correspondientes a los
valores de QP determinados que se usaron durante la compresión, se
puede almacenar o transmitir, según se desee.
Etapa 508: Descomprimir la imagen
transmitida o almacenada, usando una descompresión de alta
precisión, tal como se describe anteriormente, para obtener una
imagen de amplia gama dinámica, amplia gama de contraste y alta
resolución para diversas aplicaciones. Los códigos de QP nominales
relacionados se vuelven a correlacionar, si fuera necesario, con
los correspondientes valores de QP determinados para tal
descompresión. Entre dichas aplicaciones, se incluyen
presentaciones domésticas y en salas de proyección de películas y
deportes, archivado de imágenes almacenadas, usos comerciales de
las presentaciones de imágenes en movimiento, aplicaciones
gubernamentales (por ejemplo, vigilancia, comando y control
militar), etc. Las imágenes descomprimidas se pueden visualizar en
dispositivos de visualización de amplia gama dinámica y/o usarse
como fuente para el análisis de la imagen usando algoritmos que se
aprovechan de (o requieren) imágenes de alta calidad y amplia gama
dinámica con el fin de proporcionar un análisis óptimo (tales
algoritmos no constituyen el tema de la presente descripción).
La invención se puede aplicar en hardware o
software, o en una combinación de ambos (por ejemplo, conjuntos
lógicos programables). A menos que se especifique lo contrario, los
algoritmos incluidos como parte de la invención no está
relacionados intrínsecamente con ningún ordenador en particular o
ningún otro aparato. En concreto, se pueden utilizar diversas
máquinas de uso general con programas creados de acuerdo con lo
expuesto en la presente descripción, o puede resultar más
conveniente construir aparatos más especializados (por ejemplo,
circuitos integrados) para llevar a cabo las etapas del
procedimiento necesarias. De este modo, la invención se puede
aplicar a uno o más programas informáticos que se ejecuten en uno o
más sistemas informáticos programables, en los que cada uno
comprende al menos un procesador, al menos un sistema de
almacenamiento de datos (incluidos elementos de memoria volátil y
no volátil y/o de almacenamiento), al menos un dispositivo o puerto
de entrada, y al menos un dispositivo o puerto de salida. El código
del programa se aplica a los datos de entrada para realizar las
funciones descritas en la presente descripción y generar información
de salida. La información de salida se aplica a uno o más
dispositivos de salida, de manera conocida.
Cada uno de tales programas se puede aplicar a
cualquier lenguaje informático que se desee (incluidos máquina,
ensamblador o lenguajes de programación orientados a objetos,
lógicos, procedimentales y de alto nivel) para comunicarse con un
sistema informático. En cualquier caso, el lenguaje puede ser un
lenguaje compilado o un lenguaje interpretado.
Cada uno de dichos programas informáticos se
almacena preferentemente o se descarga en unos medios o dispositivo
de almacenamiento (por ejemplo, unos medios o memoria de estado
sólido, o medios magnéticos u ópticos) legibles por un ordenador
programable de uso general o especial, para configurar y hacer
funcionar el ordenador cuando el sistema informático lee los medios
o el dispositivo de almacenamiento para realizar los procedimientos
descritos en la presente descripción. También se puede considerar la
aplicación del sistema de la invención como un medio de
almacenamiento legible por ordenador, configurado con un programa
informático, en el que el medio de almacenamiento configurado de
este modo hace que un sistema informático funcione de una manera
específica y predefinida para realizar las funciones descritas en la
presente descripción.
Se han descrito varias de las formas de
realización de la invención. Sin embargo, se entenderá que se pueden
realizar diversas modificaciones sin alejarse del alcance de la
invención, según se define en las reivindicaciones. Por ejemplo,
algunas de las etapas descritas anteriormente pueden ser
independientes del orden, y por ello se pueden realizar en un orden
diferente al que se ha descrito.
\vskip1.000000\baselineskip
Esta lista de referencias citadas por el
solicitante está prevista únicamente para ayudar al lector y no
forma parte del documento de patente europea. Aunque se ha puesto
el máximo cuidado en su realización, no se pueden excluir errores u
omisiones y la OEP declina cualquier responsabilidad al
respecto.
\bullet WO 9408427 A [0015]
\bullet Gary Demos. The Use of
Logarithmic and Density Units for Pixels. SMPTE conference, and
published in in the SMPTE Journal, October 1990, vol. 100 (10
[0032]
\bullet Gary Demos. An Example
Representation For Image Color And Dynamic Range Which Is Scalable,
Interoperable, and Extensible. SMPTE conference and published in
the proceedings and preprints, October 1993 [0032]
\bullet An Example Representation For Image
Color And Dynamic Range Which Is Scalable, Interoperable, and
Extensible. 1993 SMPTE paper, 1993 [0033]
Claims (17)
1. Procedimiento para comprimir y descomprimir
una secuencia de imágenes de vídeo digitalizadas que incluye una
secuencia de tramas representadas con una primera precisión de bits
en un primer espacio cromático, y el procedimiento se
caracteriza por las etapas de
a) transformación de la secuencia de tramas para
obtener una representación en un segundo espacio cromático con una
segunda precisión de bits superior a la primera precisión de
bits;
b) realización de posteriores etapas de
codificación con la segunda precisión de bits para generar un flujo
de bits comprimido; y
c) realización de posteriores etapas de
descodificación con la segunda precisión de bits en el flujo de bits
comprimido, y las posteriores etapas de descodificación incluyen la
aplicación de una transformada discreta de coseno inversa.
\vskip1.000000\baselineskip
2. El procedimiento de la reivindicación 1, en
el que la etapa de realización de las posteriores etapas con la
segunda precisión de bits en el flujo de bits comprimido comprende
la descodificación del flujo de bits comprimido mediante la:
1) descuantificación del flujo de bits
comprimido con la segunda precisión de bits para crear una salida
descomprimida;
2) aplicación de una transformada discreta de
coseno inversa con la segunda precisión de bits en la salida
descuantificada para producir una salida descomprimida; y
3) generación de tramas de imagen con la segunda
precisión de bits a partir de la salida descomprimida.
\vskip1.000000\baselineskip
3. El procedimiento de la reivindicación 1 ó 2,
en el que las posteriores etapas de codificación incluyen la
aplicación de un algoritmo numérico de transformada discreta de
coseno inversa, y en el que la descodificación del flujo de bits
comprimido incluye la aplicación de un algoritmo numérico de
transformada discreta de coseno inversa que concuerde.
4. El procedimiento de la reivindicación 1, 2 ó
3, que además incluye la generación de tramas P con la segunda
precisión de bits.
5. El procedimiento de cualquiera de las
reivindicaciones 1 a 4, que además incluye la generación de tramas
B con la segunda precisión de bits.
6. El procedimiento de cualquiera de las
reivindicaciones 1 a 5, en el que cada trama incluye una pluralidad
de macrobloques que definen zonas, y el procedimiento incluye
la:
i) determinación de un parámetro de
cuantificación, QP, que posee códigos que representan una
correspondencia directa con posibles valores o bien un intervalo
ampliado de posibles valores;
ii) determinación de un valor de QP para cada
macrobloque de cada trama;
iii) compresión de cada trama con la segunda
precisión de bits para crear una trama comprimida, y tal compresión
incluye la aplicación de los valores de QP determinados para que
dicha trama reduzca el número de bits necesario para codificar tal
trama:
iv) asociación de códigos QP con los valores QP
determinados, usados durante la compresión; y
v) la salida de cada una de las tramas
comprimidas y los códigos de QP relacionados.
\vskip1.000000\baselineskip
7. El procedimiento de la reivindicación 6, que
además incluye la ampliación directa del intervalo de posibles
valores de QP mediante el aumento en el número de bits que
representan códigos de QP.
8. El procedimiento de la reivindicación 6, que
además incluye la ampliación eficaz del intervalo de posibles
valores de QP mediante el establecimiento de una correspondencia
entre los códigos de QP y un intervalo más grande de posibles
valores de QP.
9. El procedimiento de la reivindicación 6, 7 u
8, en el que la determinación de un valor de QP para cada
macrobloque de cada trama se basa en la información zonal con
respecto a una o más tramas.
10. El procedimiento de la reivindicación 9, en
el que la información zonal incluye un contraste de zona de imagen
local dentro de cada trama.
11. El procedimiento de la reivindicación 9, en
el que la información zonal incluye una gama dinámica local dentro
de cada trama.
12. El procedimiento de la reivindicación 9, en
el que la información zonal incluye amplitudes de detalle local
dentro de cada trama.
13. El procedimiento de la reivindicación 9, en
el que la información zonal incluye el movimiento local entre una o
más tramas secuenciales.
14. El procedimiento de cualquiera de las
reivindicaciones 6 a 13, en el que la determinación de un valor de
QP para cada macrobloque de cada trama se basa en la información
generada durante la etapa de compresión.
15. El procedimiento de la reivindicación 14, en
el que la información generada durante la etapa de compresión
incluye amplitudes relativas de coeficientes de la transformada
discreta de coseno para cada macrobloque.
16. El procedimiento de la reivindicación 14, en
el que la información generada durante la etapa de compresión
incluye un número constante de bits asignados para codificar cada
macrobloque dentro de una zona de una trama.
17. El procedimiento de cualquiera de las
reivindicaciones 6 a 16, que además incluye:
a) para cada trama comprimida, la determinación
por segunda vez de un valor de QP para cada código asociado con tal
trama comprimida; y
b) la descompresión de cada trama comprimida con
la segunda precisión de bits para crear una trama descomprimida que
posea al menos una amplia gama dinámica o una amplia gama de
contraste, y tal descompresión incluye la aplicación de los valores
de QP que se vuelven a determinar para dicha trama.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/798,346 US8374237B2 (en) | 2001-03-02 | 2001-03-02 | High precision encoding and decoding of video images |
US798346 | 2001-03-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2342365T3 true ES2342365T3 (es) | 2010-07-06 |
Family
ID=25173162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02748364T Expired - Lifetime ES2342365T3 (es) | 2001-03-02 | 2002-03-01 | Codificacion y descodificacion de alta precision para imagenes de video. |
Country Status (13)
Country | Link |
---|---|
US (7) | US8374237B2 (es) |
EP (1) | EP1380169B1 (es) |
JP (1) | JP2004519920A (es) |
KR (1) | KR20040010601A (es) |
CN (1) | CN1284355C (es) |
AT (1) | ATE467979T1 (es) |
AU (1) | AU2002306609A1 (es) |
CA (1) | CA2439727A1 (es) |
DE (1) | DE60236354D1 (es) |
DK (1) | DK1380169T3 (es) |
ES (1) | ES2342365T3 (es) |
HK (1) | HK1060676A1 (es) |
WO (1) | WO2002071735A2 (es) |
Families Citing this family (112)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6957350B1 (en) | 1996-01-30 | 2005-10-18 | Dolby Laboratories Licensing Corporation | Encrypted and watermarked temporal and resolution layering in advanced television |
US8374237B2 (en) | 2001-03-02 | 2013-02-12 | Dolby Laboratories Licensing Corporation | High precision encoding and decoding of video images |
US7266150B2 (en) | 2001-07-11 | 2007-09-04 | Dolby Laboratories, Inc. | Interpolation of video compression frames |
US8111754B1 (en) | 2001-07-11 | 2012-02-07 | Dolby Laboratories Licensing Corporation | Interpolation of video compression frames |
US20030112863A1 (en) | 2001-07-12 | 2003-06-19 | Demos Gary A. | Method and system for improving compressed image chroma information |
US7123655B2 (en) * | 2001-08-09 | 2006-10-17 | Sharp Laboratories Of America, Inc. | Method for reduced bit-depth quantization |
US6912695B2 (en) * | 2001-09-13 | 2005-06-28 | Pixia Corp. | Data storage and retrieval system and method |
US6882685B2 (en) * | 2001-09-18 | 2005-04-19 | Microsoft Corporation | Block transform and quantization for image and video coding |
FR2832271A1 (fr) * | 2001-11-13 | 2003-05-16 | Koninkl Philips Electronics Nv | Tuner comprenant un convertisseur de tension |
US7027982B2 (en) | 2001-12-14 | 2006-04-11 | Microsoft Corporation | Quality and rate control strategy for digital audio |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
US7242713B2 (en) | 2002-05-02 | 2007-07-10 | Microsoft Corporation | 2-D transforms for image and video coding |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
JP4013657B2 (ja) * | 2002-06-03 | 2007-11-28 | セイコーエプソン株式会社 | 画像表示装置、画像表示方法および画像表示プログラムが記録されたコンピュータ読み取り可能な記録媒体 |
US7224731B2 (en) * | 2002-06-28 | 2007-05-29 | Microsoft Corporation | Motion estimation/compensation for screen capture video |
US6980695B2 (en) * | 2002-06-28 | 2005-12-27 | Microsoft Corporation | Rate allocation for mixed content video |
US7154952B2 (en) | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
US7343291B2 (en) * | 2003-07-18 | 2008-03-11 | Microsoft Corporation | Multi-pass variable bitrate media encoding |
US10554985B2 (en) | 2003-07-18 | 2020-02-04 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US7383180B2 (en) * | 2003-07-18 | 2008-06-03 | Microsoft Corporation | Constant bitrate media encoding techniques |
US8218624B2 (en) | 2003-07-18 | 2012-07-10 | Microsoft Corporation | Fractional quantization step sizes for high bit rates |
US7738554B2 (en) | 2003-07-18 | 2010-06-15 | Microsoft Corporation | DC coefficient signaling at small quantization step sizes |
US7502415B2 (en) | 2003-07-18 | 2009-03-10 | Microsoft Corporation | Range reduction |
US7289679B2 (en) * | 2003-08-12 | 2007-10-30 | International Business Machines Corporation | System and method for measuring image quality using compressed image data |
US8064520B2 (en) | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
US8014450B2 (en) | 2003-09-07 | 2011-09-06 | Microsoft Corporation | Flexible range reduction |
US7492375B2 (en) * | 2003-11-14 | 2009-02-17 | Microsoft Corporation | High dynamic range image viewing on low dynamic range displays |
US7649539B2 (en) * | 2004-03-10 | 2010-01-19 | Microsoft Corporation | Image formats for video capture, processing and display |
US7487193B2 (en) * | 2004-05-14 | 2009-02-03 | Microsoft Corporation | Fast video codec transform implementations |
US7801383B2 (en) | 2004-05-15 | 2010-09-21 | Microsoft Corporation | Embedded scalar quantizers with arbitrary dead-zone ratios |
US8045614B2 (en) | 2005-05-11 | 2011-10-25 | Dolby Laboratories Licensing Corporation | Quantization control for variable bit depth |
JP2008514115A (ja) | 2004-09-14 | 2008-05-01 | ギャリー デモス | 高品質広帯域多層画像圧縮符号化システム |
US20060233258A1 (en) * | 2005-04-15 | 2006-10-19 | Microsoft Corporation | Scalable motion estimation |
US8422546B2 (en) | 2005-05-25 | 2013-04-16 | Microsoft Corporation | Adaptive video encoding using a perceptual model |
US7689052B2 (en) * | 2005-10-07 | 2010-03-30 | Microsoft Corporation | Multimedia signal processing using fixed-point approximations of linear transforms |
ES2551561T3 (es) | 2006-01-23 | 2015-11-19 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Codecs de alto rango dinámico |
WO2007116551A1 (ja) * | 2006-03-30 | 2007-10-18 | Kabushiki Kaisha Toshiba | 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法 |
US8155195B2 (en) * | 2006-04-07 | 2012-04-10 | Microsoft Corporation | Switching distortion metrics during motion estimation |
US7995649B2 (en) | 2006-04-07 | 2011-08-09 | Microsoft Corporation | Quantization adjustment based on texture level |
US8494052B2 (en) * | 2006-04-07 | 2013-07-23 | Microsoft Corporation | Dynamic selection of motion estimation search ranges and extended motion vector ranges |
US7974340B2 (en) | 2006-04-07 | 2011-07-05 | Microsoft Corporation | Adaptive B-picture quantization control |
US8130828B2 (en) | 2006-04-07 | 2012-03-06 | Microsoft Corporation | Adjusting quantization to preserve non-zero AC coefficients |
US8503536B2 (en) | 2006-04-07 | 2013-08-06 | Microsoft Corporation | Quantization adjustments for DC shift artifacts |
US8059721B2 (en) | 2006-04-07 | 2011-11-15 | Microsoft Corporation | Estimating sample-domain distortion in the transform domain with rounding compensation |
US8711925B2 (en) | 2006-05-05 | 2014-04-29 | Microsoft Corporation | Flexible quantization |
US8880571B2 (en) * | 2006-05-05 | 2014-11-04 | Microsoft Corporation | High dynamic range data format conversions for digital media |
US20070268964A1 (en) * | 2006-05-22 | 2007-11-22 | Microsoft Corporation | Unit co-location-based motion estimation |
US8385424B2 (en) * | 2006-06-26 | 2013-02-26 | Qualcomm Incorporated | Reduction of errors during computation of inverse discrete cosine transform |
US8571340B2 (en) * | 2006-06-26 | 2013-10-29 | Qualcomm Incorporated | Efficient fixed-point approximations of forward and inverse discrete cosine transforms |
US8300698B2 (en) * | 2006-10-23 | 2012-10-30 | Qualcomm Incorporated | Signalling of maximum dynamic range of inverse discrete cosine transform |
US8238424B2 (en) | 2007-02-09 | 2012-08-07 | Microsoft Corporation | Complexity-based adaptive preprocessing for multiple-pass video compression |
US8942289B2 (en) * | 2007-02-21 | 2015-01-27 | Microsoft Corporation | Computational complexity and precision control in transform-based digital media codec |
US8054886B2 (en) * | 2007-02-21 | 2011-11-08 | Microsoft Corporation | Signaling and use of chroma sample positioning information |
US8498335B2 (en) | 2007-03-26 | 2013-07-30 | Microsoft Corporation | Adaptive deadzone size adjustment in quantization |
US8243797B2 (en) | 2007-03-30 | 2012-08-14 | Microsoft Corporation | Regions of interest for quality adjustments |
US8000554B2 (en) * | 2007-04-04 | 2011-08-16 | Xerox Corporation | Automatic dynamic range adjustment in digital imaging |
US8442337B2 (en) | 2007-04-18 | 2013-05-14 | Microsoft Corporation | Encoding adjustments for animation content |
US8331438B2 (en) | 2007-06-05 | 2012-12-11 | Microsoft Corporation | Adaptive selection of picture-level quantization parameters for predicted video pictures |
US8254455B2 (en) | 2007-06-30 | 2012-08-28 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
US8189933B2 (en) | 2008-03-31 | 2012-05-29 | Microsoft Corporation | Classifying and controlling encoding quality for textured, dark smooth and smooth video content |
US8325800B2 (en) | 2008-05-07 | 2012-12-04 | Microsoft Corporation | Encoding streaming media as a high bit rate layer, a low bit rate layer, and one or more intermediate bit rate layers |
US8379851B2 (en) | 2008-05-12 | 2013-02-19 | Microsoft Corporation | Optimized client side rate control and indexed file layout for streaming media |
US8370887B2 (en) | 2008-05-30 | 2013-02-05 | Microsoft Corporation | Media streaming with enhanced seek operation |
US8897359B2 (en) | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
CN102113326A (zh) | 2008-08-04 | 2011-06-29 | 杜比实验室特许公司 | 重叠块差异估计和补偿体系结构 |
US8265140B2 (en) | 2008-09-30 | 2012-09-11 | Microsoft Corporation | Fine-grained client-side control of scalable media delivery |
US9215467B2 (en) | 2008-11-17 | 2015-12-15 | Checkvideo Llc | Analytics-modulated coding of surveillance video |
US8189666B2 (en) | 2009-02-02 | 2012-05-29 | Microsoft Corporation | Local picture identifier and computation of co-located information |
US8971413B2 (en) | 2010-05-24 | 2015-03-03 | Intel Corporation | Techniques for storing and retrieving pixel data |
US20110317759A1 (en) * | 2010-06-25 | 2011-12-29 | Thomas Vinay S | System, method, and computer program product for parameter estimation for lossless video compression |
TWI479898B (zh) | 2010-08-25 | 2015-04-01 | Dolby Lab Licensing Corp | 擴展影像動態範圍 |
CN102420980B (zh) * | 2010-09-27 | 2014-08-27 | 深圳市融创天下科技股份有限公司 | 一种帧层和宏块层量化参数调整方法和系统 |
JP5281623B2 (ja) | 2010-09-29 | 2013-09-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム |
JP5281624B2 (ja) | 2010-09-29 | 2013-09-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム |
US20120090035A1 (en) * | 2010-10-12 | 2012-04-12 | Synergetics Incorporated | System and Tool for Logistics Data Management on Secured Smart Mobile Devices |
PT2485488T (pt) * | 2011-02-02 | 2017-06-30 | Nagravision Sa | Descodificador de média e método de descodificação que permite o seguimento do descodificador de média |
JP5357199B2 (ja) | 2011-03-14 | 2013-12-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム |
US9363522B2 (en) * | 2011-04-28 | 2016-06-07 | Warner Bros. Entertainment, Inc. | Region-of-interest encoding enhancements for variable-bitrate mezzanine compression |
US8537171B2 (en) * | 2011-05-13 | 2013-09-17 | Samsung Display Co., Ltd. | Piecewise non-causal compression and subsequent decompression of quantized data for processing of decompressed data in higher precision processing space |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
CA2834409C (en) | 2011-07-12 | 2016-11-29 | Nec Corporation | Image quantization parameter encoding method and image quantization parameter decoding method |
KR20130068823A (ko) * | 2011-12-16 | 2013-06-26 | 삼성전자주식회사 | 영상 신호 처리를 위한 방법 및 장치 |
US9756353B2 (en) * | 2012-01-09 | 2017-09-05 | Dolby Laboratories Licensing Corporation | Hybrid reference picture reconstruction method for single and multiple layered video coding systems |
KR20160035603A (ko) * | 2012-01-20 | 2016-03-31 | 소니 주식회사 | 크로마 양자화 파라미터 확장 |
KR101917224B1 (ko) * | 2012-09-18 | 2018-11-13 | 엘지이노텍 주식회사 | 영상데이터 전송장치 |
US10055866B2 (en) | 2013-02-21 | 2018-08-21 | Dolby Laboratories Licensing Corporation | Systems and methods for appearance mapping for compositing overlay graphics |
CN105009567B (zh) | 2013-02-21 | 2018-06-08 | 杜比实验室特许公司 | 用于合成叠加图形的外观映射的系统和方法 |
TW201507443A (zh) * | 2013-05-15 | 2015-02-16 | Vid Scale Inc | 基於單迴路解碼之多層視訊編碼 |
GB2517416A (en) * | 2013-08-15 | 2015-02-25 | Sony Corp | Data encoding and decoding |
JP6185375B2 (ja) * | 2013-11-26 | 2017-08-23 | 株式会社シキノハイテック | 画像符号化装置 |
US10171833B2 (en) | 2014-03-04 | 2019-01-01 | Microsoft Technology Licensing, Llc | Adaptive switching of color spaces, color sampling rates and/or bit depths |
EP3114835B1 (en) | 2014-03-04 | 2020-04-22 | Microsoft Technology Licensing, LLC | Encoding strategies for adaptive switching of color spaces |
JP6367359B2 (ja) | 2014-03-27 | 2018-08-01 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 色空間を切り替えるときの量子化/スケーリング及び逆量子化/スケーリングの調整 |
US9883184B2 (en) * | 2014-10-07 | 2018-01-30 | Qualcomm Incorporated | QP derivation and offset for adaptive color transform in video coding |
US10687069B2 (en) | 2014-10-08 | 2020-06-16 | Microsoft Technology Licensing, Llc | Adjustments to encoding and decoding when switching color spaces |
CN108293124B (zh) * | 2015-11-30 | 2022-05-13 | 瑞典爱立信有限公司 | 视频中画面的编码 |
CN107452039B (zh) * | 2016-06-01 | 2023-03-31 | 上海东方传媒技术有限公司 | 压缩rgb颜色空间的方法及装置 |
CN109643456A (zh) | 2016-06-17 | 2019-04-16 | 因默希弗机器人私人有限公司 | 图像压缩方法与设备 |
CN110494193A (zh) | 2017-02-08 | 2019-11-22 | 因默希弗机器人私人有限公司 | 向多人游戏场地中的用户显示内容 |
KR102315524B1 (ko) | 2017-06-16 | 2021-10-21 | 한화테크윈 주식회사 | 영상의 비트레이트 조절 방법 및 영상 획득 장치 |
US10218992B2 (en) * | 2017-07-24 | 2019-02-26 | Cisco Technology, Inc. | Encoding, transmission and decoding of combined high motion and high fidelity content |
US11153604B2 (en) | 2017-11-21 | 2021-10-19 | Immersive Robotics Pty Ltd | Image compression for digital reality |
AU2018373495B2 (en) | 2017-11-21 | 2023-01-05 | Immersive Robotics Pty Ltd | Frequency component selection for image compression |
US10593257B2 (en) | 2018-03-15 | 2020-03-17 | Samsung Display Co., Ltd. | Stress profile compression |
CA3039701A1 (en) * | 2018-04-06 | 2019-10-06 | Comcast Cable Communications, Llc | Systems, methods, and apparatuses for processing video |
JP7213364B2 (ja) | 2018-10-31 | 2023-01-26 | ノキア テクノロジーズ オーユー | 空間オーディオパラメータの符号化及び対応する復号の決定 |
US10992960B2 (en) | 2019-02-06 | 2021-04-27 | Jared Michael Cohn | Accelerated video exportation to multiple destinations |
US11132944B2 (en) | 2019-09-18 | 2021-09-28 | Samsung Display Co., Ltd. | Unbiased iterative compression on additive data using dither |
US11188503B2 (en) | 2020-02-18 | 2021-11-30 | International Business Machines Corporation | Record-based matching in data compression |
US11955067B2 (en) | 2021-03-17 | 2024-04-09 | Samsung Display Co., Ltd. | Simplified rate control for an additive iterative compression system |
US20220405987A1 (en) * | 2021-06-18 | 2022-12-22 | Nvidia Corporation | Pixel blending for neural network-based image generation |
US11941397B1 (en) * | 2022-05-31 | 2024-03-26 | Amazon Technologies, Inc. | Machine instructions for decoding acceleration including fuse input instructions to fuse multiple JPEG data blocks together to take advantage of a full SIMD width of a processor |
Family Cites Families (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4654696A (en) | 1985-04-09 | 1987-03-31 | Grass Valley Group, Inc. | Video signal format |
JP2670259B2 (ja) | 1985-11-29 | 1997-10-29 | ソニー株式会社 | 高能率符号化装置 |
US4903317A (en) | 1986-06-24 | 1990-02-20 | Kabushiki Kaisha Toshiba | Image processing apparatus |
US5162925A (en) * | 1988-11-17 | 1992-11-10 | Canon Kabushiki Kaisha | Color image processor capable of performing masking using a reduced number of bits |
DE69031186D1 (de) | 1989-03-10 | 1997-09-11 | Canon Kk | Verfahren und Vorrichtung zum Codieren von Bildinformation |
JPH0474063A (ja) | 1990-07-13 | 1992-03-09 | Matsushita Electric Ind Co Ltd | 画像の符号化方法 |
JPH04185172A (ja) | 1990-11-20 | 1992-07-02 | Matsushita Electric Ind Co Ltd | ディジタル画像信号の高能率符号化装置 |
US5465119A (en) | 1991-02-22 | 1995-11-07 | Demografx | Pixel interlacing apparatus and method |
US5151784A (en) | 1991-04-30 | 1992-09-29 | At&T Bell Laboratories | Multiple frame motion estimation |
JP2507204B2 (ja) | 1991-08-30 | 1996-06-12 | 松下電器産業株式会社 | 映像信号符号化装置 |
US5198901A (en) | 1991-09-23 | 1993-03-30 | Matsushita Electric Corporation Of America | Derivation and use of motion vectors in a differential pulse code modulation system |
FR2681962B1 (fr) * | 1991-09-30 | 1993-12-24 | Sgs Thomson Microelectronics Sa | Procede et circuit de traitement de donnees par transformee cosinus. |
JPH0595540A (ja) | 1991-09-30 | 1993-04-16 | Sony Corp | 動画像符号化装置 |
US5231484A (en) | 1991-11-08 | 1993-07-27 | International Business Machines Corporation | Motion video compression system with adaptive bit allocation and quantization |
US5440344A (en) | 1992-04-28 | 1995-08-08 | Mitsubishi Denki Kabushiki Kaisha | Video encoder using adjacent pixel difference for quantizer control |
JP3245977B2 (ja) | 1992-06-30 | 2002-01-15 | ソニー株式会社 | ディジタル画像信号の伝送装置 |
US5294974A (en) | 1992-07-24 | 1994-03-15 | Matsushita Electric Corporation Of America | High-definition video encoding system having color-sensitive quantization |
JP3348310B2 (ja) | 1992-09-28 | 2002-11-20 | ソニー株式会社 | 動画像符号化方法および動画像符号化装置 |
US5850261A (en) | 1992-10-15 | 1998-12-15 | Sony Corporation | Efficient variable length encoder and decoder |
US5329379A (en) | 1992-10-22 | 1994-07-12 | International Business Machines Corporation | System and method of measuring fidelity of decompressed video signals and images |
US5663763A (en) | 1992-10-29 | 1997-09-02 | Sony Corp. | Picture signal encoding method and apparatus and picture signal decoding method and apparatus |
JP3545000B2 (ja) | 1992-11-02 | 2004-07-21 | ソニー株式会社 | 画像信号符号化装置、画像信号復号化装置 |
JPH06165150A (ja) | 1992-11-18 | 1994-06-10 | Matsushita Electric Ind Co Ltd | 動画像符号化/復号化装置 |
US5717816A (en) * | 1993-01-13 | 1998-02-10 | Hitachi America Ltd. | Method and apparatus for the selection of data for use in VTR trick playback operation in a system using intra-coded video frames |
JP2962083B2 (ja) | 1993-01-22 | 1999-10-12 | 松下電器産業株式会社 | 解像度変換方法、解像度変換装置、画像符号化装置、画像復号化装置 |
US5426463A (en) | 1993-02-22 | 1995-06-20 | Rca Thomson Licensing Corporation | Apparatus for controlling quantizing in a video signal compressor |
TW224553B (en) | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
JPH06350995A (ja) | 1993-06-10 | 1994-12-22 | Casio Comput Co Ltd | 動画像処理方法 |
US5877754A (en) | 1993-06-16 | 1999-03-02 | Intel Corporation | Process, apparatus, and system for color conversion of image signals |
US5408270A (en) | 1993-06-24 | 1995-04-18 | Massachusetts Institute Of Technology | Advanced television system |
CA2126467A1 (en) | 1993-07-13 | 1995-01-14 | Barin Geoffry Haskell | Scalable encoding and decoding of high-resolution progressive video |
WO1995004433A1 (en) | 1993-07-30 | 1995-02-09 | British Telecommunications Public Limited Company | Processing image data |
CA2127151A1 (en) | 1993-09-21 | 1995-03-22 | Atul Puri | Spatially scalable video encoding and decoding |
US5438374A (en) | 1993-12-10 | 1995-08-01 | At&T Corp. | System and method for filtering video signals |
US5604502A (en) | 1994-03-21 | 1997-02-18 | Lucent Technologies Inc. | Motion video compression system with inverse discrete cosine transform mismatch control |
US5442407A (en) | 1994-03-22 | 1995-08-15 | Matsushita Electric Corporation Of America | Video signal noise reduction system using time-varying filter coefficients |
JPH08256341A (ja) | 1995-03-17 | 1996-10-01 | Sony Corp | 画像信号符号化方法、画像信号符号化装置、画像信号記録媒体、及び画像信号復号化装置 |
JP3669523B2 (ja) | 1995-04-08 | 2005-07-06 | ソニー株式会社 | 符号化装置及び方法 |
DE69533259T2 (de) * | 1995-05-03 | 2005-08-18 | Sony Corp. | Nichtlineares quantisieren eines informationssignales |
GB2301970B (en) | 1995-06-06 | 2000-03-01 | Sony Uk Ltd | Motion compensated video processing |
US5831872A (en) * | 1995-06-27 | 1998-11-03 | Motorola, Inc. | Method and system for compressing a video signal using dynamic frame recovery |
US5748903A (en) | 1995-07-21 | 1998-05-05 | Intel Corporation | Encoding images using decode rate control |
US5737032A (en) | 1995-09-05 | 1998-04-07 | Videotek, Inc. | Serial digital video processing with concurrent adjustment in RGB and luminance/color difference |
US5926222A (en) | 1995-09-28 | 1999-07-20 | Intel Corporation | Bitrate estimator for selecting quantization levels for image encoding |
US5835498A (en) | 1995-10-05 | 1998-11-10 | Silicon Image, Inc. | System and method for sending multiple data signals over a serial link |
KR100209793B1 (ko) | 1995-10-28 | 1999-07-15 | 전주범 | 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화 및 복호화하는 장치 |
JPH09182083A (ja) | 1995-12-27 | 1997-07-11 | Matsushita Electric Ind Co Ltd | ビデオ画像符号化方法及び復号化方法とその装置 |
US5852565A (en) | 1996-01-30 | 1998-12-22 | Demografx | Temporal and resolution layering in advanced television |
US6957350B1 (en) | 1996-01-30 | 2005-10-18 | Dolby Laboratories Licensing Corporation | Encrypted and watermarked temporal and resolution layering in advanced television |
EP0788282B1 (en) * | 1996-02-05 | 2010-01-20 | Panasonic Corporation | Quantization method |
US5661524A (en) * | 1996-03-08 | 1997-08-26 | International Business Machines Corporation | Method and apparatus for motion estimation using trajectory in a digital video encoder |
US6115421A (en) * | 1996-04-25 | 2000-09-05 | Matsushita Electric Industrial Co., Ltd. | Moving picture encoding apparatus and method |
JPH11510989A (ja) | 1996-06-05 | 1999-09-21 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 符号化ディジタルビデオ信号を復号化する方法および装置 |
US5825680A (en) | 1996-06-21 | 1998-10-20 | Digital Equipment Corporation | Method and apparatus for performing fast division |
KR100238066B1 (ko) | 1996-06-26 | 2000-01-15 | 윤종용 | 양자화활동도를 이용한 비트 발생량 제어방법 및 그 영상 부호화장치 |
JP3687080B2 (ja) | 1996-07-17 | 2005-08-24 | ソニー株式会社 | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体 |
US5886710A (en) * | 1996-08-07 | 1999-03-23 | Adobe Systems Incorporated | Defining a time-variable property in digital compositions |
JP3280888B2 (ja) | 1996-08-19 | 2002-05-13 | 三星電子株式会社 | 量子化された平均−マッチングヒストグラム等化を用いた画質改善方法及びその回路 |
US6069914A (en) | 1996-09-19 | 2000-05-30 | Nec Research Institute, Inc. | Watermarking of image data using MPEG/JPEG coefficients |
US5920353A (en) * | 1996-12-03 | 1999-07-06 | St Microelectronics, Inc. | Multi-standard decompression and/or compression device |
JPH10164581A (ja) | 1996-12-03 | 1998-06-19 | Sony Corp | 画像信号符号化方法及び装置、信号記録媒体 |
US6272175B1 (en) * | 1997-02-13 | 2001-08-07 | Conexant Systems, Inc. | Video signal coding systems and processes using adaptive quantization |
US7269219B1 (en) | 1997-02-14 | 2007-09-11 | At&T Corp. | Non-linear quantizer for video coding |
US6043844A (en) * | 1997-02-18 | 2000-03-28 | Conexant Systems, Inc. | Perceptually motivated trellis based rate control method and apparatus for low bit rate video coding |
KR100227336B1 (ko) * | 1997-02-20 | 1999-11-01 | 서평원 | 고정 전송율 mpeg 영상 송신기용 전송율 제어 방법 및 그 장치 |
US6067321A (en) | 1997-04-03 | 2000-05-23 | Lsi Logic Corporation | Method and apparatus for two-row macroblock decoding to improve caching efficiency |
US6178203B1 (en) | 1997-04-03 | 2001-01-23 | Lsi Logic Corporation | Method and apparatus for two-row decoding of MPEG video |
JP3978810B2 (ja) | 1997-05-28 | 2007-09-19 | ソニー株式会社 | 符号化方法およびこれを使用した符号化装置 |
US6236727B1 (en) | 1997-06-24 | 2001-05-22 | International Business Machines Corporation | Apparatus, method and computer program product for protecting copyright data within a computer system |
US5987179A (en) * | 1997-09-05 | 1999-11-16 | Eastman Kodak Company | Method and apparatus for encoding high-fidelity still images in MPEG bitstreams |
US6014182A (en) | 1997-10-10 | 2000-01-11 | Faroudja Laboratories, Inc. | Film source video detection |
KR100235988B1 (ko) | 1997-11-12 | 1999-12-15 | 구자홍 | 디티브이 영상 포맷 변환장치 및 그 방법 |
US5956026A (en) * | 1997-12-19 | 1999-09-21 | Sharp Laboratories Of America, Inc. | Method for hierarchical summarization and browsing of digital video |
US6654417B1 (en) * | 1998-01-26 | 2003-11-25 | Stmicroelectronics Asia Pacific Pte. Ltd. | One-pass variable bit rate moving pictures encoding |
US6172768B1 (en) | 1998-02-05 | 2001-01-09 | Canon Kabushiki Kaisha | Halftoning with changeable error diffusion weights |
JPH11239351A (ja) | 1998-02-23 | 1999-08-31 | Nippon Telegr & Teleph Corp <Ntt> | 動画像符号化方法、復号方法、符号化器、復号器、動画像符号化プログラムおよび動画像復号プログラムを記録した記録媒体 |
US6434196B1 (en) | 1998-04-03 | 2002-08-13 | Sarnoff Corporation | Method and apparatus for encoding video information |
JP4123567B2 (ja) | 1998-04-30 | 2008-07-23 | ソニー株式会社 | 画像信号処理装置及び方法 |
US6215824B1 (en) | 1998-05-01 | 2001-04-10 | Boom Corporation | Transcoding method for digital video networking |
US6104757A (en) * | 1998-05-15 | 2000-08-15 | North Carolina State University | System and method of error control for interactive low-bit rate video transmission |
US6332194B1 (en) | 1998-06-05 | 2001-12-18 | Signafy, Inc. | Method for data preparation and watermark insertion |
US6301304B1 (en) | 1998-06-17 | 2001-10-09 | Lsi Logic Corporation | Architecture and method for inverse quantization of discrete cosine transform coefficients in MPEG decoders |
KR100275933B1 (ko) | 1998-07-14 | 2000-12-15 | 구자홍 | 엠펙디코더의 역이산여현변환장치 |
JP3748717B2 (ja) * | 1998-08-31 | 2006-02-22 | シャープ株式会社 | 動画像符号化装置 |
US6256422B1 (en) * | 1998-11-04 | 2001-07-03 | International Business Machines Corporation | Transform-domain correction of real-domain errors |
US6535148B1 (en) | 1999-02-12 | 2003-03-18 | Sony Corporation | Method and apparatus for truncated decoding |
JP2001016457A (ja) | 1999-06-30 | 2001-01-19 | Ricoh Co Ltd | 画像処理装置および画像処理方法 |
JP2001112000A (ja) * | 1999-10-07 | 2001-04-20 | Matsushita Electric Ind Co Ltd | 映像信号符号化装置 |
JP3757088B2 (ja) * | 1999-10-26 | 2006-03-22 | 日本電気株式会社 | 動画像符号化装置および方法 |
EP1142343A1 (en) | 1999-10-29 | 2001-10-10 | Koninklijke Philips Electronics N.V. | Video encoding method |
US6442203B1 (en) | 1999-11-05 | 2002-08-27 | Demografx | System and method for motion compensation and frame rate conversion |
JP2003519990A (ja) * | 1999-12-29 | 2003-06-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 画像を符号化及び復号化する装置 |
US6810131B2 (en) | 2000-01-05 | 2004-10-26 | Canon Kabushiki Kaisha | Information processing method and apparatus |
US6629104B1 (en) | 2000-11-22 | 2003-09-30 | Eastman Kodak Company | Method for adding personalized metadata to a collection of digital images |
US7062084B2 (en) * | 2000-12-01 | 2006-06-13 | Sharp Laboratories Of America, Inc. | Method for image description using color and local spatial information |
US8374237B2 (en) | 2001-03-02 | 2013-02-12 | Dolby Laboratories Licensing Corporation | High precision encoding and decoding of video images |
US6816552B2 (en) | 2001-07-11 | 2004-11-09 | Dolby Laboratories Licensing Corporation | Interpolation of video compression frames |
US7266150B2 (en) | 2001-07-11 | 2007-09-04 | Dolby Laboratories, Inc. | Interpolation of video compression frames |
US20030112873A1 (en) | 2001-07-11 | 2003-06-19 | Demos Gary A. | Motion estimation for video compression systems |
US20030112863A1 (en) | 2001-07-12 | 2003-06-19 | Demos Gary A. | Method and system for improving compressed image chroma information |
KR100590301B1 (ko) | 2001-11-06 | 2006-06-19 | 파이오니아 가부시키가이샤 | 전력 손실을 감소시킬 수 있는 구조를 갖는 표시 패널구동 장치 |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
-
2001
- 2001-03-02 US US09/798,346 patent/US8374237B2/en active Active
-
2002
- 2002-03-01 WO PCT/US2002/006078 patent/WO2002071735A2/en active Search and Examination
- 2002-03-01 CN CNB028058577A patent/CN1284355C/zh not_active Expired - Lifetime
- 2002-03-01 DK DK02748364.3T patent/DK1380169T3/da active
- 2002-03-01 KR KR10-2003-7011454A patent/KR20040010601A/ko not_active Application Discontinuation
- 2002-03-01 CA CA002439727A patent/CA2439727A1/en not_active Abandoned
- 2002-03-01 JP JP2002570517A patent/JP2004519920A/ja active Pending
- 2002-03-01 ES ES02748364T patent/ES2342365T3/es not_active Expired - Lifetime
- 2002-03-01 EP EP02748364A patent/EP1380169B1/en not_active Expired - Lifetime
- 2002-03-01 DE DE60236354T patent/DE60236354D1/de not_active Expired - Lifetime
- 2002-03-01 AU AU2002306609A patent/AU2002306609A1/en not_active Abandoned
- 2002-03-01 AT AT02748364T patent/ATE467979T1/de active
-
2004
- 2004-05-17 HK HK04103460.1A patent/HK1060676A1/xx not_active IP Right Cessation
-
2011
- 2011-01-07 US US12/986,258 patent/US8594188B2/en not_active Expired - Lifetime
- 2011-01-07 US US12/986,270 patent/US8576907B2/en not_active Expired - Lifetime
-
2013
- 2013-02-12 US US13/765,238 patent/US8488670B2/en not_active Expired - Lifetime
- 2013-10-09 US US14/049,792 patent/US9667957B2/en not_active Expired - Lifetime
- 2013-12-10 US US14/101,759 patent/US10264256B2/en not_active Expired - Lifetime
-
2019
- 2019-03-25 US US16/364,011 patent/US20190356918A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140098858A1 (en) | 2014-04-10 |
US10264256B2 (en) | 2019-04-16 |
JP2004519920A (ja) | 2004-07-02 |
US20130148719A1 (en) | 2013-06-13 |
KR20040010601A (ko) | 2004-01-31 |
ATE467979T1 (de) | 2010-05-15 |
EP1380169A4 (en) | 2008-10-08 |
US8488670B2 (en) | 2013-07-16 |
US8576907B2 (en) | 2013-11-05 |
CA2439727A1 (en) | 2002-09-12 |
CN1284355C (zh) | 2006-11-08 |
US8594188B2 (en) | 2013-11-26 |
WO2002071735A8 (en) | 2004-05-27 |
DE60236354D1 (de) | 2010-06-24 |
AU2002306609A1 (en) | 2002-09-19 |
US20140036996A1 (en) | 2014-02-06 |
US20020154693A1 (en) | 2002-10-24 |
WO2002071735A3 (en) | 2003-10-23 |
WO2002071735A2 (en) | 2002-09-12 |
CN1550108A (zh) | 2004-11-24 |
US20110103470A1 (en) | 2011-05-05 |
EP1380169B1 (en) | 2010-05-12 |
DK1380169T3 (da) | 2010-07-12 |
US20110103471A1 (en) | 2011-05-05 |
EP1380169A2 (en) | 2004-01-14 |
HK1060676A1 (en) | 2004-08-13 |
US9667957B2 (en) | 2017-05-30 |
US8374237B2 (en) | 2013-02-12 |
US20190356918A1 (en) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2342365T3 (es) | Codificacion y descodificacion de alta precision para imagenes de video. | |
US10979706B2 (en) | Method for decoding a bitstream | |
JP7233501B2 (ja) | ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置 | |
CN103250182B (zh) | 用于色调映射hdr数据视频流的方法和系统 | |
ES2275037T3 (es) | Procedimiento de codificacion de video con compensacion de fundido. | |
BR112020013979A2 (pt) | Mecanismos de sinalização para faixas iguais e outros parâmetros dra para codificação de vídeo | |
CN105432077A (zh) | 在切换色彩空间时调整量化/缩放和逆量化/缩放 | |
JP2011083017A (ja) | 圧縮画像クロマ情報を改良するための方法およびシステム | |
US20190068981A1 (en) | Storing and retrieving lossy-compressed high bit depth image data | |
JP7401542B2 (ja) | ピクチャのブロックのイントラ予測の方法 | |
KR20230170817A (ko) | 비디오 디코딩 방법 및 비디오 디코더 | |
TW201944780A (zh) | 在視訊寫碼中之基於變換之量化及動態範圍調整尺度推導之協調 | |
TWI740830B (zh) | 圖框之編碼方法和裝置及其解碼方法和裝置,電腦程式製品和處理器可讀式媒體,以及非暫態儲存媒體 | |
JP2022031120A (ja) | 映像圧縮および格納システムと映像圧縮および解凍方法 | |
US10250899B1 (en) | Storing and retrieving high bit depth image data | |
JP2008271039A (ja) | 画像符号化装置及び画像復号化装置 | |
Richter | On the integer coding profile of JPEG XT | |
KR20220019220A (ko) | 영상 압축 및 저장 시스템의 프레임 압축 방법 | |
KR20160135670A (ko) | 픽처 블록을 인코딩/디코딩하기 위한 방법 | |
EP2958103A1 (en) | Method and device for encoding a sequence of pictures | |
CN116965020A (zh) | 视频编解码方法与系统、及视频编解码器 | |
CN116783887A (zh) | 点云的编码方法、解码方法、编码器以及解码器 | |
CN117121485A (zh) | 视频编解码方法与系统、及视频编解码器 | |
CN116918326A (zh) | 视频编解码方法与系统、及视频编码器与视频解码器 |