MXPA06002154A - Metodo de codificacion y decodificacion escalable de video de espacio de color y aparato para el mismo. - Google Patents

Metodo de codificacion y decodificacion escalable de video de espacio de color y aparato para el mismo.

Info

Publication number
MXPA06002154A
MXPA06002154A MXPA06002154A MXPA06002154A MXPA06002154A MX PA06002154 A MXPA06002154 A MX PA06002154A MX PA06002154 A MXPA06002154 A MX PA06002154A MX PA06002154 A MXPA06002154 A MX PA06002154A MX PA06002154 A MXPA06002154 A MX PA06002154A
Authority
MX
Mexico
Prior art keywords
data
bit stream
luminance data
bitstream
unit
Prior art date
Application number
MXPA06002154A
Other languages
English (en)
Inventor
Kyo-Kyuk Lee
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MXPA06002154A publication Critical patent/MXPA06002154A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

Un metodo de decodificacion y decodificacion escalable de video de espacio de color y un aparato para el mismo son descritos, los cuales pueden ajustar los componentes de color o la profundidad de color de acuerdo con el funcionamiento de un lado del decodificador. El metodo de codificacion escalable de video de espacio de color incluye la generacion de coeficientes de transformada a traves de la remocion de la redundancia temporal y la redundancia espacial de los cuadros de video de entrada, la cuantificacion de los coeficientes de transformada, la generacion de un flujo de bits mediante la codificacion de entropia de los coeficientes cuantificados de transformada y la generacion de un flujo de bits escalable de espacio de color que incluye el flujo de bits y la informacion de posicion de los datos de luminancia en el flujo de bits.

Description

MÉTODO DE CODIFICACIÓN Y DECODIFICACION ESCALABLE DE VIDEO DE ESPACIO DE COLOR Y APARATO PARA EL MISMO CAMPO DE LA INVENCIÓN La presente invención se refiere a un método de codificación y decodificación escalable de video de espacio de color y a un aparato para el mismo, y de manera más particular, a un método de codificación y decodificación escalable de video de espacio de color y a un aparato para el mismo que puede ajustar los componentes de color o la profundidad de color de acuerdo con el funcionamiento de un lado de decodificador . ANTECEDENTES DE LA INVENCIÓN Con el desarrollo de las tecnologías de información y comunicación, las comunicaciones multimedia están aumentando además de las comunicaciones de texto y de voz . Los sistemas existentes de comunicación centrados por texto son insuficientes para satisfacer los diversos deseos de los consumidores, y por lo tanto, están aumentando los servicios multimedia que pueden acomodar diversas formas de información tales como texto, imágenes, música, y otros. Debido a que los datos multimedia son grandes, se requieren medios de almacenamiento de masa y anchos de banda amplios para el almacenamiento y la transmisión de datos multimedia. En consecuencia, son requeridas técnicas de codificación de REF. 170414 compresión para transmitir datos multimedia, los cuales incluyen datos de texto, de imágenes y de audio. El principio básico de la compresión de datos es la remoción o eliminación de la redundancia de datos. Los datos pueden ser comprimidos eliminando la redundancia espacial, tal como la repetición del mismo color u objeto en las imágenes, la redundancia temporal tal como un pequeño cambio en los cuadros adyacentes de una imagen en movimiento o la repetición continua de sonidos en audio y la redundancia visual/perceptual, que considera la insensitividad humana a las altas frecuencias . En un método general de codificación de video, la redundancia temporal es eliminada a través del filtrado temporal en base a la compensación de movimiento y la redundancia espacial es removida a través de una transformada espacial. Con el fin de transmitir datos multimedia una vez que haya sido eliminada la redundancia, son requeridos medios de transmisión, los funcionamientos de los cuales difieren. Los medios de transmisión actualmente utilizados tienen diversas velocidades de transmisión. Por ejemplo, una red de comunicación de ultra-alta velocidad puede transmitir varias decenas de megabits de datos por segundo y una red de comunicación móvil tiene una velocidad de transmisión de 384 kilobits por segundo. Con el fin de soportar los medios de transmisión en este entorno de transmisión y con el propósito de transmitir datos multimedia con una velocidad de transmisión adecuada para el entorno de transmisión, un método de codificación escalable de video es el más adecuado. El método de codificación escalable hace posible el ajuste de la resolución, la velocidad de cuadro, la relación de señal-a-ruido (SNR, por sus siglas en inglés) y otros de un video mediante la supresión o truncado de parte de un flujo de bits previamente comprimido de acuerdo con las condiciones ambientales, tales como la velocidad de transmisión de bits, la velocidad de transmisión de error y los recursos del sistema. Con respecto a esta codificación escalable de video, la Parte 13 del MPEG-21 (Grupo de Expertos de Imagen en Movimiento-21) ya ha progresado su trabajo de estandarización. No obstante, debido a que la codificación escalable existente de video no puede proporcionar la escalabilidad en un espacio de color, incluso un dispositivo de visualización, que requiere una imagen en escala de gris en lugar de una imagen de color, debe recibir y decodificar la imagen de color, lo cual es innecesario e ineficiente. Además, es ineficiente que un dispositivo de visualización, que es incapaz de presentar una imagen que tiene una profundidad de color de 24 bits, reciba y decodifique un flujo de bits codificado con una profundidad de color de 24 bits y posteriormente, que trunque innecesariamente los bits del flujo decodificado de bits.
SUMARIO DE LA INVENCIÓN En consecuencia, la presente invención ha sido realizada para resolver los problemas mencionados con anterioridad que se presentan en la técnica anterior, y un aspecto de la presente invención es proporcionar un método de codificación y decodificación escalable de video de espacio de color, en el cual un codificador pueda informar a un decodificador de la posición de los datos de luminancia en un flujo de bits y el decodificador puede transformar una imagen de color en una imagen de escala de gris, según sea necesario. Otro aspecto de la presente invención es proporcionar un método de codificación y decodificación escalable de video de espacio de color, en el cual un decodificador adquiere información sobre la capacidad de profundidad de color de un dispositivo de visualización, después, remueve los bits que exceden la capacidad de profundidad de color soportada por el dispositivo de visualización y finalmente, decodifica el flujo de bits. Las ventajas, aspectos y características adicionales de la invención serán señalados en parte en la descripción que sigue y en parte serán aparentes para aquellas personas que tienen experiencia ordinaria en la técnica en base al examen de lo siguiente o podrían ser aprendidos a partir de la práctica de la invención.
Con el fin de conseguir estos aspectos, se proporciona un método de codificación escalable de video de espacio de color, de acuerdo con la presente invención, el cual incluye las etapas de generar coeficientes de transformada a. través de la remoción de la redundancia temporal y la redundancia espacial de los cuadros de video de entrada, cuantificar los coeficientes de transformada, generar un flujo de bits mediante la codificación de entropía de los coeficientes cuantificados de transformada, y generar un flujo de bits escalable de espacio de color que incluya el flujo de bits y la información de la posición de los datos de luminancia en el flujo de bits. En otro aspecto de la presente invención, se proporciona un método de decodificación escalable de video de espacio de color, el cual incluye las etapas de extraer la información de posición de los datos de luminancia de un flujo de bits, generar un segundo flujo de bits que incluya los datos de movimiento y los datos de luminancia mediante la supresión o truncado de los datos de crominancia a partir del flujo de bits de acuerdo con la información de posición de los datos de luminancia, y restaurar los cuadros de video mediante la decodificación del segundo flujo de bits. Todavía en otro aspecto de la presente invención, se proporciona un método de codificación escalable de video de espacio de color, el cual incluye las etapas de generar coeficientes de transformada mediante la remoción de la redundancia temporal y la redundancia espacial de los cuadros de video de entrada, cuantificar los coeficientes de transformada y generar un flujo de bits mediante la codificación de entropía de los coeficientes cuantificados de transformada, en donde el número de bits de la profundidad de color del flujo de bits es incrementado en proporción con el nivel de la capa. Todavía en otro aspecto de la presente invención, se proporciona un método de decodificación escalable de video de espacio de color, el cual incluye las etapas de adquirir información sobre la capacidad de profundidad de color de un dispositivo de visualización, generar un segundo flujo de bits mediante la supresión o truncado de bits a partir de un flujo de bits de entrada que excede la capacidad de profundidad de color de acuerdo con la información sobre la capacidad de profundidad de color, y restaurar los cuadros de video mediante la decodificación del segundo flujo de bits. Todavía en otro aspecto de la presente invención, se proporciona un codificador escalable de video de espacio de color, el cual incluye una unidad de transformada temporal para la remoción de la redundancia temporal de los cuadros de video de entrada, una unidad de transformada espacial para la remoción de la redundancia espacial de los cuadros de video de entrada, una unidad -de cuantificación que mide los coeficientes de transformada generados por la unidad de transformada temporal y la unidad de transformada espacial, una unidad de codificación de entropía que realiza la codificación de entropía de los coeficientes cuantificados de transformada, y una unidad de generación de flujo de bits escalable de espacio de color para la creación de un flujo de bits escalable de espacio de color que incluye un flujo de bits generado por la unidad de codificación de entropía y la información de posición de los datos de luminancia en el flujo de bits. Todavía en otro aspecto de la presente invención, se proporciona un decodificador escalable de video de espacio de color, el cual incluye una unidad de procesamiento previo de flujo de bits para la extracción de la información de posición de los datos de luminancia de un flujo de bits, y la generación de un segundo flujo de bits que incluye datos de movimiento y datos de luminancia a través de la supresión o truncado de los datos de crominancia del flujo de bits de acuerdo con la información de posición de los datos de luminancia, una unidad de decodificación de entropía para el descifrado del segundo flujo de bits, una unidad de cuantificación inversa para la generación de coeficientes de transformada efectuando una cuantificación inversa del segundo flujo decodificado de bits, una unidad de transformada espacial inversa para la restauración de una señal residual realizando una transformada espacial inversa en base a los coeficientes de transformada, y una unidad de compensación de movimiento para la realización de la compensación de movimiento en los cuadros previstos de acuerdo con los datos de movimiento proporcionados por la unidad de decodificación de entropía. Todavía en otro aspecto de la presente invención, se proporciona un decodificador escalable de video de espacio de color, el cual incluye una unidad de procesamiento previo de flujo de bits para la adquisición de información en base a la capacidad de profundidad de color de un dispositivo de visualización y la generación de un segundo flujo de bits mediante el truncado de bits de un flujo de bits de entrada que excede la capacidad de profundidad de color de acuerdo con la información en base a la capacidad de profundidad de color, una unidad de decodificación de entropía para el descifrado del segundo flujo de bits, una unidad de cuantificación inversa para la generación de coeficientes de transformada efectuando una cuantificación inversa en base al segundo flujo decodificado de bits, una unidad de transformada espacial inversa para la restauración de una señal residual realizando una transformada espacial inversa en base a los coeficientes de transformada, y una unidad de compensación de movimiento para la realización de la compensación de movimiento en base a los cuadros previstos de acuerdo con los datos de movimiento proporcionados por la unidad de decodificación de entropía. Todavía en otro aspecto de la presente invención, se proporciona un método de transferencia de datos de una rebanada que contiene una pluralidad de macrobloques, el cual incluye las etapas de inserción de los datos de luminancia de todos los macrobloques contenidos en la rebanada, la inserción de los datos de crominancia de todos los macrobloques contenidos en la rebanada, la transferencia de un flujo de bits que incluye los datos de luminancia y los datos de crominancia. Todavía en otro aspecto de la presente invención, se proporciona un método de generación de una secuencia de video que incluye una pluralidad de rebanadas que contienen una pluralidad de macrobloques con datos de luminancia y datos de crominancia de los macrobloques, que incluye las etapas de inserción de los datos de luminancia de todos los macrobloques incluidos en la rebanada, la inserción de los datos de crominancia de todos los macrobloques incluidos en la rebanada. Todavía en otro aspecto de la presente invención, se proporciona un método de procesamiento de una secuencia de video que es transferida por separado con los datos de luminancia o^Llos datos de crominancia de la pluralidad de macrobloques -^incluidos en una rebanada, que comprende las etapas de interpretar los datos de luminancia de todos los macrobloques incluidos en la rebanada, interpretar los datos de crominancia de todos los macrobloques incluidos en la rebanada. Todavía en otro aspecto de la presente invención, se proporciona un método de decodificación de una secuencia de video que incluye una capa de base y una capa de mejora FGS, el cual incluye las etapas de. interpretar los datos de la capa de base, interpretar los datos de luminancia de todos los macrobloques incluidos en la capa de mejora FGS, interpretar los datos de crominancia de todos los macrobloques, combinar los datos de luminancia y los datos de crominancia de la capa de mejora FGS con los datos de la capa de base, y decodificar los datos combinados. BREVE DESCRIPCIÓN DE LAS FIGURAS Los anteriores y otros aspectos, características y ventajas de la presente invención serán más aparentes a partir de la siguiente descripción detallada tomada en conjunto con las figuras que la acompañan, en las cuales: La Figura 1 es una vista de ejemplo que ilustra el concepto de una codificación escalable de video de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 2 es una vista que ilustra la estructura de un flujo de bits escalable de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 3 es una vista que ilustra la estructura de un flujo de bits escalable de espacio de color en una estructura de múltiples capas de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 4 es una vista que ilustra la estructura de un flujo de bits escalable de espacio de color en una estructura de capa FGS de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 5 es una vista que ilustra la estructura de un flujo de bits escalable de espacio de color en una estructura de capa FGS de acuerdo con otra modalidad de ejemplo de la presente invención; La Figura 6 es un diagrama de bloque que ilustra la construcción de un codificador escalable de video de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 7 es un diagrama de bloque que ilustra la construcción de un decodificador escalable de video de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 8 es un diagrama de bloque que ilustra la construcción de un codificador escalable de video de espacio de color en la estructura de capa FGS de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 9 es un diagrama de bloque que ilustra la construcción de un decodificador escalable de video de espacio de color en una estructura de capa FGS de acuerdo con una modalidad de ejemplo de la presente invención; __ La .Figura 10 es un diagrama de flujo que ilustra un proceso de codificación de acuerdo con una modalidad de ejemplo de la presente invención; La Figura 11 es un diagrama de flujo que ilustra un proceso de decodificación escalable de video del componente de color de acuerdo con una modalidad de ejemplo de la presente invención; y La Figura 12 es un diagrama de flujo que ilustra un proceso de decodificación escalable de video de profundidad de color de acuerdo con una modalidad de ejemplo de la presente invención. DESCRIPCIÓN DETALLADA DE LA INVENCIÓN De aquí en adelante, las modalidades de ejemplo de la presente invención serán descritas en detalle con referencia a las figuras que la acompañan. Los aspectos y características en la presente invención y los métodos para la consecución de los aspectos y características serán aparentes con referencia a las modalidades de ejemplo que serán descritas en detalle con referencia a las figuras que la acompañan. No obstante, la presente invención no se limita a las modalidades de ejemplo descritas de aquí en adelante, sino que pueden ser implementadas en formas diversas . Las materias definidas en la descripción, tal como la construcción detallada y los elementos, no son sino los detalles específicos proporcionados para ayudar a aquellas personas de experiencia ordinaria en la técnica en un entendimiento completo de la invención, y la presente invención solamente es definida dentro del alcance de las reivindicaciones adjuntas. En la descripción total de la presente invención, los mismos números de referencia de los dibujos son utilizados para los mismos elementos a través de las distintas figuras. La Figura 1 es una vista de ejemplo que ilustra el concepto de una codificación escalable de video de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención. Un sistema de seguridad 20 no solamente visualiza un video en tiempo real sino también almacena datos de video para uso adicional . El almacenamiento de los datos de video requiere un gran espacio de disco, y si los datos de video fueran almacenados como una imagen en escala de gris, más que una imagen de color, el espacio de disco para el almacenamiento de la imagen podría ser reducido. En consecuencia, es necesario proporcionar una función que transforme una imagen de color en una imagen de escala de gris de acuerdo con los requerimientos de un dispositivo de visualización. De aquí en adelante esta función es referida como "escalabiiidad del componente de color" .
Por otro lado, un flujo de bits transmitido a partir de un lado de codificador podría ser escalado en la profundidad de color y puede ser transmitido a varios clientes. De manera general, un teléfono móvil 30 y un PDA 40 proporcionan profundidades de color más bajas que aquellas de una computadora portátil de tipo ?notebook' 50 y una computadora personal PC 60. La función para escalar el mismo flujo de bis para dispositivos de visualización que soportan diferentes profundidades de color es llamada "escalabilidad de profundidad de color" . De aquí en adelante, tanto la escalabilidad del componente de color como la escalabilidad de profundidad de color descritas con anterioridad son denominadas como escalabilidad de espacio de color. Esta escalabilidad de espacio de color puede ser implementada mediante decodificadores previos o extractores 11-14. Debido a que la mayoría de aplicaciones de video digital visualizan el video de color, es requerido un mecanismo que capture y represente la información de color. Una imagen negra/blanca solamente requiere un número para representar la luminancia de una respectiva muestra espacial. En contraste, una imagen de color requiere al menos de tres números para cada píxel con el fin de representar con precisión el color. Un espacio de color es seleccionado para representar la luminancia y el color. El espacio de color podría ser clasificado en un espacio de color RGB, un espacio de color YUV y un espacio de color YCrCb. En el espacio de color RGB, una muestra de imagen de color es representada por tres números que indican las relaciones relativas de los colores, rojo, verde y azul. Debido a que los tres colores son igualmente importantes en el espacio de color RGB, estos son almacenados con la misma resolución. Sin embargo, el sistema visual humano es más sensible a la luminancia que a la crominancia, y por lo tanto, la imagen de color puede ser representada de manera más eficiente separando la información de luminancia de la información de color, y representando los datos de luminancia con una resolución más alta que la resolución de los datos de crominancia. El espacio de color YCrCb y el espacio de color YUV, que es una modificación del espacio de color YCrCb, son métodos populares para representar de manera efectiva una imagen de color considerando el sistema visual humano, como se describió con anterioridad. La letra Y denota un componente de luminancia, y puede ser calculado como un promedio ponderado de R, G y B como en la Ecuación (1) . en donde, k es el factor de ponderación. La información de color puede ser expresada a través de los componentes de crominancia, y el respectivo componente de crominancia,-puede ser expresado por la diferencia entre R (o G o b) e Y como en la Ecuación (2) . Cb = B-Y Cr = R- Y (2) Cg = G-Y _ _ En consecuencia, mediante la separación del componente de luminancia y los componentes de crominancia entre sí, y codificando los componentes separados, un flujo de bits de color puede ser transformado en un flujo de bits en escala de gris. La Figura 2 es una vista que ilustra la estructura de un flujo de bits escalable del componente de color en el cual un componente de luminancia y los componentes de crominancia son separados entre sí y son codificados de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 2, los datos de luminancia 230 primero son codificados y posteriormente, los datos de crominancia 240 son codificados. En un flujo de bits, la información de posición de los datos de luminancia 230 es introducida en un encabezado 210. La información de posición de los datos de luminancia podría incluir la longitud total de los datos de textura y la longitud de los datos de luminancia. Además, la información de posición de los datos de luminancia podría incluir cualquiera de los tipos de información que indique la posición de los datos de luminancia que puede ser suprimida o truncada por un decodificador. La información de posición de los datos de luminancia puede ser introducida en un encabezado GOP (Grupo de Imágenes) , un encabezado de imagen, un encabezado de rebanada o cualqµier posición adecuada en el flujo de bits. El decodificador puede restaurar los cuadros de video en escala de gris mediante la extracción solamente de un componente de luminancia de un flujo de bits de color. Si embargo, en una modalidad de ejemplo de la presente invención, a través de una implementación muy simple del decodificador, la escalabilidad del componente de color puede ser conseguida, aunque la escalabilidad de la profundidad de color no puede ser alcanzada. La escalabilidad de profundidad de color se refiere a una función requerida por un decodificador de un dispositivo de visualización que no puede presentar la imagen con una resolución de 24 bits, por ejemplo, un PDA o un teléfono móvil. En consecuencia, el decodificador debe proporcionar un flujo de bits que utilice la profundidad de color adecuada en el respectivo dispositivo de visualización. Los recursos, tales como el ancho de banda y el tiempo de decodificación, son desperdiciados cuando el dispositivo de visualización, tal como el PDA o el teléfono móvil, procesa un flujo de bits que tiene una profundidad completa de color. La escalabilidad de profundidad de color puede ser conseguida haciendo que el decodificador adquiera la información del cliente en base a la capacidad de profundidad de color soportada por un cliente, y posteriormente, removiendo los bits que exceden la capacidad de profundidad - de— color._ soportada por .el. cliente del flujo de bits. La implementación de la escalabilidad de profundidad de color será explicada con referencia a las Figuras 3 y 4. La Figura 3 es una vista que ilustra la estructura de un flujo de bits escalable de espacio de color para proporcionar la escalabilidad del componente de color y la escalabilidad de profundidad de color utilizando una estructura de múltiples capas de acuerdo con una modalidad de ejemplo de la presente invención. En la Figura 3, la escalabilidad del componente de color y la escalabilidad de profundidad de color son proporcionadas en una estructura de múltiples capas. En una modalidad de ejemplo de la presente invención, el flujo de bits incluye una pluralidad de capas que comprenden los datos de textura que tienen diferentes profundidades de color. De manera específica, la primera capa podría incluir datos de textura que soportan una profundidad de color de 12 bits, la segunda capa podría incluir datos de textura que soportan una profundidad de color de 16 bits, y la tercera capa podría incluir 24 bits de datos de textura. Si un codificador cifrara y transmitiera los datos de textura que tienen diferentes profundidades de color utilizando la estructura de múltiples capas, el decodificador adquiriría información sobre la escalabilidad de profundidad de color soportada por el dispositivo de visualización, después, removería el flujo de bits de la capa que excediera la capacidad soportable de profundidad de color del flujo de bits recibido y posteriormente, descifraría los flujos restantes de bits para restaurar los cuadros de video. Por ejemplo, si el dispositivo de visualiza-ción fuera un PDA que soporta una profundidad de color de i6 bits, el decodíficador removería el flujo de bits que corresponde con la tercera capa, y decodificaria los flujos de bits que corresponden con la primera capa y la segunda capa con el fin de visualizar los flujos decodificados de bits. Por otro lado, el flujo de bits que corresponde con la capa respectiva incluye la información de posición 310 y 340 de los datos de luminancia para diferenciar los datos de luminancia 320 y 350 de los datos de crominancia 330 y 360 en la capa respectiva, y de esta manera, la escalabilidad del componente de color puede ser realizada en la capa respectiva. Por consiguiente, en el caso en donde el dispositivo de visualización soporte una profundidad de color de 16 bits y una escala de gris, el decodificador puede restaurar los cuadros de video mediante la supresión o truncado del flujo de bits que corresponde con la tercera capa y el truncado de los datos innecesarios de crominancia 330 y 360 de acuerdo con la información de posición 310 y 340 de los datos de luminancia de la primera y de la segunda capas . La información de posición de los datos de luminancia puede ser introducida en un encabezado GOP, un encabezado de imagen, un encabezado de rebanada o cualquier posición adecuada en el flujo de bits.. La información de posición de los datos de luminancia podría incluir la longitud total de los datos de textura y la longitud de los datos de luminancia. Además, la información de posición de los datos de luminancia podría incluir cualquier tipo de información que pueda indicar la posición de los datos de luminancia que pueden ser truncados por el decodificador. En otra modalidad de ejemplo de la presente invención, es ejemplificada la estructura del flujo de bits que puede soportar tanto la escalabilidad del componente de color como la escalabilidad de profundidad de color. Sin embargo, si solamente la escalabilidad de profundidad de color que utiliza la estructura de múltiples capas fuera a ser soportada, la información de posición 310 y 340 de los datos de luminancia de la capa respectiva puede ser omitida. La Figura 4 es una vista que- ilustra la estructura del flujo de bits escalable de espacio de color en una estructura de capa FGS (escalabilidad SNR de Grano Fino) de acuerdo con una modalidad de ejemplo de la presente invención. En la Figura 4, la escalabilidad del componente de color y la escalabilidad de profundidad de color son proporcionadas en la estructura de capa FGS . La técnica FGS es para la implementación de la escalabilidad SNR, la cual es para la decodificación de un video de entrada en dos capas que tienen la misma velocidad de cuadro y resolución y diferentes exactitudes de cuantificación. En particular, la técnica FGS codifica el video de entrada en dos capas, es decir, una capa de base y una capa mejorada, y codifica una señal residual de la capa mejorada. La técnica FGS podría o no transmitir las señales codificadas para evitar que las señales codificadas sean descifradas por un decodificador de acuerdo con la eficiencia de transmisión de red o el estado del lado de decodificador. Por consiguiente, los datos pueden ser transmitidos en forma adecuada con su cantidad ajustada de acuerdo con la velocidad de transmisión de bits de la red. La FGS del SVM (Modelo de Video Escalable) 3.0 es implementada utilizando una representación de refinamiento gradual. La escalabilidad SNR en FGS puede ser conseguida haciendo posible truncar las unidades de la capa de abstracción de red (NAL, por sus siglas en ingles) generadas como el resultado de la codificación de FGS en cualquier lugar. La FGS está compuesta de una capa de base y una capa mejorada FGS. La capa de base genera cuadros de capa de base que representan una calidad mínima del video que puede ser transmitido en la velocidad más baja de bits de transmisión, y la capa mejorada FGS genera las unidades NAL que podrían ser adecuadamente truncadas y transmitidas en una velocidad de bits más alta que la velocidad más baja de bits de transmisión, o que podrían ser adecuadamente truncadas y descifradas por el decodificador. La capa mejorada FGS transforma y cuantificar una señal residual obtenida mediante la sustracción de los cuadros restaurados, los cuales han sido obtenidos en la capa de base o la capa mejorada inferior, a partir de los cuadros originales para transmitir la señal residual cuantificada al decodificador. A medida que la capa se convierte en la capa superior, la escalabilidad SNR puede ser realizada generando un residuo más exquisito si se reducen los valores del parámetro de cuantificación. En esta modalidad de ejemplo de la presente invención, la escalabilidad de profundidad de color es realizada utilizando tres capas FGS, es decir, una primera capa FGS (la capa de base) , una segunda capa FGS (una primera capa mejorada FGS) y una tercera capa FGS (una segunda capa mejorada FGS) . De manera general, en la estructura de capa FGS del SVM 3.0, si el número de capas fuera incrementado en uno, el número de bits que puede ser utilizado para los datos de textura también es aumentado en uno. Mediante la utilización de esto para aumentar la capacidad de profundidad de color, la segunda capa FGS puede soportar la profundidad de color que es de un bit más grande que la profundidad de la primera capa FGS, y la tercera capa FGS puede soportar la profundidad de color que es de un bit más grande que la profundidad de la ^segunda capa FGS. _Si el codificador cifrara y transmitiera los datos de textura que tienen distintas profundidades de color utilizando la estructura de capa FGS, el decodificador adquiriría la información sobre la escalabilidad de profundidad de color soportada por el dispositivo de visualización, después, removería el flujo de bits de la capa que excede la capacidad soportable de profundidad de color de los flujos recibidos de bits y posteriormente, decodificaria los flujos restantes de bits para restaurar los cuadros de video . En esta modalidad de ejemplo de la presente invención, el flujo de bits podría incluir la información de posición 410 de los datos de luminancia para diferenciar los datos de luminancia 420, 440 y 460 en todas las capas FGS de los datos de crominancia 430, 450 y 470 con el fin de soportar la escalabilidad del componente de color. Por consiguiente, si el dispositivo de visualización soportara la profundidad de color que corresponde con la segunda capa FGS y la escala de gris, el decodificador puede restaurar los cuadros de video mediante el truncado del flujo de bits que corresponde con la tercera capa y el truncado de los datos innecesarios de crominancia 430 y 450 de acuerdo con la información de posición 410 de los datos de luminancia de la primera y la segunda capas . La información de posición de los datos de luminancia puede ser introducida en un encabezado C0P_, un encabezado de imagen, un encabezado de rebanada o cualquier posición adecuada en el flujo de bits . En la modalidad de ejemplo de la presente invención, la información de posición de los datos de luminancia podría incluir la longitud total de los datos de textura y la longitud de los datos de luminancia. Además, la información de posición de los datos de luminancia podría incluir cualquier tipo de información que pueda indicar la posición de los datos de luminancia que pueden ser truncados por el decodificador. En esta modalidad de ejemplo de la presente invención, es ejemplificada la estructura del flujo de bits que puede soportar, tanto la escalabilidad del componente de color como la escalabilidad de profundidad de color. Sin embargo, si solamente la escalabilidad de profundidad de color que utiliza FGS fuera a ser soportada, la información de posición 410 de los datos de luminancia de la respectiva capa FGS puede ser omitida. La Figura 5 es una vista que ilustra la estructura de un flujo de bits escalable de espacio de color en una estructura de capa FGS de acuerdo con otra modalidad de ejemplo de la presente invención.
En esta modalidad de ejemplo que se ilustra en la Figura 5, el flujo de bits tiene una estructura para la codificación y decodificación escalable de espacio de color que utiliza FGS, en el mismo modo que la estructura de la Figura 4. No obstante, la modalidad de ejemplo que se ilustra en la Figura 4 proporciona una estructura que incluye los datos de textura compuestos de los datos de luminancia y los datos de crominancia en el orden de las capas FGS, mientras que la modalidad de ejemplo que se ilustra en la Figura 5 proporciona una estructura en la cual los datos de luminancia 520-540 de toda las capas FGS se encuentran separados de los datos de crominancia 550-570 de toda las capas FGS, y son situados en el encabezado del flujo de bits. En esta modalidad de ejemplo de la presente invención, la escalabilidad de profundidad de color y la escalabilidad del componente de color son realizadas utilizando tres capas FGS, es decir, una primera capa FGS (la capa de base) , una segunda capa FGS (una primera capa mejorada FGS) y una tercera capa FGS (una segunda capa mejorada FGS) . El decodificador adquiere información sobre la escalabilidad de profundidad de color soportada por el dispositivo de visualización, después, elimina el flujo de bits de la capa que excede la capacidad soportable de profundidad de color de los flujos recibidos de bits, y posteriormente, decodifica los flujos restantes de bits para restaurar los cuadros de video. En particular, en esta modalidad de ejemplo de la presente invención, el flujo de bits podría incluir la información de posición 510 de un límite entre los datos de luminancia 540 y los datos de crominancia 550 con el fin de soportar la escalabilidad del componente de color. En este caso, debido a que los datos de luminancia_máxima pueden ser utilizados retirando los datos de crominancia, una imagen en escala de gris que tiene una alta brillantez puede ser restaurada. La Figura 6 es un diagrama de bloque que ilustra la construcción de un codificador escaláble de video de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 6, el codificador escalable de video de espacio de color 600 de acuerdo con esta modalidad de ejemplo de la presente invención incluye una unidad de transformada temporal 610, una unidad de transformada espacial 620, una unidad de cuantificación 630, una unidad de codificación de entropía 640, una unidad de generación de flujo de bits escalable de espacio de color 650, una unidad de cuantificación inversa 660 y una unidad de transformada espacial inversa 670. La unidad de transformada temporal 610 podría incluir una unidad de estimación de movimiento 612, una unidad de compensación de movimiento 614 y un substractor 616. La unidad de estimación de movimiento 612 efectúa la estimación de movimiento sobre el cuadro actual en base al cuadro de referencia en los cuadros de video de entrada y obtiene vectores de movimiento. El algoritmo que es ampliamente utilizado para la estimación de movimiento es un algoritmo de acoplamiento o coincidencia de bloque . Éste algoritmo de coincidencia de bloque estima un desplazamiento que corresponde con el error mínimo como un vector de movimiento a medida que éste se mueve en un bloque dado de movimiento en la unidad de un píxel en un área específica de búsqueda del cuadro de referencia. Para la estimación de movimiento, podría utilizarse un bloque de movimiento que tiene un tamaño fijo o un bloque de movimiento que tiene un tamaño variable de acuerdo con un algoritmo jerárquico de coincidencia del bloque de tamaño variable (HVSBM) . La unidad de estimación de movimiento 612 proporciona datos de movimiento tal como los vectores de movimiento obtenidos como los resultados de la estimación de movimiento, el tamaño del bloque de movimiento y el número de cuadro de referencia a la unidad de codificación de entropía 640 . La unidad de compensación de movimiento 614 reduce la redundancia temporal del cuadro de video de entrada . En este caso, la unidad de compensación de movimiento 614 genera un cuadro temporalmente previsto para el presente cuadro efectuando una compensación de movimiento para el cuadro de referencia utilizando los vectores de movimiento calculados en la unidad de estimación de movimiento 612 . El substractor 616 remueve la redundancia temporal del video restando el cuadro temporalmente previsto del presente cuadro .
La unidad de transformada espacial 620 remueve la redundancia espacial del cuadro, a partir de la cual la redundancia temporal ha sido removida por el substractor 616, utilizando un método de transformada espacial que soporta la escalabilidad espacial. La transformada del coseno discreto (DCT, por sus siglas en inglés) , la transformada de tren de ondas y otras, podrían ser utilizadas como el método de transformada espacial . Los coeficientes obtenidos como resultado de la transformada espacial son denominados coeficientes de transformada. Si la DCT fuera utilizada como el método de transformada espacial, los coeficiente resultantes son llamados coeficientes DCT, mientras que si fuera utilizada la transformada de tren de ondas, los coeficiente resultantes serían llamados coeficientes de tren de ondas . La unidad de cuantificación 630 mide los coeficientes de transformada obtenidos a través de la unidad de transformada espacial 620. Los medios de cuantificación representan los coeficientes de transformada, que son expresados como valores reales, a través de valores discretos dividiendo los coeficientes de transformada en secciones específicas y posteriormente combinando los valores discretos con los índices específicos. En particular, en el caso de emplear la transformada del tren de ondas como el método de transformada espacial, el método de cuantificación embebida es principalmente -utilizado como el método de cuantificación. Éste método de cuantificación embebida efectúa una cuantificación eficiente utilizando la redundancia espacial al codificar, de manera preferente, los componentes de los coeficientes de transformada que exceden un valor de magnitud o umbral cambiando el valor del umbral (a 1/2) . El método de cuantificación embebida podría ser un algoritmo embebido de tren de ondas de árboles nulos (EZ , por sus siglas en inglés) , un conjunto que divide un algoritmo jerárquico de árboles (SPIHT, por sus siglas en inglés) , o un algoritmo embebido de codificación del bloque cero (EZBC, por sus siglas en inglés) . La unidad de codificación de entropía £40 efectúa una codificación sin pérdida de los coeficientes de transformada medidos por la unidad de cuantificación 630 y los datos de movimiento proporcionados por la unidad de estimación de movimiento 612, y genera un flujo de bits de salida. La codificación aritmética o la codificación de longitud variable podrían ser utilizadas como el método de codificación sin pérdida. La unidad de generación de flujo de bits escalable de espacio de color 650 introduce la información de posición de los datos de luminancia en los datos de textura proporcionados por la unidad de cuantificación 630 en el flujo de bits proporcionado por la unidad de codificación de entropía 640 en una forma adecuada. La forma del flujo de bits creada por la unidad de generación de flujo de bits escalable de espacio de color 650 es como se describió con anterioridad con referencia a la Figura 2. En otra modalidad de ejemplo de la presente invención, la unidad de generación de flujo de bits escalable de espacio de color 650 podría primero introducir la información de posición de los datos de luminancia en el encabezado de los datos de textura medidos por la unidad de cuantificación 630, no en el encabezado del flujo total de bits, a fin de proporcionar los datos de textura a la unidad de codificación de entropía 640. En éste caso, el lado de decodificador 700 puede extraer la información de posición de los datos de luminancia del encabezado de los datos de textura después de la decodificación del flujo de bits. En el caso en donde el codificador de video 600 soporte un codificador de video de circuito cerrado con el fin de reducir el error de arrastre que sucede entre el lado del codificador y el lado del decodificador, este además podría incluir una unidad de cuantificación inversa 660 y una unidad de transformada espacial inversa 670. La unidad de cuantificación inversa 660 efectúa la cuantificación inversa en base a los coeficientes medidos por la unidad de cuantificación 630. Éste proceso de cuantificación inversa corresponde con el proceso inverso del proceso de cuantificación.
La unidad de transformada espacial inversa 670 realiza una transformada espacial inversa en base a los resultados de la cuantificación inversa y proporciona los resultados de la transformada espacial inversa a un adicionador 680. El adicionador 680 restaura el cuadro de video agregando el cuadro residual proporcionado por la unidad de transformada espacial inversa 670 al cuadro previo proporcionado por la unidad de compensación de movimiento 614 y almacenado en una memoria intermedia de cuadro {no se ilustra) y suministra el cuadro de video restaurado a la unidad de estimación de movimiento 612 como el cuadro de referencia. Con referencia a la Figura 6, un codificador de video de capa única ha sido explicado. Sin embargo, será aparente para aquellas personas expertas en la técnica que el codificador de video de acuerdo con la presente invención puede ser extendido a una codificación escalable de video de espacio de color utilizando una estructura de múltiples capas como se ilustra en la Figura 3. La Figura 7 es un diagrama de bloque que ilustra la construcción de un decodificador escalable de video de espacio de color de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 7, el decodificador escalable de video de espacio de color 700 de acuerdo con esta modalidad de ejemplo de la presente invención incluye una unidad de procesamiento previo de flujo de bits 710, una unidad de decodificación de entropía 720, una unidad de cuantificación inversa 730, una unidad de transformada espacial inversa 740 y una unidad de compensación de movimiento 750. La unidad de procesamiento previo de flujo de bits 710 adquiere información en base a un espacio de color soportable del dispositivo de visualización, después, trunca el flujo recibido de bits de acuerdo con la información de espacio de color, y proporciona el flujo truncado de bits a la unidad de decodificación de entropía 720. La información sobre el espacio de color soportado por el dispositivo de visualización podría ser la información sobre la imagen visualizada de color/en escala de gris, la capacidad de profundidad de color y otras . En el caso en donde el dispositivo de visualización solamente soporte la imagen en escala de gris como se describió con anterioridad con referencia a las Figuras 2 y 3, la unidad de procesamiento previo de flujo de bits 710 extrae la información de posición de los datos de luminancia del flujo de bits, después, trunca una parte que corresponde con los datos de crominancia de los datos de textura y proporciona el flujo de bits que solamente incluye los datos de movimiento y los datos de luminancia a la unidad de decodificación de entropía 720. Asimismo, la unidad de procesamiento previo de flujo de bits 710 podría truncar los bits o una capa que excediera la capacidad de profundidad de color soportada por el dispositivo de visualización, y podría proporcionar el flujo restante de bits a la unidad de decodificación de entropía 720. En otra modalidad de ejemplo de la presente invención, sin el procesamiento previo de la unidad de procesamiento previo de flujo de bits 710, la unidad de decodificación de entropía 720 podría extraer la información de posición de los datos de luminancia incluidos en la parte de encabezado de los datos de textura y podría truncar los datos de crominancia, si fuera necesario, después de la decodificación del flujo recibido de bits y la extracción de los datos de textura. La unidad de decodificación de entropía 720 extrae los datos de movimiento y los datos de textura efectuando la decodificación sin pérdida que es el inverso de la codificación de entropía. La unidad de decodificación de entropía 720 proporciona los datos extraídos de textura a la unidad de cuantificación inversa 730 y suministra los datos extraídos de movimiento a la unidad de compensación de movimiento 750. La unidad de cuantificación inversa 730 realiza la cuantificación inversa en base a los datos de textura transmitidos a partir de la unidad de decodificación de entropía 720. Éste proceso de cuantificación inversa es con el fin de buscar los coeficientes cuantificados que coinciden con los valores expresados por los índices especificados y que son transferidos desde el lado de codificador 600. Una tabla que representa un mapeo entre los índices y los coeficientes de cuantificación podría ser transferida del lado de codificador 600 o podría ser preparada por adelantado a través de un acuerdo entre el codificador y el decodificador. La unidad de transformada espacial inversa 740 efectúa, de manera inversa, la transformada espacial y restaura los coeficientes generados como los resultados de la cuantificación inversa en la imagen residual en un dominio espacial. Por ejemplo, si los coeficientes hubieran sido espacialmente convertidos por un método de transformada de tren de ondas en el lado del codificador de video, la unidad de transformada espacial inversa 740 realizará la transformada inversa de tren de ondas, mientras que si los coeficientes hubieran sido convertidos a través del método de transformada DCT en el lado del codificador de video, la unidad de transformada espacial inversa efectuará la transformada inversa DCT. La unidad de compensación de movimiento 750 realiza la compensación de movimiento de los cuadros restaurados de video y genera cuadros compensados de movimiento utilizando los datos de movimiento proporcionados por la unidad de decodificación de entropía 720. Obviamente, este proceso de compensación de movimiento solamente puede ser efectuado cuando el cuadro presente sea decodificado a través del proceso de predicción temporal en el lado del codificador. Un adicionador 760 restaura los cuadros de video agregando la imagen residual a los cuadros compensados de movimiento proporcionados por la unidad de compensación de movimiento 750 cuando la imagen residual restaurada por la unidad de transformada espacial inversa sea generada por una predicción temporal . La Figura 8 es un diagrama de bloque que ilustra la construcción de un codificador escalable de video de espacio de color en una estructura de capa FGS de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 8, el codificador de acuerdo con esta modalidad de ejemplo de la presente invención podría incluir brevemente un codificador de capa de base 810 y un codificador de capa de mejora 850. En esta modalidad de ejemplo de la presente invención, se ejemplificó que una capa de base y una capa de mejora son utilizadas. Sin embargo, será aparente para aquellas personas expertas en la técnica que la presente invención también puede ser aplicada en casos en donde sean utilizadas más capas. El codificador de capa de base 810 podría incluir una unidad de estimación de movimiento 812, una unidad de compensación de movimiento 814, una unidad de transformada espacial 818, una unidad de cuantificación 820, una unidad de codificación de entropía 822, una unidad de generación de flujo de bits escalable de espacio de color 832, una unidad _ de cuantificación inversa 824, una unidad de transformada espacial inversa 826 y una unidad de desbloqueo 830. La unidad de estimación de movimiento 812 efectúa la estimación de movimiento del presente cuadro en base al cuadro de referencia entre los cuadros de video de entrada y obtiene vectores de movimiento. En esta modalidad de ejemplo de la presente invención, los vectores de movimiento para la predicción son obtenidos al recibir el cuadro restaurado que ha sido despejado por la unidad de desbloqueo 830. La unidad de estimación de movimiento 812 proporciona datos de movimiento, tales como los vectores de movimiento obtenidos como el resultado de la estimación de movimiento, el tamaño del bloque de movimiento y el número de cuadro de referencia a la unidad de codificación de entropía 822. La unidad de compensación de movimiento 814 genera un cuadro temporalmente previsto para el presente cuadro efectuando la compensación de movimiento para un cuadro de referencia delantero o trasero utilizando los vectores de movimiento calculados por la unidad de estimación de movimiento 812. El substractor 816 remueve la redundancia temporal del video restando el cuadro temporalmente previsto que es proporcionado por la unidad de compensación de movimiento 814 del presente cuadro de entrada. La unidad de cuantificación 820 mide los coeficientes de transformada obtenidos por la unidad de __Jransfqrmada espacial 818. La unidad de codificación de entropía 822 efectúa la codificación sin pérdida de los coeficientes de transformada medidos por la unidad de cuantificación 820 y los datos de movimiento proporcionados por la unidad de estimación de movimiento 812 y genera un flujo de bits de salida. La unidad de generación de flujo de bits escalable de espacio de color 832 introduce la información de posición de los datos de luminancia entre los datos de textura proporcionados por la unidad de cuantificación 820 en el flujo de bits proporcionado por la unidad de codificación de entropía 822 en una forma adecuada. La forma del flujo de bits creada por la unidad de generación de flujo de bits escalable de espacio de color 832 es como se describió con anterioridad con referencia a las Figuras 4 y 5. En otra modalidad de ejemplo de la presente invención, la unidad de generación de flujo de bits escalable de espacio de color 832 primero podría introducir la información de posición de los datos de luminancia en la parte de encabezado de los datos de textura medidos por la unidad de cuantificación 820, no en la parte de encabezado del flujo total de bits, a fin de proporcionar los datos de textura a la unidad de codificación de entropía 822. En este caso, el lado de decodificador 900 puede extraer la información de posición de los datos de luminancia del encabezado de los datos de textura después de la decodificación del flujo de bits. En el caso en donde el codificador de video 800 soporte un codificador de video de circuito cerrado con el fin de reducir el error de arrastre que se presenta entre el lado del codificador y el lado del decodificador, este además podría incluir una unidad de cuantificación inversa 824 y una unidad de transformada espacial inversa 826. La unidad de desbloqueo 830 recibe los cuadros restaurados de video a partir de un adicionador 828 y efectúa el despejado para remover los artefactos provocados debido a los límites entre los bloques en el cuadro. El cuadro restaurado de video que es desbloqueado se proporciona a un codificador de capa de mejora 850 como el cuadro de referencia. El codificador de capa de mejora 850 podría incluir una unidad de transformada espacial 854, una unidad de cuantificación 856, una unidad de codificación de entropía 868, una unidad de cuantificación inversa 858, una unidad de transformada espacial inversa 860 y una unidad de desbloqueo. Una unidad de generación de flujo de bits escalable de espacio de color 870 introduce la información de posición de los datos de luminancia entre los datos de textura proporcionados por la unidad de cuantificación 856 en el flujo de bits proporcionado por la unidad de codificación de entropía 868 en una forma adecuada. La forma del flujo de bits que se crea a través de la unidad de generación de flujo de bits escalable de espacio de color 870 es como se describió con anterioridad con referencia a las Figuras 4 y 5. En otra modalidad de ejemplo de la presente invención, la unidad de generación de flujo de bits escalable de espacio de color 870 primero podría introducir la información de posición de los datos de luminancia en la parte de encabezado de los datos de textura medidos por la unidad de cuantificación 856, no en la parte de encabezado del flujo total de bits, a fin de proporcionar los datos de textura a la unidad de codificación de entropía 868. En este caso, el lado de decodificador 900 puede extraer la información de posición de los datos de luminancia del encabezado de los datos de textura después de la decodificación del flujo de bits. El substractor 852 genera un cuadro residual restando el cuadro de referencia proporcionado por la capa de base del presente cuadro de entrada. El cuadro residual es codificado a través de la unidad de transformada espacial 854 y la unidad de cuantificación 856, y es restaurado a través de la unidad de cuantificación inversa 858 y la unidad de transformada espacial inversa 860.
Un adicionador 862 genera un cuadro restaurado agregando el cuadro residual restaurado que es proporcionado por la unidad de transformada espacial inversa 860 al cuadro de referencia suministrado por la capa de base. El cuadro restaurado es proporcionado a una capa superior mejorada como el cuadro de referencia. Debido a que las operaciones de la unidad de transformada espacial 854, la unidad de cuantificación 856, la unidad de codificación de entropía 868, la unidad de cuantificación inversa 858 y la unidad de transformada espacial inversa 860 son las mismas que aquellas de la capa de base, la explicación de las mismas ha sido omitida. Aunque se ejemplificó que una pluralidad de elementos constituyentes tienen los mismos nombres con diferentes números de identificación que existen en la Figura 8, será aparente para aquellas personas expertas en la técnica que un elemento constituyente puede operar tanto en la capa de base como en la capa de mejora. La Figura 9 es un diagrama de bloque que ilustra la construcción de un decodificador escalable de video de espacio de color en una estructura de capa FGS de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 9, el decodificador de video 900 podría incluir un decodificador de capa de base 910 y un decodificador de capa de mejora 950.
El decodificador de capa de mejora 950 podría incluir una unidad de procesamiento previo de flujo de bits 953, una unidad de decodificación de entropía 955, una unidad de cuantificación inversa 960 y una unidad de transformada espacial inversa 965. La unidad de procesamiento previo de flujo de bits 953 adquiere la información sobre el espacio soportable de color del dispositivo de visualización, después, trunca el flujo recibido de bits de acuerdo con la información de espacio de color y finalmente, proporciona el flujo truncado de bits a la unidad de decodificación de entropía 955. La información sobre el espacio de color soportado por el dispositivo de visualización podría ser la información sobre la imagen visualizada de color/escala de gris, la capacidad de profundidad de color, y otras. La unidad de decodificación de entropía 955 extrae los datos de textura efectuando la decodificación sin pérdida que es la inversa de la codificación de entropía. La información de textura es proporcionada a la unidad de cuantificación inversa 960. La unidad de cuantificación inversa 960 efectúa la cuantificación inversa en base a los datos de textura transmitidos desde la unidad de codificación de entropía 955.
El proceso de cuantificación inversa es con el objeto de buscar los coeficientes cuantificados que coinciden con los valores expresados a través de los índices específicos y que son transferidos desde el lado de decodificador 800. La unidad de transformada espacial inversa 965 efectúa, de manera inversa, la transformada espacial y restaura_los_ coeficientes creados como los resultados de la cuantificación inversa en la imagen residual en un dominio espacial . Un adicionador 970 restaura los cuadros de video agregando la imagen residual restaurada a través de la unidad de transformada espacial inversa en el cuadro de referencia proporcionado por la unidad de desbloqueo 940 del decodificador de capa de base. El decodificador de capa de base 910 podría incluir una unidad de procesamiento previo de flujo de bits 913, una unidad de decodificación de entropía 915, una unidad de cuantificación inversa 920, una unidad de transformada espacial inversa 925, una unidad de compensación de movimiento 930 y una unidad de desbloqueo 940. La unidad de procesamiento previo de flujo de bits 913 adquiere la información en base a un espacio soportable de color del dispositivo de visualización, después, trunca el flujo recibido de bits de acuerdo con la información de espacio de color y finalmente, proporciona el flujo truncado de bits a la unidad de decodificación de entropía 915. La información en base al espacio de color soportado por el dispositivo de visualización podría ser la información sobre la imagen visualizada de color/escala de gris, la capacidad de profundidad de color, y otras. La unidad de decodificación de entropía 915 extrae los datos de textura y los datos de movimiento efectuando la decodificación sin pérdida que es lo contrario a la codificación de entropía. La información de textura es proporcionada a la unidad de cuantificación inversa 920. La unidad de compensación de movimiento 930 realiza la compensación de movimiento del cuadro restaurado de video utilizando los datos de movimiento proporcionados por la unidad de decodificación de entropía 915 y genera un cuadro compensado de movimiento. Este proceso de compensación de movimiento solamente es aplicado en el caso en donde el presente cuadro haya sido codificado a través de un proceso de predicción temporal en el lado del codificador. Un adicionador 935 restaura el cuadro de video agregando la imagen residual a la imagen compensada de movimiento proporcionada por la unidad de compensación de movimiento 930 cuando la imagen residual restaurada por la unidad de transformada espacial inversa 925 sea generada a través de la predicción temporal. La unidad de desbloqueo 940, que corresponde con la unidad de desbloqueo 830 del codificador de capa de base que se ilustra en la Figura 8, genera el cuadro de capa de base desbloqueando el cuadro restaurado de video del adicionador 935, y proporciona el cuadro de capa de base al adicionador 970 del decodificador de capa de mejora 950 como el cuadro de referencia. .Debido que las operaciones de la unidad de cuantificación inversa 920 y la unidad de transformada espacial inversa 925 son las mismas que aquellas que existen en la capa de mejora, la explicación repetida de las mismas será omitida. Aunque se ejemplificó que una pluralidad de elementos constituyentes tienen los mismos nombres con diferentes números de identificación de los que existen en la Figura 9, será aparente para aquellas personas expertas en la técnica que un elemento constituyente que tiene un nombre específico puede funcionar, tanto en la capa de base como la capa de mejora. Los elementos constituyentes respectivos que se ilustraron en las Figuras 6-9 son el software o hardware tal como la serie de compuerta programable de campo (FPGA) y un circuito integrado específico por aplicación (ASIC) . No obstante, los elementos constituyentes no son limitados al software o hardware . Los elementos constituyentes podrían ser construidos de manera que residan en un medio de almacenamiento de dirección o que se ejecuten uno o más procesadores . Las funciones proporcionadas en los elementos constituyentes podrían ser implementadas a través de elementos constituyentes subdivididos, y los elementos constituyentes y funciones proporcionadas en los elementos constituyentes podrían ser combinados juntos para efectuar una fµnción específica. Además, los elementos constituyentes podrían ser implementados para ejecutarse en una o más computadoras en un sistema. La Figura 10 es un diagrama de flujo que ilustra un proceso de codificación de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 10, la unidad de transformada temporal 610 y la unidad de transformada espacial 620 del codificador de video 600 de acuerdo con una modalidad de ejemplo de la presente invención, eliminan la redundancia temporal y la redundancia espacial de los cuadros de video de entrada S1010. En este caso, la redundancia espacial podría ser removida una vez que la redundancia temporal sea eliminada, o la redundancia temporal podría ser removida una vez que sea eliminada la redundancia espacial. La unidad de cuantificación 630 mide los coeficientes de transformada generados como los resultados de la eliminación de la redundancia temporal y la redundancia espacial S1020. La unidad de codificación de entropía 640 genera un flujo de bits mediante la codificación de los coeficientes cuantificados de transformada S1030. La unidad de generación de flujo de bits escalable de espacio de color crea un flujo de bits escalable de espacio de color agregando la información de posición de los datos de luminancia al flujo de bits codificado por entropía S1040 . La_Figura_.ll_ es un -.diagrama de flujo que ilustra un proceso de decodif icación escal ble de video del componente de color de acuerdo con una modalidad de ejemplo de la presente invención. Con referencia a la Figura 11, la unidad de procesamiento previo de flujo de bits 710 del decodif icador de video 700 de acuerdo con una modalidad de ejemplo de la presente invención, extrae la información de posición de los datos de luminancia del flujo recibido de bits S1110. La unidad de procesamiento previo de flujo de bits 710 trunca los datos de crominancia del fluj o de bits de acuerdo con la información de posición de los datos de luminancia S1120 . La unidad de decodificación de entropía 720 descifra el flujo previamente procesado de bits S1130 , y la unidad de cuantificación inversa 730 efectúa la cuantificación inversa en base al flujo decodificado de bits S1140 . A continuación, la unidad de transformada espacial inversa 740 restaura el cuadro de video efectuando la transformada espacial inversa en base al fluj o de bits inversamente cuantif icado S1150. La Figura 12 es un diagrama de fluj o que ilustra un proceso de decodificación escalable de video de profundidad de color de acuerdo con una modalidad de ej emplo de la presente invención.
Con referencia a la Figura 12, la unidad de procesamiento previo de flujo de bits 710 del decodificador de video 700 de acuerdo con una modalidad de ejemplo de la presente invención adquiere la información en base a la capacidad de ..profundidad de . color del__ dispositivo de visualización S1210, y genera un segundo flujo de bits mediante el truncado de los bits que exceden la capacidad de profundidad de color de un flujo de bits de entrada de acuerdo con la información adquirida en base a la capacidad de profundidad de color S1220. La unidad de decodificación de entropía 720 descifra el segundo flujo de bits S1230, y la unidad de cuantificación inversa 730 efectúa la cuantificación inversa en base al flujo decodificado de bits S1240. A continuación, el video es restaurado cuando la unidad de transformada espacial inversa 740 restaura una señal residual efectuando una transformada espacial inversa en base a los coeficientes de transformada y la unidad de compensación de movimiento realiza una compensación de movimiento de los cuadros previstos de acuerdo con los datos de movimiento proporcionados por la unidad de decodificación de entropía. Como se describió con anterioridad, el método de codificación y decodificación escalable de video de- espacio de color de acuerdo con la presente invención produce al menos uno de los siguientes efectos.
En primer lugar, el codificador puede informar a un decodificador de la posición de los datos de luminancia en un flujo de bits, y de esta manera, el decodificador puede transformar una imagen de color en una imagen en escala de gris, según sea necesario. En segundo lugar, la escalabilidad de profundidad de color puede ser conseguida en un modo simple a través del decodificador que adquiere información en base a la capacidad de profundidad de color de un dispositivo de visualización, removiendo los bits que exceden la capacidad de profundidad de color soportada por el dispositivo de visualización, y decodificando el flujo de bits. Las modalidades de ejemplo de la presente invención han sido descritas con propósitos ilustrativos, y aquellas personas expertas en la técnica apreciarán que son posibles distintas modificaciones, adiciones y sustituciones sin apartarse del alcance y espíritu de la invención como se describe en las reivindicaciones adjuntas. Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (1)

  1. REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones : 1. Un método de codificación escalable de video de espacio de color, caracterizado porque comprende: (a) generar coeficientes de transformada a través de la remoción de la redundancia temporal y la redundancia espacial de los cuadros de video de entrada; (b) cuantificar los coeficientes de transformada; (c) generar un flujo de bits mediante la codificación de entropía de los coeficientes cuantificados de t ansformada, y (d) generar un flujo de bits escalable de espacio de color que incluye el flujo de bits y la información de la posición de los datos de luminancia en el flujo de bits. 2. El método de conformidad con la reivindicación 1, caracterizado porque la información de posición de los datos de luminancia comprende la longitud de la información de textura en el flujo de bits, y la longitud de los datos de luminancia en la información de textura. 3. El método de conformidad con la reivindicación 1, caracterizado porque la información de posición de los datos de luminancia comprende la longitud de la información de textura en el flujo de bits que corresponde con una capa y la longitud de los datos de luminancia en la información de textura. 4. El método de conformidad con la reivindicación 1, __5_ caracterizado porque la información de posición de los datos de luminancia comprende un número de capas de escalabilidad SNR de granulo fino (FGS) , la longitud de la información de textura en el flujo de bits de cada respectiva capa FGS y la longitud de los datos de luminancia en la información de 10 textura. 5. El método de conformidad con la reivindicación 1, caracterizado porque el flujo de bits codificado por entropía comprende los datos de movimiento y los datos de textura -de un respectivo cuadro de video de entrada; y los datos de 15 textura incluyen los datos de luminancia y los datos de crominancia del cuadro de video de entrada. 6. El método de conformidad con la reivindicación 1, caracterizado porque la cuantificación de los coeficientes de transformada comprende la utilización de parámetros de 20 cuantificación que se vuelven más pequeños a medida que aumenta el nivel de la capa. 7. Un método de decodificación escalable de video de espacio de color, caracterizado porque comprende: (a) extraer la información de posición de los datos 25 de luminancia de un primer flujo de bits; (b) generar un segundo flujo de bits que incluye los datos de movimiento y los datos de luminancia mediante el truncado de los datos de crominancia a partir del primer flujo de bits de acuerdo con la información de posición de _ 5 los datos de luminancia; y {c) restaurar los cuadros de video mediante la decodificación del segundo flujo de bits. 8. El método de conformidad con la reivindicación 7, caracterizado porque la información de posición de los datos 10 de luminancia comprende la longitud de la información de textura en el primer flujo de bits, y la longitud de los datos de luminancia en la información de textura. 9. El método de conformidad con la reivindicación 7, caracterizado porque la información de posición de los datos 15 de luminancia comprende la longitud de la información de textura en el primer flujo de bits que corresponde con una capa y la longitud de los datos de luminancia en la información de textura. 10. El método de conformidad con la reivindicación 20 7, caracterizado porque la información de posición de los datos de luminancia comprende un número de capas de escalabilidad SNR de granulo fino (FGS) , la longitud de la información de textura en el flujo de bits de cada respectiva capa FGS y la longitud de los datos de luminancia en la 25 información de textura. 11. El método de conformidad con la reivindicación 7, caracterizado porque el flujo de bits comprende un cuerpo compuesto de datos de movimiento, datos de luminancia y datos de crominancia; y un encabezado que incluye la información de posición de los datos de luminancia. 12. Un método de codificación escalable de video de espacio de color, caracterizado porque comprende las etapas de: (a) generar coeficientes de transformada mediante la remoción de la redundancia temporal y la redundancia espacial de los cuadros de video de entrada ; (b) cuantificar los coeficientes de transformada; y (c) generar un flujo de bits mediante la codificación de entropía de los coeficientes cuantificados de transformada, en donde el número de bits de la profundidad de color del flujo de bits es incrementado en proporción con el nivel de una capa. 13. El método de conformidad con la reivindicación 12, caracterizado porque la cuantificación de los coeficientes de transformada comprende la utilización de parámetros de cuantificación que se vuelven más pequeños a medida que aumenta el nivel de la capa de crominancia. 14. Un método de decodificación escalable de video de espacio de color, caracterizado porque comprende : (a) adquirir información sobre la capacidad de profundidad de color de un dispositivo de visualización; (b) generar un segundo flujo de bits mediante el truncado de bits a partir de un primer flujo de bits de entrada que excede la capacidad de profundidad de color de acuerdo con la información sobre la capacidad de profundidad de color; y (c) restaurar los cuadros de video mediante la decodificación del segundo flujo de bits. 15. El método de conformidad con la reivindicación 14, caracterizado porque un número de bits de la profundidad de color aumenta a medida que el nivel de la capa de crominancia se incrementa en el primer flujo de bits de entrada. l€ . El método de conformidad con la reivindicación 14, caracterizado porque el primer flujo de bits de entrada es un flujo de bits cuantificado utilizando los parámetros de cuantificación que se vuelven más pequeños a medida que aumenta el nivel de la capa de crominancia. 17. Un codificador escalable de video de espacio de color, caracterizado porque comprende: una unidad de transformada temporal que remueve la redundancia temporal de los cuadros de video de entrada; una unidad de transformada espacial que remueve la redundancia espacial de los cuadros de video de entrada; una unidad de cuantificación que mide los coeficientes de transformada generados por la unidad de transformada temporal y la unidad de transformada espacial ; una unidad de codificación de entropía que realiza la codificación de entropía de los coeficientes cuantificados de transformada; y una unidad de generación de flujo de bits escalable de espacio de color que crea un flujo de bits escalable de espacio de color que incluye un flujo de bits generado por la unidad de codificación de entropía y la información de posición de los datos de luminancia en el flujo de bits. 18. El codificador de conformidad con la reivindicación 17, caracterizado porque la información de posición de los datos de luminancia comprende la longitud de la información de textura en el flujo de bits, y la longitud de los datos de luminancia en la información de textura. 19. El codificador de conformidad con la reivindicación 17, caracterizado porque la información de posición de los datos de luminancia comprende la longitud de la información de textura en el flujo de bits que corresponde con una capa y la longitud de los datos de luminancia en la información de textura. 20. El codificador de conformidad con la reivindicación 17, caracterizado porque la información de posición de los datos de luminancia comprende un número de capas de escalabilidad SNR de granulo fino (FGS) , la longitud de la información de textura en el flujo de bits de cada respectiva capa FGS y la longitud de los datos de luminancia en la información de textura. 21. El codificador de conformidad con la reivindicación 17, caracterizado porque un número de bits de una profundidad de color aumenta conforme el nivel de la capa de crominancia se incrementa en el flujo de bits escalable de espacio de color. 22. Un decodificador escalable de video de espacio de color, caracterizado porque comprende: una unidad de procesamiento previo de flujo de bits que extrae la información de posición de los datos de luminancia de un primer flujo de bits, y genera un segundo flujo de bits que incluye datos de movimiento y datos de luminancia a través del truncado de los datos de crominancia del primer flujo de bits de acuerdo con la información de posición de los datos de luminancia; una unidad de decodificación de entropía que descifra el segundo flujo de bits; una unidad de cuantificación inversa que genera coeficientes de transformada efectuando una cuantificación inversa del segundo flujo decodificado de bits; una unidad de transformada espacial inversa que restaura una señal residual realizando una transformada espacial inversa en base a los coeficientes de transformada; y una unidad de compensación de movimiento que realiza la compensación de movimiento en los cuadros previstos de acuerdo con los datos de movimiento proporcionados por la unidad de decodificación de entropía . 23. El decodificador de conformidad con la reivindicación 22, caracterizado porque la información de posición de los datos de luminancia comprende la longitud de la información de textura en el primer flujo de bits, y la longitud de los datos de luminancia en la información de textura. _5 2.4.. El decodif i cador..._.de conformidad con la reivindicación 22, caracterizado porque la información de posición de los datos de luminancia comprende la longitud de la información de textura en el primer flujo de bits que corresponde con una capa 10 y la longitud de los datos de luminancia en la información de textura. 25. El decodificador de conformidad con la reivindicación 22, caracterizado porque la información de posición de los datos de luminancia 15 comprende un número de capas de escalabilidad SNR de granulo fino (FGS) , la longitud de la información de textura en el flujo de bits de cada respectiva capa FGS y la longitud de los datos de luminancia en la información de textura. 20 26. Un decodificador escalable de video de espacio de color, caracterizado porque comprende: una unidad de procesamiento previo de flujo de bits que adquiere la información en base a la capacidad de profundidad de color de un dispositivo de visualización y 25 genera un segundo flujo de bits mediante el truncado de bits de un primer flujo de bits de entrada que excede la capacidad de profundidad de color de acuerdo con la información en base a la capacidad de profundidad de color; una unidad de decodificación de entropía que descifra el segundo flujo de bits; una unidad de cuantificación inversa que genera coeficientes de transformada efectuando una cuantificación inversa en base al segundo flujo decodificado de bits; una unidad de transformada espacial inversa que restaura una señal residual realizando una transformada espacial inversa en base a los coeficientes de transformada; y una unidad de compensación de movimiento que realiza la compensación de movimiento en base a los cuadros previstos de acuerdo con los datos de movimiento proporcionados por la unidad de decodificación de entropía. 27. El decodificador de conformidad con la reivindicación 26, caracterizado porque un número de bits de una profundidad de color aumenta conforme el nivel de la capa se incrementa en el primer flujo de bits de entrada. 28. El decodificador de conformidad con la reivindicación 26, caracterizado porque el primer flujo de bits de entrada es un flujo de bits cuantificado utilizando los parámetros de cuantificación que se vuelven más pequeños a medida que .aumenta._el nivel de la capa. 29. Un método de transferencia de datos de una rebanada que contiene una pluralidad de macrobloques, caracterizado porque comprende: (a) insertar los datos de luminancia de todos los macrobloques contenidos en la rebanada en un flujo de bits; (b) insertar los datos de crominancia de todos los macrobloques contenidos en la rebanada en el flujo de bits; (c) transferir el flujo de bits que incluye los datos de luminancia y los datos de crominancia. 30. El método de conformidad con la reivindicación 29, caracterizado porque la rebanada es incluida en una capa de escalabilidad SNR de granulo fino (FGS) . 31. El método de conformidad con la reivindicación 29, caracterizado además porque comprende insertar la información de posición de los datos de luminancia y los datos de crominancia en el flujo de bits. 32 . un mét odo de generaci ón de una secuenci a de video que incluye una plural idad de rebanadas que cont i enen una plural idad de macrobloques con datos de luminanci a y datos de crominancia de los macrobl oque s , caract eri zado porque comprende : (a) insertar los datos de luminancia de todos los macrobloques incluidos en la rebanada en la secuencia de video; y (b) insertar los datos de crominancia de todos los macrobloques incluidos en la rebanada en la secuencia de video . 33. El método de conformidad con la reivindicación 32, caracterizado porque la secuencia de video es una capa de escalabilidad SNR de granulo fino (FGS) . 34. El método de conformidad con la reivindicación 32, caracterizado porque la secuencia de video comprende la información de posición de los datos de luminancia y la información de posición de los datos de crominancia. 35. Un método de procesamiento de una secuencia de video que es transferida por separado con los datos de luminancia o los datos de crominancia de la pluralidad de macrobloques incluidos en una rebanada, caracterizado porque comprende : (a) interpretar los datos de luminancia de la pluralidad de macrobloques incluidos en la rebanada; y (b) interpretar los datos de crominancia de la pluralidad de macrobloques incluidos en la rebanada. 36. El método de conformidad con la reivindicación 35, caracterizado porque la secuencia de video es una capa de escalabilidad SNR de granulo fino (FGS) . 37. El método de conformidad con la reivindicación 35, caracterizado porque la pluralidad de macrobloques no contiene información del vector de movimiento. 38. El método de conformidad con la reivindicación 35, caracterizado además porque comprende interpretar la información de posición de los datos de luminancia y la información de posición de los datos de crominancia en la rebanada . 39. Un método de decodificación de una secuencia de video que incluye una capa de base y una capa de mejora de escalabilidad SNR de granulo fino (FGS) , caracterizado porque comprende : (a) interpretar los datos de la capa de base; (b) interpretar los datos de luminancia de todos los macrobloques incluidos en la capa de mejora FGS, (c) interpretar los datos de crominancia de todos los macrobloques, (d) combinar los datos de luminancia y los datos de crominancia de la capa de mejora FGS con los datos de la capa de base, y (e) decodificar los datos combinados. 40. El método de conformidad con la reivindicación 39, caracterizado además porque comprende interpretar la información de posición de los datos de luminancia y los datos de crominancia de todos los macrobloques . 41. El método de conformidad con la reivindicación 39, caracterizado porque todos los macrobloques de la capa de mejora FGS no contienen información del vector de movimiento. 42. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la reivindicación 1. 43. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la reivindicación 7. 44. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la reivindicación 12. 45. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la reivindicación 14. 46. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la reivindicación 29. 47. El medio de grabación registrado con un programa 5._ susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la reivindicación 32. 48. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque 0 es para la ejecución del método de conformidad con la reivindicación 35. 49. El medio de grabación registrado con un programa susceptible de ser leído por computadora caracterizado porque es para la ejecución del método de conformidad con la 5 reivindicación 39.
MXPA06002154A 2005-03-04 2006-02-24 Metodo de codificacion y decodificacion escalable de video de espacio de color y aparato para el mismo. MXPA06002154A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US65816605P 2005-03-04 2005-03-04
KR1020050036289A KR100763178B1 (ko) 2005-03-04 2005-04-29 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치

Publications (1)

Publication Number Publication Date
MXPA06002154A true MXPA06002154A (es) 2006-09-22

Family

ID=36569998

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA06002154A MXPA06002154A (es) 2005-03-04 2006-02-24 Metodo de codificacion y decodificacion escalable de video de espacio de color y aparato para el mismo.

Country Status (13)

Country Link
US (2) US8411753B2 (es)
EP (1) EP1699243A2 (es)
JP (1) JP2006246473A (es)
KR (2) KR100763178B1 (es)
CN (1) CN1829326A (es)
AR (1) AR052680A1 (es)
AU (1) AU2006200634B2 (es)
BR (1) BRPI0600635A (es)
CA (1) CA2537379A1 (es)
MX (1) MXPA06002154A (es)
RU (1) RU2316909C2 (es)
TW (1) TW200635354A (es)
WO (1) WO2006093383A1 (es)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801383B2 (en) 2004-05-15 2010-09-21 Microsoft Corporation Embedded scalar quantizers with arbitrary dead-zone ratios
US8422546B2 (en) * 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
US20070053442A1 (en) * 2005-08-25 2007-03-08 Nokia Corporation Separation markers in fine granularity scalable video coding
CN101356825B (zh) * 2006-01-13 2013-06-12 弗劳恩霍夫应用研究促进协会 使用自适应色彩空间变换的画面编码
JP4876122B2 (ja) * 2006-03-22 2012-02-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 精度スケーラビリティを可能にする符号化スキーム
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US8059721B2 (en) 2006-04-07 2011-11-15 Microsoft Corporation Estimating sample-domain distortion in the transform domain with rounding compensation
US7974340B2 (en) 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
JP2007300158A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 単色フレーム検出方法
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
EP1871113A1 (en) * 2006-06-20 2007-12-26 THOMSON Licensing Method and apparatus for encoding video enhancement layer with multiresolution color scalability
KR101267178B1 (ko) * 2006-09-30 2013-05-24 톰슨 라이센싱 비디오에 대하여 색 인핸스먼트 계층을 인코딩 및 디코딩하기 위한 방법 및 디바이스
EP3484154A1 (en) * 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
WO2008065605A2 (en) * 2006-11-30 2008-06-05 Koninklijke Philips Electronics N.V. In-plane switching electrophoretic colour display
EP1933564A1 (en) * 2006-12-14 2008-06-18 Thomson Licensing Method and apparatus for encoding and/or decoding video data using adaptive prediction order for spatial and bit depth prediction
US20100241178A1 (en) * 2008-06-02 2010-09-23 Loma Vista Medical, Inc. Inflatable medical devices
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
WO2008127072A1 (en) * 2007-04-16 2008-10-23 Electronics And Telecommunications Research Institute Color video scalability encoding and decoding method and device thereof
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
TW200845723A (en) * 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
US8331438B2 (en) 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
CN101796841B (zh) * 2007-06-27 2012-07-18 汤姆逊许可公司 用增强层残差预测对视频数据编码/解码的方法和设备
US8139875B2 (en) * 2007-06-28 2012-03-20 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
GB2452765A (en) * 2007-09-14 2009-03-18 Dooworks Fz Co Combining multiple image streams by reducing the colour depth of each bit stream combining them onto a single stream
KR101365441B1 (ko) * 2007-10-11 2014-02-19 삼성전자주식회사 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법
US8208560B2 (en) * 2007-10-15 2012-06-26 Intel Corporation Bit depth enhancement for scalable video coding
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
US8391353B2 (en) * 2007-10-16 2013-03-05 Thomson Licensing Methods and apparatus for artifact removal for bit depth scalability
KR101365597B1 (ko) 2007-10-24 2014-02-20 삼성전자주식회사 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법
KR101426272B1 (ko) * 2008-03-10 2014-08-07 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
PL2835976T3 (pl) 2008-04-16 2017-04-28 Ge Video Compression, Llc Skalowalność głębi bitowej
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
EP2146343A1 (en) * 2008-07-16 2010-01-20 Deutsche Thomson OHG Method and apparatus for synchronizing highly compressed enhancement layer data
KR101107318B1 (ko) 2008-12-01 2012-01-20 한국전자통신연구원 스케일러블 비디오 인코딩, 디코딩 방법 및 스케일러블 비디오 인코더, 디코더
KR101146138B1 (ko) * 2008-12-10 2012-05-16 한국전자통신연구원 시간적 스케일러블 비디오 인코더
JP2011029998A (ja) * 2009-07-27 2011-02-10 Sony Corp 画像記録装置、画像記録方法、及びプログラム
US9013501B2 (en) * 2009-11-02 2015-04-21 Landmark Screens, Llc Transmission channel for image data
US8963797B2 (en) * 2010-01-06 2015-02-24 Apple Inc. Display driving architectures
US8908774B2 (en) * 2010-02-11 2014-12-09 Mediatek Inc. Method and video receiving system for adaptively decoding embedded video bitstream
US8411970B2 (en) * 2010-03-16 2013-04-02 Pixia Corp. Method and system for determining statistical data for image pixels having a higher bit depth per band
KR101503269B1 (ko) 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
US8923394B2 (en) * 2010-07-21 2014-12-30 Telefonaktiebolaget L M Ericsson (Publ) Management of slices
US8571307B2 (en) 2010-11-16 2013-10-29 Hand Held Products, Inc. Method and system operative to process monochrome image data
US8600158B2 (en) 2010-11-16 2013-12-03 Hand Held Products, Inc. Method and system operative to process color image data
CN102572420B (zh) * 2010-12-22 2014-04-02 北京大学 基于可伸缩视频编码的动态丢包控制方法、系统及装置
TWI538474B (zh) 2011-03-15 2016-06-11 杜比實驗室特許公司 影像資料轉換的方法與設備
RS63194B1 (sr) 2011-05-27 2022-06-30 Dolby Laboratories Licensing Corp Skalabilni sistemi za kontrolu upravljanja bojama koji sadrže različite nivoe metapodataka
MX350245B (es) 2011-07-12 2017-08-31 Nec Corp Método de codificación de parámetro de cuantificación de imágenes y método de descodificación de parametro de cuantificación de imágenes.
US8781238B2 (en) 2011-09-08 2014-07-15 Dolby Laboratories Licensing Corporation Efficient decoding and post-processing of high dynamic range images
CN102333223A (zh) * 2011-10-25 2012-01-25 北京华兴宏视技术发展有限公司 视频数据编码方法、解码方法、编码系统和解码系统
US8934726B2 (en) 2011-12-19 2015-01-13 Dolby Laboratories Licensing Corporation Video codecs with integrated gamut management
US9024961B2 (en) 2011-12-19 2015-05-05 Dolby Laboratories Licensing Corporation Color grading apparatus and methods
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US8963944B2 (en) * 2012-05-15 2015-02-24 Omnivision Technologies, Inc. Method, apparatus and system to provide video data for buffering
US9332269B2 (en) * 2012-06-27 2016-05-03 Broadcom Corporation Slice overhead coding
KR20200038564A (ko) 2012-07-09 2020-04-13 브이아이디 스케일, 인크. 멀티 레이어 비디오 코딩용 코덱 아키텍처
US9445109B2 (en) * 2012-10-16 2016-09-13 Microsoft Technology Licensing, Llc Color adaptation in video coding
US9743091B2 (en) * 2012-12-17 2017-08-22 Lg Electronics Inc. Method for encoding/decoding image, and device using same
US9414058B2 (en) * 2012-12-25 2016-08-09 Mediatek Inc. Video processing apparatus capable of generating output video pictures/sequence with color depth different from color depth of encoded video bitstream
EP2750393A1 (en) 2012-12-26 2014-07-02 Thomson Licensing Method of coding a first and a second version of an image into a base layer and an enhancement layer based on a color gamut mapping model
US9924200B2 (en) * 2013-01-24 2018-03-20 Microsoft Technology Licensing, Llc Adaptive noise reduction engine for streaming video
CN105264888B (zh) 2014-03-04 2018-09-14 微软技术许可有限责任公司 用于对色彩空间、色彩采样率和/或比特深度自适应切换的编码策略
JP6340083B2 (ja) * 2014-03-04 2018-06-06 マイクロソフト テクノロジー ライセンシング,エルエルシー 色空間、色サンプリングレート、及び/又は色深度の適応切り替え
MX356497B (es) * 2014-03-14 2018-05-31 Vid Scale Inc Sistemas y metodos para una mejora de codificacion de video rgb.
RU2648276C1 (ru) 2014-03-27 2018-03-23 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Корректировка квантования/масштабирования и обратного квантования/масштабирования при переключении цветовых пространств
US9936199B2 (en) * 2014-09-26 2018-04-03 Dolby Laboratories Licensing Corporation Encoding and decoding perceptually-quantized video content
WO2016049894A1 (en) * 2014-09-30 2016-04-07 Mediatek Inc. Scaling in color transform
CA2961681C (en) * 2014-09-30 2022-08-09 Hfi Innovation Inc. Method of adaptive motion vetor resolution for video coding
SG11201702743WA (en) 2014-10-03 2017-06-29 Nec Corp Video coding device, video decoding device, video coding method, video decoding method and program
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
KR102601732B1 (ko) * 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
GB2564466B (en) * 2017-07-13 2020-01-08 Advanced Risc Mach Ltd Storing YUV texture data in a cache in a graphics processing system
US10726519B2 (en) 2017-09-25 2020-07-28 Arm Limited Cache arrangement for graphics processing systems
AU2020260657A1 (en) * 2019-04-26 2021-11-11 Huawei Technologies Co., Ltd. Method and apparatus for signaling of mapping function of chroma quantization parameter
US11625332B2 (en) 2020-01-14 2023-04-11 Arm Limited Cache miss handling for read operations in data processing systems
US11789867B2 (en) 2020-01-14 2023-10-17 Arm Limited Cache arrangement for data processing systems
US11205243B2 (en) 2020-01-14 2021-12-21 Arm Limited Data processing systems
CN113497943A (zh) * 2021-08-09 2021-10-12 杭州小影创新科技股份有限公司 一种深度信息的量化和编码方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2674059B2 (ja) * 1988-02-09 1997-11-05 キヤノン株式会社 カラー画像データ伝送方法
US5251015A (en) * 1991-05-06 1993-10-05 Thomson Consumer Electronics, Inc. Apparatus for positioning a timing signal relative to a synchronization signal derived in the deflection section of a television system
KR940007550B1 (ko) * 1991-12-24 1994-08-19 삼성전자 주식회사 종합정보 통신망에서 칼라 동영상신호의 입력회로 및 방법
US5300949A (en) 1992-10-22 1994-04-05 International Business Machines Corporation Scalable digital video decompressor
JP3381855B2 (ja) 1992-12-28 2003-03-04 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
KR0181052B1 (ko) * 1995-03-31 1999-05-01 배순훈 고화질 영상 시스템의 영역 분할 장치
US5742892A (en) 1995-04-18 1998-04-21 Sun Microsystems, Inc. Decoder for a software-implemented end-to-end scalable video delivery system
US5778100A (en) * 1996-03-08 1998-07-07 Lucent Technologies Inc. Method and apparatus for reducing the bit rate in a video object planes sequence coder
US5920322A (en) * 1996-05-22 1999-07-06 Digital Equipment Corporation Method and apparatus for providing 32-bit YUV to RGB color conversion
US6614846B1 (en) * 1996-12-06 2003-09-02 Matsushita Electric Industrial Co., Ltd. Method and apparatus for transmitting, encoding and decoding video signal and recording/reproducing method of optical disc
JP4627812B2 (ja) 1996-12-18 2011-02-09 トムソン コンシユーマ エレクトロニクス インコーポレイテツド 固定長ブロックの効率的な圧縮および圧縮解除
KR100231925B1 (ko) 1997-03-27 1999-12-01 윤종용 전역 기반 색도 상관성을 이용한 영상 부호화 방법
US5852630A (en) * 1997-07-17 1998-12-22 Globespan Semiconductor, Inc. Method and apparatus for a RADSL transceiver warm start activation procedure with precoding
US6650783B2 (en) * 1998-01-14 2003-11-18 Canon Kabushiki Kaisha Image processing apparatus and method for processing images with different scalabilites
DE19803589A1 (de) 1998-01-30 1999-08-12 Voith Hydro Gmbh & Co Kg Verfahren zum Herstellen eines Bauteiles einer Strömungsmaschine
US6462744B1 (en) * 1998-02-13 2002-10-08 Matsushita Electric Industrial Co., Ltd. Image decoding apparatus that performs image decoding so that frame areas that occupy a large area in a storage apparatus can be used for other purposes, and a recording medium recording an image decoding program
US6459814B1 (en) * 1998-09-08 2002-10-01 Sarnoff Corporation Method and apparatus for generic scalable shape coding by deriving shape information for chrominance components from luminance component
EP1091590A4 (en) * 1999-03-23 2005-12-07 Sanyo Electric Co video encoder
US6470378B1 (en) * 1999-03-31 2002-10-22 Intel Corporation Dynamic content customization in a clientserver environment
GB2352350B (en) * 1999-07-19 2003-11-05 Nokia Mobile Phones Ltd Video coding
US6441867B1 (en) * 1999-10-22 2002-08-27 Sharp Laboratories Of America, Incorporated Bit-depth extension of digital displays using noise
JP2001275115A (ja) * 2000-03-23 2001-10-05 Nec Corp 電子すかしデータ挿入装置および検出装置
US6493387B1 (en) * 2000-04-10 2002-12-10 Samsung Electronics Co., Ltd. Moving picture coding/decoding method and apparatus having spatially scalable architecture and signal-to-noise ratio scalable architecture together
US6614442B1 (en) * 2000-06-26 2003-09-02 S3 Graphics Co., Ltd. Macroblock tiling format for motion compensation
KR100389958B1 (ko) * 2000-07-05 2003-07-02 대한유화공업 주식회사 각목 대체용 합성수지 조성물
US6816194B2 (en) * 2000-07-11 2004-11-09 Microsoft Corporation Systems and methods with error resilience in enhancement layer bitstream of scalable video coding
KR100375222B1 (ko) * 2000-07-19 2003-03-08 엘지전자 주식회사 스케일러블 칼라 히스토그램 엔코딩 방법
FR2813742A1 (fr) * 2000-09-05 2002-03-08 Koninkl Philips Electronics Nv Methode de conversion de flux binaires
US20020037046A1 (en) * 2000-09-22 2002-03-28 Philips Electronics North America Corporation Totally embedded FGS video coding with motion compensation
KR100734348B1 (ko) * 2000-11-03 2007-07-03 엘지전자 주식회사 디지털 티브이의 다운 변환 처리 장치
US20020097418A1 (en) * 2001-01-19 2002-07-25 Chang William Ho Raster image processor and processing method for universal data output
FR2831688B1 (fr) * 2001-10-30 2004-07-30 Canon Kk Procede et dispositif de traitement d'une requete d'obtention de donnees multimedia
US6909753B2 (en) * 2001-12-05 2005-06-21 Koninklijke Philips Electronics, N.V. Combined MPEG-4 FGS and modulation algorithm for wireless video transmission
US20050105613A1 (en) 2002-02-28 2005-05-19 Gwenaelle Marquant Method and device for coding and decoding a digital color video sequence
US7136417B2 (en) * 2002-07-15 2006-11-14 Scientific-Atlanta, Inc. Chroma conversion optimization
KR100477654B1 (ko) * 2002-07-16 2005-03-22 삼성전자주식회사 재생 영상 선택 장치 및 그 방법
EP1659803A4 (en) * 2003-08-19 2008-10-29 Matsushita Electric Ind Co Ltd METHOD FOR ENCODING AND DECODING A MOVING IMAGE
US7689051B2 (en) * 2004-04-15 2010-03-30 Microsoft Corporation Predictive lossless coding of images and video
KR100679018B1 (ko) * 2004-09-07 2007-02-05 삼성전자주식회사 다계층 비디오 코딩 및 디코딩 방법, 비디오 인코더 및디코더

Also Published As

Publication number Publication date
KR100763178B1 (ko) 2007-10-04
WO2006093383A1 (en) 2006-09-08
AU2006200634A1 (en) 2006-09-21
CN1829326A (zh) 2006-09-06
CA2537379A1 (en) 2006-09-04
BRPI0600635A (pt) 2007-03-13
KR20060096230A (ko) 2006-09-11
RU2316909C2 (ru) 2008-02-10
KR20070075364A (ko) 2007-07-18
JP2006246473A (ja) 2006-09-14
TW200635354A (en) 2006-10-01
AU2006200634B2 (en) 2007-07-19
EP1699243A2 (en) 2006-09-06
US20060197777A1 (en) 2006-09-07
AR052680A1 (es) 2007-03-28
KR100818928B1 (ko) 2008-04-04
US8411753B2 (en) 2013-04-02
US20070065005A1 (en) 2007-03-22

Similar Documents

Publication Publication Date Title
MXPA06002154A (es) Metodo de codificacion y decodificacion escalable de video de espacio de color y aparato para el mismo.
KR100746011B1 (ko) 잔차 예측의 성능 개선 방법, 상기 방법을 이용한 비디오인코더 및 비디오 디코더
KR100763181B1 (ko) 기초계층과 향상계층의 데이터를 바탕으로 예측 정보를코딩하여 코딩율을 향상시키는 방법 및 장치
KR100703774B1 (ko) 인트라 코딩을 선택적으로 적용하여 인트라 bl 예측모드의 비디오 신호를 인코딩 및 디코딩하는 방법 및 장치
EP2068567A2 (en) Method, medium, and apparatus encoding/decoding image hierarchically
US20110255608A1 (en) Method and apparatus for encoding/decoding color image
JP2008541653A (ja) スムージング予測を用いた多階層基盤のビデオエンコーディング方法、デコーディング方法、ビデオエンコーダ及びビデオデコーダ
US10277905B2 (en) Transform selection for non-baseband signal coding
US10009622B1 (en) Video coding with degradation of residuals
WO2014026097A1 (en) Two-step quantization and coding method and apparatus
JP2022536512A (ja) 符号化器及び一連のフレームを符号化する方法
CN110692245A (zh) 用于压缩的图像处理
US9781447B1 (en) Correlation based inter-plane prediction encoding and decoding
WO2006109985A1 (en) Method and apparatus for encoding and decoding video signals in intra-base-layer prediction mode by selectively applying intra-coding
Afsana et al. Efficient scalable uhd/360-video coding by exploiting common information with cuboid-based partitioning
WO2006132509A1 (en) Multilayer-based video encoding method, decoding method, video encoder, and video decoder using smoothing prediction
KR20070029776A (ko) 색 공간 스케일러블 비디오 코딩 방법 및 이를 위한 장치
WO2020210528A1 (en) Block size determination for video coding systems and methods
WO2021107964A1 (en) Vector quantization for prediction residual coding
PL A Study on Image Compression Technology
Talooh et al. Comparative study of discrete cosine transforms and set partitioning in hierarchical trees
EP2887667A1 (en) Coding of high dynamic range images
WO2023111384A1 (en) A method, an apparatus and a computer program product for video encoding and video decoding
Dhara Image and video compression using block truncation coding and pattern fitting for fast decoding
Sharma et al. IMAGE COMPRESSION USING ARRAY STRUCTURE

Legal Events

Date Code Title Description
FA Abandonment or withdrawal