ES2625902T3 - Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas - Google Patents
Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas Download PDFInfo
- Publication number
- ES2625902T3 ES2625902T3 ES07716252.7T ES07716252T ES2625902T3 ES 2625902 T3 ES2625902 T3 ES 2625902T3 ES 07716252 T ES07716252 T ES 07716252T ES 2625902 T3 ES2625902 T3 ES 2625902T3
- Authority
- ES
- Spain
- Prior art keywords
- color
- image
- compensation
- block
- lighting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 39
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 32
- 230000008901 benefit Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 21
- 239000012634 fragment Substances 0.000 description 19
- 238000005286 illumination Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 8
- 238000011002 quantification Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/507—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Color Television Systems (AREA)
Abstract
Un aparato, que comprende: un codificador de vídeo (100) o descodificador de vídeo para codificar o descodificar, respectivamente, una imagen habilitando de manera selectiva una compensación de color bloque a bloque de dos componentes de color en una predicción de la imagen, que presenta también una componente de luminancia, usando un desajuste de datos de color entre las dos componentes de color de la imagen y las componentes correspondientes de otra imagen, presentando la imagen y la otra imagen diferentes puntos de visualización y correspondiendo ambas a contenido de múltiples vistas de una misma escena u otra similar, donde las dos componentes de color presentan diferentes desajustes de datos de color y la componente de luminancia presenta un desajuste de luminancia, donde el desajuste de los datos de color se codifica de manera diferencial a partir de bloques espacialmente cercanos, y donde hay un indicador de habilitación de compensación de iluminación y un indicador de habilitación de compensación de color, y el indicador de habilitación de compensación de color se señaliza de manera independiente al indicador de habilitación de compensación de iluminación.
Description
Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas
Campo de la invención
La presente invención se refiere, en general, a la codificación y descodificación de vídeo y, más en particular, a procedimientos y aparatos para la compensación de iluminación y la compensación de color en la codificación de vídeo de múltiples vistas (MVC). La compensación de color puede aplicarse a al menos una componente de color.
Antecedentes de la invención
Una secuencia de codificación de vídeo de múltiples vistas (MVC) es un conjunto de dos o más secuencias de vídeo que capturan la misma escena desde diferentes puntos de visualización. Se ha reconocido de manera generalizada que la codificación de vídeo de múltiples vistas es una tecnología clave que permite una gran variedad de aplicaciones, incluyendo aplicaciones de puntos de visualización libres y de vídeo en 3D, ocio doméstico, vigilancia, etc. En estas aplicaciones de múltiples vistas se necesita normalmente una cantidad muy elevada de datos de vídeo.
En un escenario práctico, los sistemas de codificación de vídeo de múltiples vistas que utilizan un gran número de cámaras se instalan usando cámaras heterogéneas o cámaras que no se han calibrado de manera precisa. Esto da lugar a diferencias de iluminación y crominancia cuando las mismas partes de una escena se visualizan con cámaras diferentes. Además, la distancia y el posicionamiento de las cámaras también afectan a la iluminación, en el sentido de que la misma superficie puede reflejar luz de diferente manera cuando se percibe desde diferentes ángulos. En estos escenarios, las diferencias de luminancia y crominancia reducirán la eficacia de la predicción de vistas cruzadas.
Varias estrategias de la técnica anterior se han desarrollado para resolver el problema de la discrepancia de iluminación entre pares de imágenes. En una primera estrategia de la técnica anterior, según valores de entropía cruzados, se determina si aplicar un modelo de variación de brillo local. Si la entropía cruzada es superior a un umbral, se aplica una compensación de variación de brillo global y local usando un multiplicador (escala) y un campo de desajuste. Sin embargo, solo se seleccionan parámetros locales tras obtener el mejor bloque coincidente, lo que puede ser desventajoso cuando las discrepancias de iluminación son significativas. Asimismo, una segunda estrategia de la técnica anterior propone una estrategia de estimación de movimiento modificada, pero se usa un modelo de compensación de iluminación global. Además, la segunda estrategia de la técnica anterior propone un procedimiento de control que se activa/desactiva bloque a bloque; sin embargo, tal procedimiento está basado en MSE. En una tercera estrategia de la técnica anterior se afronta un problema de desajuste de iluminación en secuencias de vídeo. En la tercera estrategia de la técnica anterior se propone un parámetro de escala/desajuste para un macrobloque de 16x16 y la codificación predictiva del parámetro. La tercera estrategia de la técnica anterior también propone un conmutador de habilitación basado en el coste de distorsión de velocidad. Sin embargo, la tercera estrategia de la técnica anterior se centra principalmente en secuencias de vídeo temporales. En las secuencias de vídeo, el problema de la discrepancia de iluminación no se produce de manera uniforme como en la predicción de vistas cruzadas.
El documento de JOAQUIN LOPEZ, JAE HOON KIM, ANTONIO ORTEGA, GEORGE CHEN: "Block-Based Illumination Compensation and Search Techniques for Multiview Video Coding" PICTURE CODING SYMPOSIUM 2004, del 15 de diciembre de 2004 (15/12/2004) al 17 de diciembre de 2004 (17/12/2004) XP002437841 Universidad de California Davis, da a conocer una compensación de iluminación usando desajustes calculados para bloques durante la correspondencia de bloques. El documento XP002437841 da a conocer la predicción de valores de desajuste a partir de los bloques espacialmente cercanos, y señala que el esquema puede activarse/desactivarse bloque a bloque a expensas de más información de control necesaria para indicar si se usa IC en cada bloque. El documento US 2001/045979 A1 (MATSUMOTO YUKINORI [JP] ET AL) 29 de noviembre de 2001 (29/11/2001) da a conocer la generación de vídeo en 3D a partir de secuencias capturadas por múltiples cámaras y la corrección de diferentes componentes de color calculando tres constantes de deflexión de color individuales ([alfa]B, [alfa]R, [alfa]G para las componentes azul, rojo y verde) que se sustraen como un ajuste de las componentes de color individuales. El documento "Survey of Algorithms used for Multi-view Video Coding (MVC)", 71. MPEG MEETING;del 17/01/2005 al 21/01/2005; HONG KONG; (GRUPO DE EXPERTOS EN IMÁGENES EN MOVIMIENTO O ISO/IEC JTC1/SC29/ WG11), n.º N6909, 21 de enero de 2005 (21/01/2005), XP030013629 da a conocer en el campo de la MVC una compensación de color basada en fotogramas y una compensación de iluminación orientada a bloques.
Resumen de la invención
Estos y otros inconvenientes y desventajas de la técnica anterior son abordados por la presente invención, la cual se refiere a procedimientos y aparatos para la compensación de iluminación y la compensación de color en la codificación de vídeo de múltiples vistas (MVC) según las reivindicaciones.
Estos y otros aspectos, características y ventajas de la presente invención resultarán evidentes a partir de la siguiente descripción detallada de formas de realización a modo de ejemplo, la cual debe leerse en relación con los dibujos adjuntos.
Breve descripción de los dibujos
La presente invención puede entenderse mejor según las siguientes figuras a modo de ejemplo, en las que:
la FIG. 1 es un diagrama de bloques de un codificador de codificación de vídeo de múltiples vistas (MVC) a modo de ejemplo en el que pueden aplicarse los presentes principios según una forma de realización de los mismos;
la FIG. 2 es un diagrama de bloques de un descodificador de codificación de vídeo de múltiples vistas (MVC) a modo de ejemplo en el que pueden aplicarse los presentes principios según una forma de realización de los mismos;
la FIG. 3 es un diagrama de flujo de un procedimiento de codificación de vídeo a modo de ejemplo con compensación de iluminación para contenido de vídeo de múltiples vistas según una forma de realización de los presentes principios;
la FIG. 4 es un diagrama de flujo de un procedimiento de descodificación de vídeo a modo de ejemplo con compensación de iluminación para contenido de vídeo de múltiples vistas según una forma de realización de los presentes principios; y
la FIG. 5 es un diagrama de bloques de un aparato a modo de ejemplo para la generación de bloques de referencia con compensación de iluminación para contenido de vídeo de múltiples vistas en el que pueden aplicarse los presentes principios según una forma de realización de los mismos.
Descripción detallada
La presente invención se refiere a procedimientos y aparatos para la compensación de iluminación y la compensación de color en la codificación de vídeo de múltiples vistas (MVC). La compensación de color puede aplicarse a al menos una componente de color.
De manera ventajosa, las formas de realización de la presente invención proporcionan una compresión de codificación mejorada de datos de múltiples vistas de difusión simultánea. Como se usa en el presente documento, una secuencia de múltiples vistas es un conjunto de dos o más secuencias de vídeo que capturan la misma escena desde diferentes puntos de visualización. Debe apreciarse que las enseñanzas de la compensación de iluminación y la compensación de color dadas a conocer en el presente documento pueden usarse conjuntamente o por separado en varias formas de realización de los presentes principios, manteniendo al mismo tiempo el alcance de los presentes principios.
La presente descripción ilustra los principios de la presente invención. Debe apreciarse que los expertos en la técnica pueden concebir diversas disposiciones que, aunque no se describan o muestren de manera explícita en el presente documento, representan los principios de la invención y están incluidas dentro de su espíritu y alcance.
Todos los ejemplos y lenguaje condicional incluidos en el presente documento tienen fines pedagógicos para ayudar al lector a entender los principios de la invención y los conceptos aportados por el inventor para mejorar la técnica, y debe considerarse que no se limitan a tales ejemplos y condiciones expuestos de manera específica.
Además, todas las afirmaciones del presente documento que enumeran principios, aspectos y formas de realización de la invención, así como ejemplos específicos de los mismos, abarcan equivalencias estructurales y funcionales de los mismos. Además, tales equivalencias incluyen equivalencias actualmente conocidas así como equivalencias desarrolladas en el futuro, es decir, cualquier elemento desarrollado que lleve a cabo la misma función, independientemente de la estructura.
Por tanto, por ejemplo, los expertos en la técnica apreciarán que los diagramas de bloques presentados en el presente documento representan vistas conceptuales de sistemas de circuitos ilustrativos que representan los principios de la invención. Asimismo, debe apreciarse que cualquier organigrama, diagrama de flujo, diagrama de transición de estados, seudocódigo, etc., representan varios procesos que pueden representarse sustancialmente en medios legibles por ordenador y ejecutarse por tanto mediante un ordenador o procesador, independientemente de que tal ordenador o procesador se muestre explícitamente o no.
Las funciones de los diversos elementos mostrados en las figuras pueden proporcionarse mediante el uso de hardware dedicado así como hardware capaz de ejecutar software junto con software apropiado. Cuando se
proporcionan por un procesador, las funciones pueden proporcionarse por un único procesador dedicado, por un único procesador compartido o por una pluralidad de procesadores individuales, algunos de los cuales pueden estar compartidos. Además, no debe considerarse que el uso explícito del término "procesador" o "controlador" se refiere exclusivamente a hardware capaz de ejecutar software, sino que puede incluir implícitamente, sin limitación, hardware de procesador de señales digitales (DSP), memoria de solo lectura (ROM) para almacenar software, memoria de acceso aleatorio (RAM) y almacenamiento no volátil.
Otro hardware, convencional y/o personalizado, también puede incluirse. Asimismo, cualquier conmutador mostrado en las figuras es solamente conceptual. Su función puede llevarse a cabo mediante operaciones de lógica de programa, mediante lógica dedicada, mediante la interacción de control de programa y lógica dedicada, o incluso manualmente, donde la técnica particular más apropiada según el contexto puede ser seleccionada por el implementador.
En las reivindicaciones de la invención, cualquier elemento expresado como un medio para llevar a cabo una función especificada pretende abarcar cualquier manera de llevar a cabo esa función, incluyendo, por ejemplo, a) una combinación de elementos de circuito que lleva a cabo esa función, o b) software de cualquier tipo, incluido, por tanto, firmware, microcódigo, etc., en combinación con un sistema de circuitos apropiado para ejecutar ese software para llevar a cabo la función. La invención definida por tales reivindicaciones se basa en el hecho de que las funcionalidades proporcionadas por los diversos medios enumerados se combinan y se utilizan conjuntamente de la manera indicada en las reivindicaciones. Por tanto, se considera que cualquier medio que pueda proporcionar estas funcionalidades es equivalente a los mostrados en el presente documento.
La referencia en la memoria descriptiva a "una forma de realización" de los presentes principios significa que una propiedad, estructura, característica, etc. particulares descritas en relación con la forma de realización está incluida en al menos una forma de realización de los presentes principios. Por tanto, no todas las veces que aparece la expresión "en una forma de realización" en diversos puntos de la memoria descriptiva se hace referencia necesariamente a la misma forma de realización.
Haciendo referencia a la FIG. 1, un codificador de codificación de vídeo de múltiples vistas (MVC) a modo de ejemplo en el que pueden aplicarse los presentes principios se indica de manera genérica con el número de referencia 100. El codificador 100 incluye un combinador 105 que presenta una salida conectada en comunicación de señales a una entrada de un transformador 110. Una salida del transformador 110 está conectada en comunicación de señales a una entrada de un cuantificador 115. Una salida del cuantificador 115 está conectada en comunicación de señales a una entrada de un codificador de entropía 120 y a una entrada de un cuantificador inverso 125. Una salida del cuantificador inverso 125 está conectada en comunicación de señales a una entrada de un transformador inverso 130. Una salida del transformador inverso 130 está conectada en comunicación de señales a una primera entrada de no inversión de un combinador 135. Una salida del combinador 135 está conectada en comunicación de señales a una entrada de un intrapredictor 145 y a una entrada de un filtro de desbloqueo 150. Una salida del filtro de desbloqueo 150 está conectada en comunicación de señales a una entrada de un almacenamiento de imágenes de referencia 155 (para la vista i). Una salida del almacenamiento de imágenes de referencia 155 está conectada en comunicación de señales a una primera entrada de un compensador de movimiento 175 y a una primera entrada de un estimador de movimiento 180. Una salida del estimador de movimiento 180 está conectada en comunicación de señales a una segunda entrada del compensador de movimiento 175.
Una salida de un almacenamiento de imágenes de referencia 160 (para otras vistas) está conectada en comunicación de señales a una primera entrada de un estimador de disparidad/iluminación 170 y a una primera entrada de un compensador de disparidad/iluminación 165. Una salida del estimador de disparidad/iluminación 170 está conectada en comunicación de señales a una segunda entrada del compensador de disparidad/iluminación
165.
Una salida del descodificador de entropía 120 está disponible como una salida del codificador 100. Una entrada de no inversión del combinador 105 está disponible como una entrada del codificador 100 y está conectada en comunicación de señales a una segunda entrada del estimador de disparidad/iluminación 170 y a una segunda entrada del estimador de movimiento 180. Una salida de un conmutador 185 está conectada en comunicación de señales a una segunda entrada de no inversión del combinador 135 y a una entrada de inversión del combinador
105. El conmutador 185 incluye una primera entrada conectada en comunicación de señales a una salida del compensador de movimiento 175, una segunda entrada conectada en comunicación de señales a una salida del compensador de disparidad/iluminación 165 y una tercera entrada conectada en comunicación de señales a una salida del intrapredictor 145.
Un módulo de decisión de modo 140 tiene una salida conectada al conmutador 185 para controlar qué entrada es seleccionada por el conmutador 185.
Haciendo referencia a la FIG. 2, un descodificador de codificación de vídeo de múltiples vistas (MVC) a modo de ejemplo en el que pueden aplicarse los presentes principios se indica de manera genérica con el número de
referencia 200. El descodificador 200 incluye un descodificador de entropía 205 que presenta una salida conectada en comunicación de señales a una entrada de un cuantificador inverso 210. Una salida del cuantificador inverso está conectada en comunicación de señales a una entrada de un transformador inverso 215. Una salida del transformador inverso 215 está conectada en comunicación de señales a una primera entrada de no inversión de un combinador 220. Una salida del combinador 220 está conectada en comunicación de señales a una entrada de un filtro de desbloqueo 225 y a una entrada de un intrapredictor 230. Una salida del filtro de desbloqueo 225 está conectada en comunicación de señales a una entrada de un almacenamiento de imágenes de referencia 240 (para la vista i). Una salida del almacenamiento de imágenes de referencia 240 está conectada en comunicación de señales a una primera entrada de un compensador de movimiento 235.
Una salida de un almacenamiento de imágenes de referencia 245 (para otras vistas) está conectada en comunicación de señales a una primera entrada de un compensador de disparidad/iluminación 250.
Una entrada del codificador de entropía 205 está disponible como una entrada al descodificador 200 para recibir un flujo de bits residual. Además, una entrada de un módulo de modo 260 también está disponible como una entrada al descodificador 200 para recibir sintaxis de control para controlar qué entrada es seleccionada por el conmutador
255. Además, una segunda entrada del compensador de movimiento 235 está disponible como una entrada del descodificador 200 para recibir vectores de movimiento. Además, una segunda entrada del compensador de disparidad/iluminación 250 está disponible como una entrada al descodificador 200 para recibir vectores de disparidad y sintaxis de compensación de iluminación.
Una salida de un conmutador 255 está conectada en comunicación de señales a una segunda entrada de no inversión del combinador 220. Una primera entrada del conmutador 255 está conectada en comunicación de señales a una salida del compensador de disparidad/iluminación 250. Una segunda entrada del conmutador 255 está conectada en comunicación de señales a una salida del compensador de movimiento 235. Una tercera entrada del conmutador 255 está conectada en comunicación de señales a una salida del intrapredictor 230. Una salida del módulo de modo 260 está conectada en comunicación de señales al conmutador 255 para controlar qué entrada es seleccionada por el conmutador 255. Una salida del filtro de desbloqueo 225 está disponible como una salida del descodificador 200.
Las formas de realización de los presentes principios se refieren a la codificación eficiente de secuencias de vídeo de múltiples vistas. Una secuencia de vídeo de múltiples vistas es un conjunto de dos o más secuencias de vídeo que capturan la misma escena desde diferentes puntos de visualización. En particular, varias formas de realización según los presentes principios se refieren a la compensación de iluminación y/o la compensación de color para codificar y descodificar secuencias de vídeo de múltiples vistas.
Los presentes principios tienen en cuenta que puesto que una fuente de vídeo de múltiples vistas incluye múltiples vistas de la misma escena, existe un alto grado de correlación entre las imágenes de las múltiples vistas. Por lo tanto, puede utilizarse la redundancia de las vistas además de la redundancia temporal, y se consigue llevando a cabo una predicción de las vistas a través de las diferentes vistas (predicción de vistas cruzadas).
Con fines ilustrativos, la descripción proporcionada en el presente documento se refiere a una extensión de la codificación de vídeo de múltiples vistas de la recomendación H.264 de la Unión Internacional de Telecomunicaciones, Sector de Telecomunicaciones (ITU-T) / norma de codificación de vídeo avanzada (AVC), parte 10, del Grupo 4 de Expertos en Imágenes en Movimiento (MPEG4) de la Organización Internacional de Normalización/Comisión Electrotécnica Internacional (ISO/IEC), (denominada en lo sucesivo "norma MPEG-4 AVC"). Sin embargo, debe apreciarse que los presentes principios también pueden aplicarse a otras normas de codificación de vídeo, como determinarán fácilmente los expertos en ésta y otras técnicas relacionadas. Es decir, dadas las enseñanzas de los presentes principios proporcionados en el presente documento, un experto en ésta y otras técnicas relacionadas podrá implementar fácilmente los presentes principios con respecto a varias normas de codificación de vídeo, incluidas la norma MPEG-4 AVC y otras normas de codificación de vídeo, manteniendo al mismo tiempo el alcance de los presentes principios.
En el marco de la norma MPEG-4 AVC, la compensación de iluminación puede considerarse parte del proceso de compensación de disparidad, donde la predicción de vistas cruzadas (predicción de vistas a través de diferentes vistas de una secuencia de múltiples vistas) incluye un desajuste para abordar las diferencias de iluminación a través de diferentes vistas de cámara. Debido a la estrecha correlación entre bloques espacialmente cercanos, el desajuste puede codificarse de manera diferencial antes de cuantificarse y codificarse por entropía. La compensación de iluminación puede implementarse para que pueda conmutar bloque a bloque, ya que los diferentes bloques de señales tienen diferentes niveles de discrepancia de iluminación. Además de la compensación de iluminación, también se propone el diseño de la compensación de color para tratar las discrepancias de color entre diferentes vistas de cámara.
En una forma de realización ilustrativa de los presentes principios que implican compensación de iluminación y compensación de color, dirigida a la extensión de la codificación de vídeo de múltiples vistas (MVC) de la norma MPEG-4 AVC, un marco a modo de ejemplo se describe de la siguiente manera. A nivel de fragmento, un nuevo
elemento sintáctico (ic_prediction_flag) se introduce para indicar si la compensación de iluminación está habilitada para el fragmento actual. A nivel de macrobloque se introducen dos nuevos elementos sintácticos: uno (ic_enable) se introduce para indicar la utilización de la compensación de iluminación en cada bloque; otro (ic_sym) se introduce para transportar el parámetro de desajuste de iluminación.
Haciendo referencia a la FIG. 3, un procedimiento de codificación de vídeo a modo de ejemplo con compensación de iluminación para contenido de vídeo de múltiples vistas se indica de manera genérica mediante el número de referencia 300. El procedimiento 300 incluye un bloque de inicio 305 que pasa el control a un bloque de límite de bucle 310. El bloque de límite de bucle 310 inicia un bucle que recorre cada macrobloque de un fragmento actual, lo que incluye fijar un intervalo para el bucle usando una variable mb = 0 hasta MacroBlockInPic-1, y pasa el control a un bloque de decisión 315. El bloque de decisión 315 determina si la compensación de iluminación (IC) está habilitada o no en el fragmento actual. Si es así, el control pasa a un bloque funcional 320. Si no, el control pasa a un bloque funcional 350.
El bloque funcional 320 realiza la estimación de movimiento con compensación de iluminación y pasa el control a un bloque funcional 325. El bloque funcional 325 crea un predictor de IC ic_offset_p y pasa el control a un bloque funcional 330. El bloque funcional 330 realiza una codificación diferencial por compensación de iluminación de ic_offset, cuantifica ic_offset en ic_sym y pasa el control a un bloque funcional 335. El bloque funcional 335 toma una decisión referente al modo de compensación de iluminación, decide el ic_prediction_flag y pasa el control a un bloque funcional 340. El bloque funcional 340 lleva a cabo una escritura de sintaxis y pasa el control a un bloque de límite de bucle 345. El bloque de límite de bucle 345 finaliza el bucle que recorre cada macrobloque del fragmento actual y pasa el control a un bloque de finalización 355.
El bloque funcional 350 realiza la estimación de movimiento y proporciona una decisión de movimiento sin compensación de iluminación y pasa el control al bloque funcional 340.
Haciendo referencia a la FIG. 4, un procedimiento de descodificación de vídeo a modo de ejemplo con compensación de iluminación para contenido de vídeo de múltiples vistas se indica de manera genérica mediante el número de referencia 400. El procedimiento 400 incluye un bloque de inicio 405 que pasa el control a un bloque de límite de bucle 410. El bloque de límite de bucle 410 inicia un bucle que recorre cada macrobloque de un fragmento actual, lo que incluye fijar un intervalo para el bucle usando una variable mb = 0 hasta MacroBlocksInPic-1, y pasa el control a un bloque funcional 415. El bloque funcional 415 lee sintaxis y pasa el control a un bloque de decisión 420. El bloque de decisión 420 determina si la compensación de iluminación está habilitada o no en el fragmento actual. Si es así, entonces el control pasa a un bloque de decisión 425. Si no, el control pasa a un bloque funcional 450.
El bloque de decisión 425 determina si ic_prediction_flag es igual a 1 o no. Si es así, el control pasa a un bloque funcional 430. Si no, el control pasa al bloque funcional 450.
El bloque funcional 430 genera un predictor de IC ic_offset_p y pasa el control a un bloque funcional 435. El bloque funcional 435 cuantifica ic_sym de manera inversa, descodifica ic_offset de manera diferencial y pasa el control a un bloque funcional 440. El bloque funcional 440 lleva a cabo una compensación de movimiento con iluminación y pasa el control a un bloque de límite de bucle 445. El bloque de límite de bucle 445 finaliza el bucle que recorre cada macrobloque del fragmento actual y pasa el control a un bloque de finalización 455.
El bloque funcional 450 lleva a cabo una compensación de movimiento sin compensación de iluminación y pasa el control al bloque de límite de bucle 445.
A continuación se describirá el uso de la compensación de iluminación como parte del proceso de predicción de vistas cruzadas según una forma de realización a modo de ejemplo de los presentes principios.
La compensación de iluminación se realiza en el contexto de la predicción de vistas cruzadas para la codificación de vídeo de múltiples vistas. En este escenario, la predicción de vistas cruzadas implica normalmente el cálculo de un campo de disparidad entre imágenes de diferentes vistas. El campo de disparidad es en la predicción de vistas cruzadas lo que es el campo de movimiento en la predicción temporal. Cuando se aplica a un esquema de codificación, la predicción de vistas cruzadas es una herramienta eficaz para utilizar la redundancia de las vistas.
Por simplicidad, a continuación se supondrá que la predicción de vistas cruzadas y, por extensión, la estimación de disparidad se realizan bloque a bloque. Sin embargo, debe apreciarse que, dadas las enseñanzas de los presentes principios proporcionados en el presente documento, la extensión de tales enseñanzas a otros grupos de muestras puede determinarse e implementarse fácilmente por un experto en ésta y otras técnicas relacionadas, manteniéndose al mismo tiempo el alcance de los presentes principios.
Además, debe apreciarse que aunque algunas formas de realización de los presentes principios se describen en el presente documento aplicándose a una extensión de la codificación de vídeo de múltiples vistas de la norma MPEG-4 AVC, en la que la compensación de movimiento y la compensación de disparidad están habilitadas, dadas las enseñanzas de los presentes principios proporcionados en el presente documento, las implementaciones de los
presentes principios también pueden referirse a cualquier otro esquema de codificación de vídeo de múltiples vistas en el que esté habilitado la compensación de disparidad, como determinará e implementará fácilmente un experto en ésta y otras técnicas relacionadas, manteniéndose al mismo tiempo el alcance de los presentes principios.
Además, debe apreciarse que aunque algunas formas de realización de los presentes principios referentes a la compensación de iluminación se describen el presente documento con respecto a la codificación de vídeo de múltiples vistas, dadas las enseñanzas de los presentes principios proporcionados en el presente documento, los expertos en ésta y otras técnicas relacionadas contemplarán fácilmente otros escenarios relativos al vídeo en los que pueden aplicarse los presentes principios, manteniéndose al mismo tiempo el alcance de los presentes principios. Por ejemplo, los presentes principios pueden aplicarse en, pero no están limitados a, el registro de imágenes y la calibración de cámara.
A continuación se describirá la transmisión de elementos sintácticos de compensación de iluminación según una forma de realización a modo de ejemplo de los presentes principios.
En las formas de realización a modo de ejemplo de los presentes principios aplicados a una extensión de la codificación de vídeo de múltiples vistas de la norma MPEG-4 AVC, una nueva sintaxis se introduce en la cabecera de fragmento denominada ic_prediction_flag, que indica si se usa la compensación de iluminación (IC) para ese fragmento. Si la predicción de vistas cruzadas está inhabilitada para todo el fragmento, entonces ic_prediction_flag será igual a cero y no habrá más sintaxis en el fragmento relacionadas con la IC.
El grado de discrepancia de iluminación varía de una parte de la imagen de la vista a otra. Por tanto, puede no ser eficiente enviar parámetros de IC para todos los bloques usando compensación de disparidad. Con ese fin, un nuevo indicador sintáctico basado en bloque denominado ic_enable se introduce a nivel de macrobloque/submacrobloque para indicar si se utiliza la IC en un bloque específico.
La norma MPEG-4 AVC admite compensación de movimiento por tamaño de bloque variable, donde los tamaños de bloque varían de 16x16 a 4x4. Para reducir la información de control relacionada con el envío de muchos indicadores ic_enable e ic_sym, la conmutación de IC no tiene que aplicarse en todos los tamaños de bloque. En una forma de realización particular, la conmutación de IC solo se aplica en bloques con un tamaño superior, o igual, a 8x8.
El diseño del contexto de codificación aritmética binaria adaptable al contexto (CABAC) para la codificación de ic_enable se diseña de la siguiente manera: (1) en lo que respecta a los tamaños de bloque {16x16, 16x8 o 8x16}, se usan tres contextos CABAC dependiendo de los indicadores ic_enable de los macrobloques superior e izquierdo; y (2) en lo que respecta al tamaño de bloque 8x8, un contexto CABAC distinto se asigna sin hacer referencia a bloques vecinos.
Con fines ilustrativos, las tablas de sintaxis relacionadas con la IC se muestran de la Tabla 1 a la Tabla 3. La Tabla 1 ilustra la sintaxis de cabecera de fragmento para la codificación de vídeo de múltiples vistas (MVC). La Tabla 2 ilustra una sintaxis de capa de macrobloque. La Tabla 3 ilustra una sintaxis de predicción de submacrobloque.
Tabla 1
- slice_header( ) {
- C Descripción
- first_mb_in_slice
- 2 ue(v)
- view_id
- 2 u (log2_max_view_num_minus1+1)
- view_slice_type
- 2 ue(v)
- if (view_slice_type == VL_SLICE) {
- num_ref_idx_II_active_minus1
- 2 ue(v)
- for (i=0; i<= num_ref_idx_11_active_minus1; i++) {
- left_ref_view_id[i]
- 2 ue(v)
- }
- }
- if (view_slice_type == VR_SLICE) {
- num_ref_idx_lr_active_minus1
- 2 ue(v)
- for (i=0; i<=num_ref_idx_lr_active_minus1; i++) {
- right_ref_view_id[i]
- 2 ue(v)
Tabla 2
Tabla 3
A continuación se describirá la estimación de disparidad con compensación de iluminación según una forma de realización a modo de ejemplo de los presentes principios.
5 En el escenario particular de una aplicación de codificación, la compensación de iluminación (IC) se considerará parte del proceso de compensación de disparidad. Más específicamente, cuando la IC está habilitada en la compensación de disparidad de un bloque, el bloque de referencia de iluminación compensada, Br, se calcula de la siguiente manera:
donde R(x,y) es la imagen de referencia de vista cruzada y (Δx, Δy) es el vector de disparidad (DV). Como se muestra en la FIG. 5, DV/ic_offset/ic_enable se usan conjuntamente en el proceso de compensación de disparidad.
15 Haciendo referencia a la FIG. 5, un aparato a modo de ejemplo para la generación de bloques de referencia con compensación de iluminación para contenido de vídeo de múltiples vistas se indica de manera genérica mediante el número de referencia 500. El aparato 600 incluye un cuantificador de compensación de iluminación 505 que presenta una salida conectada en comunicación de señales a una primera entrada de no inversión de un combinador 515. Una salida del combinador 515 está conectada en comunicación de señales a una segunda
20 entrada de no inversión del combinador 515 y a una primera entrada de no inversión de un combinador 520.
Una salida de un almacenamiento de imágenes de referencia 510 (para otras vistas) está conectada en comunicación de señales a una segunda entrada de no inversión del combinador 520 y a una primera entrada de un conmutador 525.
25 Una segunda entrada de un conmutador 525 está conectada en comunicación de señales a una salida del combinador 520.
Una entrada del cuantificador de compensación de iluminación 505 está disponible como una entrada al aparato
30 500, para recibir la sintaxis ic_sym. Además, una entrada del almacenamiento de imágenes de referencia 510 está disponible como una entrada del aparato, para recibir vectores de disparidad. Además, el aparato 500 incluye una entrada para recibir una sintaxis ic_enable para controlar qué entrada es seleccionada por el conmutador 525. Una salida del conmutador 525 está disponible como una salida del aparato 500.
A nivel de bloque, el parámetro de compensación de iluminación, ic_offset, se obtiene a través de la codificación diferencial y la cuantificación uniforme.
A continuación se describirá la codificación diferencial de ic_offset según una forma de realización a modo de 5 ejemplo de los presentes principios.
Existe una estrecha correlación entre los ic_offset de bloques vecinos. Para aprovechar esta propiedad, el ic_offset se diferencia antes de la cuantificación de la siguiente manera:
donde ic_offset_d es el desajuste diferenciado de la compensación de iluminación, y el predictor de compensación de iluminación ic_offset_p se forma usando los ic_offset de los bloques vecinos.
15 El ic_offset_p se calcula según las siguientes reglas. En una primera regla, el valor por defecto de ic_offset_p es 0. El valor por defecto se usa cuando no hay ningún bloque vecino con la IC disponible. En una segunda regla, ic_offset_p se ajusta en función del tamaño de bloque del MB izquierdo, de la siguiente manera: (1) si el tamaño de bloque = 16x16, entonces se usa el ic_offset del bloque izquierdo; (2) si el tamaño de bloque = 16x8 u 8x16, entonces se usa el ic_offset del segundo bloque; y (3) si el tamaño de bloque = 8x8 o inferior, entonces se usa el
20 ic_offset disponible del índice de bloque 8x8 3, 1, 2, 0 (en este orden). Según una tercera regla, si no hay ningún macrobloque vecino a la izquierda, entonces se usa en cambio el ic_offset del bloque superior.
A continuación se describirá la cuantificación de ic_sym según una forma de realización a modo de ejemplo de los presentes principios.
25 La cuantificación uniforme se aplica al ic_offset diferenciado:
30 Si se usa un procedimiento de cuantificación con un valor de incremento fijo, no es necesaria ninguna sintaxis adicional para la señal µ. En caso de no usar una cuantificación con valor de incremento fijo, debe considerarse la transmisión de sintaxis.
A continuación se describirá la codificación de entropía de ic_sym según una forma de realización a modo de 35 ejemplo de los presentes principios.
Para ic_sym se usa la binarización unitaria en la CABAC. Por ejemplo, si [ic_sym] es 1, entonces se binariza como "10" y si ic_sym es 3, entonces se binariza como "1110". Puesto que ic_sym se codifica de manera diferencial, es más probable que se genere un valor de ic_sym cercano a 0. Para utilizar esta propiedad, cuatro contextos
40 diferentes se asignan a cada símbolo binarizado. Tras la binarización, un bit de símbolo puede añadirse al final, que se codifica sin contexto.
A continuación se describirá la compensación de color según una forma de realización a modo de ejemplo de los presentes principios.
45 Una mala calibración de cámara también puede producir discrepancias de color además de la discrepancia de iluminación. Algunas formas de realización de los presentes principios abordan este problema ampliando el enfoque de compensación de iluminación (IC) descrito anteriormente con respecto a la compensación de color (CC). Por simplicidad, se asume que se aplica compensación de color a las componentes de color UV del espacio de color
50 YUV. Sin embargo, debe apreciarse que, dadas las enseñanzas de los presentes principios proporcionados en el presente documento, un experto en ésta y otras técnicas relacionadas contemplará e implementará fácilmente los presentes principios con respecto a otros espacios de color, manteniéndose al mismo tiempo el alcance de los presentes principios.
55 A continuación se describirán dos procedimientos a modo de ejemplo con respecto a la compensación de color según los presentes principios. El primero es un procedimiento de compensación de color local y el segundo es un procedimiento de compensación de color global. Evidentemente, dadas las enseñanzas de los presentes principios proporcionados en el presente documento, un experto en ésta y otras técnicas relacionadas contemplará fácilmente variaciones y extensiones de los dos enfoques descritos en el presente documento manteniendo al mismo tiempo el
60 alcance de la presente invención.
En el procedimiento de compensación de color local, similar a la compensación de iluminación (IC), se introduce un parámetro de compensación de color local cc_offset. Estos dos cc_offset diferentes para los canales U y V comparten el mismo indicador ic_enable y el mismo vector de disparidad.
En cuanto al formato de muestreo de crominancia YUV420, la anchura y la altura del bloque de crominancia es la mitad del bloque de luminancia. Para no utilizar demasiados bits en las sintaxis de compensación de color, el tamaño de bloque para la compensación de color se fija a 8x8. El indicador cc_enable puede señalizarse de manera independiente a ic_enable o puede obtenerse de ic_enable.
Con respecto al procedimiento de compensación de color global, los canales de crominancia son, por lo general, más suaves que el canal de luminancia. Un procedimiento más económico para la compensación de color es usar un parámetro de compensación global: cc_offset_global. El parámetro cc_offset global puede calcularse a nivel de fragmento o fotograma y aplicarse a cada bloque del mismo fragmento o fotograma.
A continuación se describirán algunas de las muchas ventajas/características intrínsecas de la presente invención, algunas de las cuales se han mencionado anteriormente. Por ejemplo, una ventaja/característica es un codificador de vídeo que incluye un codificador para codificar una imagen habilitando la compensación de color de al menos una componente de color en una predicción de la imagen en función de un factor de correlación relativo a datos de color entre la imagen y otra imagen. La imagen y la otra imagen tienen diferentes puntos de visualización y ambas corresponden a contenido de múltiples vistas para una misma escena u otra similar.
Otra ventaja/característica es el codificador de vídeo descrito anteriormente, donde el codificador codifica la imagen para proporcionar un flujo de bits resultante compatible con al menos una de entre la recomendación H.264 de la Unión Internacional de Telecomunicaciones, Sector de Telecomunicación / norma de codificación de vídeo avanzada, parte 10, del Grupo 4 de Expertos en Imágenes en Movimiento de la Organización Internacional de Normalización/Comisión Electrotécnica Internacional, y una extensión de las mismas.
Otra ventaja/característica adicional es el codificador de vídeo descrito anteriormente, donde el codificador usa una sintaxis de alto nivel para habilitar la compensación de color.
Además, otra ventaja/característica es el codificador de vídeo que usa una sintaxis de alto nivel como la descrita anteriormente, donde la sintaxis de alto nivel incluye una sintaxis a nivel de fragmento.
Además, otra ventaja/característica es el codificador de vídeo descrito anteriormente, donde el codificador usa una sintaxis a nivel de bloque para indicar si se usa compensación de color en la predicción de la imagen.
Además, otra ventaja/característica es el codificador de vídeo que usa una sintaxis a nivel de bloque como la descrita anteriormente, donde el codificador usa contextos de codificación aritmética binaria adaptable al contexto para codificar la sintaxis a nivel de bloque, donde los contextos de codificación aritmética binaria adaptable al contexto se seleccionan en función del tamaño de bloque.
Además, otra ventaja/característica es el codificador de vídeo descrito anteriormente, donde el codificador usa una sintaxis a nivel de bloque para señalizar información de compensación de color.
Además, otra ventaja/característica es el codificador de vídeo que usa la sintaxis a nivel de bloque descrita anteriormente, donde el codificador usa contextos de codificación aritmética binaria adaptable al contexto para codificar la sintaxis a nivel de bloque, donde los contextos de codificación aritmética binaria adaptable al contexto se seleccionan en función del tamaño de bloque.
Además, otra ventaja/característica es el codificador de vídeo que usa la sintaxis a nivel de bloque descrita anteriormente, donde la información de compensación de color incluye un parámetro de desajuste de color.
Además, otra ventaja/característica es el codificador de vídeo descrito anteriormente, donde el codificador usa una sintaxis a nivel de fragmento para señalizar una cantidad de compensación de color aplicada en canales de crominancia de todo un fragmento correspondiente a la imagen.
Además, otra ventaja/característica es el codificador de vídeo descrito anteriormente, donde el codificador codifica la imagen habilitando además la compensación de iluminación en la predicción de la imagen en función de un factor de correlación relativo a datos de iluminación entre la imagen y la otra imagen.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación, como el descrito anteriormente, donde el codificador usa una sintaxis a nivel de fragmento para habilitar la compensación de iluminación.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación, como el descrito anteriormente, donde el codificador usa una sintaxis a nivel de bloque para indicar si se usa la compensación de iluminación en la predicción de la imagen.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación, como el descrito anteriormente, donde las diferentes sintaxis a nivel de bloque se
usan para indicar la compensación de iluminación y la compensación de color, respectivamente, y las diferentes sintaxis a nivel de bloque se señalizan de manera independiente.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación, como el descrito anteriormente, donde las diferentes sintaxis a nivel de bloque se usan para indicar la compensación de iluminación y la compensación de color, respectivamente, y una de las diferentes sintaxis a nivel de bloque se obtiene a partir de otra de las diferentes sintaxis a nivel de bloque.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación, como el descrito anteriormente, donde el codificador usa una sintaxis a nivel de bloque para señalizar la información de compensación de iluminación.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación y que usa una sintaxis a nivel de bloque como la descrita anteriormente, donde el codificador usa contextos de codificación aritmética binaria adaptable al contexto para codificar la sintaxis a nivel de bloque, donde los contextos de codificación aritmética binaria adaptable al contexto se seleccionan en función del tamaño de bloque.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación y que usa una sintaxis a nivel de bloque como la descrita anteriormente, donde la información de compensación de iluminación incluye un parámetro de desajuste de iluminación.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación, como el descrito anteriormente, donde el codificador usa codificación diferencial de al menos uno de los parámetros de compensación de iluminación y parámetros de compensación de color a nivel de bloque.
Además, otra ventaja/característica es el codificador de vídeo que codifica la imagen habilitando además la compensación de iluminación y que también usa una codificación diferencial, como el descrito anteriormente, donde el codificador aplica una cuantificación uniforme en al menos uno de los parámetros de compensación de iluminación codificados de manera diferencial y en los parámetros de compensación de color codificados de manera diferencial.
Estas y otras características y ventajas de la presente invención pueden entenderse fácilmente por un experto en la técnica pertinente en función de las enseñanzas del presente documento. Debe entenderse que las enseñanzas de la presente invención pueden implementarse en varias formas de hardware, software, firmware, procesadores de propósito especial o combinaciones de los mismos.
Más preferentemente, las enseñanzas de la presente invención se implementan como una combinación de hardware y software. Además, el software puede implementarse como un programa de aplicación guardado de manera tangible en una unidad de almacenamiento de programa. El programa de aplicación puede instalarse en, y ejecutarse por, una máquina que comprenda cualquier arquitectura adecuada. Preferentemente, la máquina se implementa en una plataforma informática que incluye hardware, tal como una o más unidades de procesamiento central (CPU), una memoria de acceso aleatorio (RAM) e interfaces de entrada/salida (E/S). La plataforma informática también puede incluir un sistema operativo y código de microinstrucciones. Los diversos procesos y funciones descritos en el presente documento pueden ser parte del código de microinstrucciones o parte del programa de aplicación, o cualquier combinación de los mismos, que puede ejecutarse por una CPU. Además, otras diversas unidades periféricas pueden conectarse a la plataforma informática, tales como una unidad de almacenamiento de datos adicional y una unidad de impresión.
Debe entenderse además que, puesto que algunos de los componentes de sistema constituyentes y procedimientos descritos en los dibujos adjuntos se implementan preferentemente en software, las conexiones reales entre los componentes de sistema o los bloques funcionales de proceso pueden diferir en función de la manera en que se programe la presente invención. Dadas las enseñanzas del presente documento, un experto en la técnica podrá contemplar estas y otras implementaciones o configuraciones similares de la presente invención.
Claims (3)
- REIVINDICACIONES
- 1.
- Un aparato, que comprende:
un codificador de vídeo (100) o descodificador de vídeo para codificar o descodificar, respectivamente, una imagen habilitando de manera selectiva una compensación de color bloque a bloque de dos componentes de color en una predicción de la imagen, que presenta también una componente de luminancia, usando un desajuste de datos de color entre las dos componentes de color de la imagen y las componentes correspondientes de otra imagen, presentando la imagen y la otra imagen diferentes puntos de visualización y correspondiendo ambas a contenido de múltiples vistas de una misma escena u otra similar, donde las dos componentes de color presentan diferentes desajustes de datos de color y la componente de luminancia presenta un desajuste de luminancia, donde el desajuste de los datos de color se codifica de manera diferencial a partir de bloques espacialmente cercanos, y donde hay un indicador de habilitación de compensación de iluminación y un indicador de habilitación de compensación de color, y el indicador de habilitación de compensación de color se señaliza de manera independiente al indicador de habilitación de compensación de iluminación. -
- 2.
- Un procedimiento, que comprende:
codificar o descodificar una imagen habilitando de manera selectiva una compensación de color bloque a bloque de dos componentes de color en una predicción de la imagen, que presenta también una componente de luminancia, usando un desajuste de datos de color entre las dos componentes de color de la imagen y las componentes correspondientes de otra imagen, presentando la imagen y la otra imagen diferentes puntos de visualización y correspondiendo ambas a contenido de múltiples vistas de una misma escena (300) u otra similar, donde las dos componentes de color presentan diferentes desajustes de datos de color y la componente de luminancia presenta un desajuste de luminancia, donde el desajuste de los datos de color se codifica de manera diferencial a partir de bloques espacialmente cercanos, donde hay un indicador de habilitación de compensación de iluminación y un indicador de habilitación de compensación de color, y donde el indicador de habilitación de compensación de color se señaliza de manera independiente al indicador de habilitación de compensación de iluminación. -
- 3.
- Un medio de almacenamiento que presenta datos de señales de vídeo codificados en el mismo, que comprende:
una imagen codificada habilitando de manera selectiva una compensación de color bloque a bloque de dos componentes de color en una predicción de la imagen, que presenta también una componente de luminancia, usando un desajuste de datos de color entre las dos componentes de color de la imagen y las componentes correspondientes de otra imagen, presentando la imagen y la otra imagen diferentes puntos de visualización y correspondiendo ambas a contenido de múltiples vistas de una misma escena u otra similar, donde las dos componentes de color presentan diferentes desajustes de datos de color y la componente de luminancia presenta un desajuste de luminancia, donde el desajuste de los datos de color se codifica de manera diferencial a partir de bloques espacialmente cercanos, donde hay un indicador de habilitación de compensación de iluminación y un indicador de habilitación de compensación de color, y el indicador de habilitación de compensación de color se señaliza de manera independiente al indicador de habilitación de compensación de iluminación.
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US75728906P | 2006-01-09 | 2006-01-09 | |
| US75737206P | 2006-01-09 | 2006-01-09 | |
| US757289P | 2006-01-09 | ||
| US757372P | 2006-01-09 | ||
| PCT/US2007/000091 WO2007081713A1 (en) | 2006-01-09 | 2007-01-04 | Method and apparatus for providing reduced resolution update mode for multi-view video coding |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2625902T3 true ES2625902T3 (es) | 2017-07-20 |
Family
ID=38121957
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES07716252.7T Active ES2625902T3 (es) | 2006-01-09 | 2007-01-04 | Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas |
Country Status (10)
| Country | Link |
|---|---|
| US (4) | US8902977B2 (es) |
| EP (3) | EP2424245B1 (es) |
| JP (6) | JP5224458B2 (es) |
| KR (1) | KR101357982B1 (es) |
| CN (2) | CN104270639B (es) |
| AU (1) | AU2007205227B2 (es) |
| BR (1) | BRPI0706352B1 (es) |
| ES (1) | ES2625902T3 (es) |
| RU (1) | RU2457632C2 (es) |
| WO (1) | WO2007081713A1 (es) |
Families Citing this family (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2424245B1 (en) * | 2006-01-09 | 2019-09-04 | Dolby International AB | Methods and apparatus for illumination and color compensation for multi-view video coding |
| US20100091845A1 (en) * | 2006-03-30 | 2010-04-15 | Byeong Moon Jeon | Method and apparatus for decoding/encoding a video signal |
| KR100934671B1 (ko) * | 2006-03-30 | 2009-12-31 | 엘지전자 주식회사 | 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치 |
| US20080050608A1 (en) * | 2006-08-25 | 2008-02-28 | Mcfaul Surry D | Metal coating process and product |
| WO2008023967A1 (en) * | 2006-08-25 | 2008-02-28 | Lg Electronics Inc | A method and apparatus for decoding/encoding a video signal |
| KR101370287B1 (ko) * | 2006-11-22 | 2014-03-07 | 세종대학교산학협력단 | 디블록킹 필터링 방법 및 장치 |
| WO2009045032A1 (en) * | 2007-10-05 | 2009-04-09 | Electronics And Telecommunications Research Institute | Encoding and decoding method for single-view video or multi-view video and apparatus thereof |
| EP2232877B1 (en) | 2008-01-10 | 2018-08-08 | Thomson Licensing DTV | Methods and apparatus for illumination compensation of intra-predicted video |
| US8311111B2 (en) * | 2008-09-11 | 2012-11-13 | Google Inc. | System and method for decoding using parallel processing |
| JP5267886B2 (ja) * | 2009-04-08 | 2013-08-21 | ソニー株式会社 | 再生装置、記録媒体、および情報処理方法 |
| WO2011080142A1 (en) * | 2009-12-21 | 2011-07-07 | Thomson Licensing | Method for generating an environment map |
| CN102726046B (zh) * | 2010-01-27 | 2015-09-09 | 杜比实验室特许公司 | 用于图像和视频编解码中的参考处理的方法和系统 |
| KR102417196B1 (ko) * | 2010-04-13 | 2022-07-05 | 지이 비디오 컴프레션, 엘엘씨 | 유효성 맵 및 변환 계수 블록의 코딩 |
| US8660174B2 (en) * | 2010-06-15 | 2014-02-25 | Mediatek Inc. | Apparatus and method of adaptive offset for video coding |
| US9055305B2 (en) | 2011-01-09 | 2015-06-09 | Mediatek Inc. | Apparatus and method of sample adaptive offset for video coding |
| US9161041B2 (en) * | 2011-01-09 | 2015-10-13 | Mediatek Inc. | Apparatus and method of efficient sample adaptive offset |
| US20120294353A1 (en) * | 2011-05-16 | 2012-11-22 | Mediatek Inc. | Apparatus and Method of Sample Adaptive Offset for Luma and Chroma Components |
| RU2627099C1 (ru) * | 2011-06-28 | 2017-08-03 | Нек Корпорейшн | Способ для кодирования параметра квантования видео и способ для декодирования параметра квантования видео |
| KR20140068013A (ko) * | 2011-08-25 | 2014-06-05 | 텔레포나크티에볼라게트 엘엠 에릭슨(피유비엘) | 심도맵의 인코딩 및 디코딩 |
| ES2728146T3 (es) | 2012-01-20 | 2019-10-22 | Sun Patent Trust | Procedimientos y aparato de codificación y decodificación de vídeo utilizando predicción temporal de vector de movimiento |
| RU2616555C2 (ru) | 2012-02-03 | 2017-04-17 | Сан Пэтент Траст | Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений, устройство декодирования изображений и устройство кодирования и декодирования изображений |
| WO2013132792A1 (ja) | 2012-03-06 | 2013-09-12 | パナソニック株式会社 | 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置 |
| JP6681609B2 (ja) | 2012-04-09 | 2020-04-15 | サン パテント トラスト | 画像符号化方法および画像復号化方法 |
| EP3796651A1 (en) | 2012-05-09 | 2021-03-24 | Sun Patent Trust | Method of performing motion vector prediction, encoding and decoding methods, and apparatuses thereof |
| RU2510944C2 (ru) * | 2012-07-03 | 2014-04-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ кодирования/декодирования многоракурсной видео последовательности на основе адаптивной локальной коррекции яркости опорных кадров без передачи дополнительных параметров (варианты) |
| JP2016519898A (ja) * | 2013-04-08 | 2016-07-07 | ジーイー ビデオ コンプレッション エルエルシー | コンポーネント間予測 |
| KR102105323B1 (ko) * | 2013-04-15 | 2020-04-28 | 인텔렉추얼디스커버리 주식회사 | 객체 기반 적응적 밝기 보상 방법 및 장치 |
| US9894359B2 (en) * | 2013-06-18 | 2018-02-13 | Sharp Kabushiki Kaisha | Illumination compensation device, LM prediction device, image decoding device, image coding device |
| US9860529B2 (en) * | 2013-07-16 | 2018-01-02 | Qualcomm Incorporated | Processing illumination compensation for video coding |
| WO2015009113A1 (ko) | 2013-07-18 | 2015-01-22 | 삼성전자 주식회사 | 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 깊이 영상의 화면내 예측 방법 |
| US9510002B2 (en) | 2013-09-09 | 2016-11-29 | Apple Inc. | Chroma quantization in video coding |
| WO2015056955A1 (ko) | 2013-10-14 | 2015-04-23 | 삼성전자 주식회사 | 다시점 비디오 부호화 방법 및 장치, 다시점 비디오 복호화 방법 및 장치 |
| JP2017523682A (ja) | 2014-06-20 | 2017-08-17 | サムスン エレクトロニクス カンパニー リミテッド | インターレイヤビデオ符号化/復号のためのデプス映像の予測モード伝送方法及びその装置 |
| JP2016127372A (ja) * | 2014-12-26 | 2016-07-11 | Kddi株式会社 | 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム |
| US20180091812A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Video compression system providing selection of deblocking filters parameters based on bit-depth of video data |
| US10715810B2 (en) * | 2018-02-20 | 2020-07-14 | Qualcomm Incorporated | Simplified local illumination compensation |
| US11750811B2 (en) * | 2018-04-06 | 2023-09-05 | Comcast Cable Communications, Llc | Systems, methods, and apparatuses for processing video |
| US10834409B2 (en) * | 2018-04-06 | 2020-11-10 | Arris Enterprises Llc | System and method of implementing multiple prediction models for local illumination compensation |
| US11272200B2 (en) * | 2019-06-24 | 2022-03-08 | Tencent America LLC | Method and apparatus for video coding |
| US12126841B2 (en) * | 2021-09-20 | 2024-10-22 | Tencent America LLC | Feature compression for video coding for machines |
Family Cites Families (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3150446B2 (ja) | 1992-09-29 | 2001-03-26 | 富士通株式会社 | 画像高能率符号化方式 |
| JPH0749944A (ja) * | 1993-08-04 | 1995-02-21 | Canon Inc | 画像処理方法およびその装置 |
| DE69434685T2 (de) | 1993-08-04 | 2006-09-14 | Canon K.K. | Bildverarbeitungsverfahren und -gerät |
| DE4331376C1 (de) * | 1993-09-15 | 1994-11-10 | Fraunhofer Ges Forschung | Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen |
| US6384859B1 (en) * | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
| JPH08331607A (ja) | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
| US6111596A (en) * | 1995-12-29 | 2000-08-29 | Lucent Technologies Inc. | Gain and offset correction for efficient stereoscopic coding and improved display |
| JPH10155104A (ja) * | 1996-11-22 | 1998-06-09 | Canon Inc | 複眼撮像方法及び装置並びに記憶媒体 |
| US6549650B1 (en) * | 1996-09-11 | 2003-04-15 | Canon Kabushiki Kaisha | Processing of image obtained by multi-eye camera |
| US6057884A (en) * | 1997-06-05 | 2000-05-02 | General Instrument Corporation | Temporal and spatial scaleable coding for video object planes |
| US6043838A (en) * | 1997-11-07 | 2000-03-28 | General Instrument Corporation | View offset estimation for stereoscopic video coding |
| US6055274A (en) * | 1997-12-30 | 2000-04-25 | Intel Corporation | Method and apparatus for compressing multi-view video |
| JPH11252585A (ja) * | 1998-03-05 | 1999-09-17 | Nippon Hoso Kyokai <Nhk> | 視差量推定装置 |
| US6470048B1 (en) * | 1999-07-12 | 2002-10-22 | Pixelon.Com, Inc. | Frequency-based video data substitution for increased video compression ratios |
| SG99889A1 (en) | 2000-02-25 | 2003-11-27 | Sony Corp | Recording medium, recording apparatus and reading apparatus |
| JP2001333350A (ja) * | 2000-03-15 | 2001-11-30 | Sony Corp | 画質調整方法および画質調整装置 |
| RU2237283C2 (ru) | 2001-11-27 | 2004-09-27 | Самсунг Электроникс Ко., Лтд. | Устройство и способ представления трехмерного объекта на основе изображений с глубиной |
| KR100446635B1 (ko) | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
| JP4015934B2 (ja) | 2002-04-18 | 2007-11-28 | 株式会社東芝 | 動画像符号化方法及び装置 |
| KR100481732B1 (ko) * | 2002-04-20 | 2005-04-11 | 전자부품연구원 | 다 시점 동영상 부호화 장치 |
| KR100751422B1 (ko) * | 2002-12-27 | 2007-08-23 | 한국전자통신연구원 | 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치 |
| US7778328B2 (en) | 2003-08-07 | 2010-08-17 | Sony Corporation | Semantics-based motion estimation for multi-view video coding |
| JP2005141527A (ja) * | 2003-11-07 | 2005-06-02 | Sony Corp | 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム |
| US7379608B2 (en) * | 2003-12-04 | 2008-05-27 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. | Arithmetic coding for transforming video and picture data units |
| KR20060134976A (ko) | 2004-03-09 | 2006-12-28 | 톰슨 리서치 펀딩 코포레이션 | 고급 비디오 코딩을 위한 감소된 해상도의 갱신 모드 |
| US7561620B2 (en) * | 2004-08-03 | 2009-07-14 | Microsoft Corporation | System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding |
| JP4440067B2 (ja) * | 2004-10-15 | 2010-03-24 | キヤノン株式会社 | 立体表示のための画像処理プログラム、画像処理装置および立体表示システム |
| CN102263962A (zh) * | 2004-12-10 | 2011-11-30 | 韩国电子通信研究院 | 对多视图视频进行统一编码的装置 |
| WO2006124885A2 (en) * | 2005-05-12 | 2006-11-23 | Kylintv, Inc. | Codec for iptv |
| EP2424245B1 (en) * | 2006-01-09 | 2019-09-04 | Dolby International AB | Methods and apparatus for illumination and color compensation for multi-view video coding |
| JP6113335B1 (ja) | 2016-06-03 | 2017-04-12 | グリーン アイデア テック インク.Green Idea Tech Inc. | 複数の導電差込口で共用する熱破壊固定部材のアセンブリ |
-
2007
- 2007-01-04 EP EP11190381.1A patent/EP2424245B1/en active Active
- 2007-01-04 EP EP07716252.7A patent/EP1972147B8/en active Active
- 2007-01-04 JP JP2008549545A patent/JP5224458B2/ja active Active
- 2007-01-04 WO PCT/US2007/000091 patent/WO2007081713A1/en not_active Ceased
- 2007-01-04 BR BRPI0706352-0A patent/BRPI0706352B1/pt active IP Right Grant
- 2007-01-04 RU RU2008132852/07A patent/RU2457632C2/ru active
- 2007-01-04 EP EP11190379.5A patent/EP2424244B1/en active Active
- 2007-01-04 ES ES07716252.7T patent/ES2625902T3/es active Active
- 2007-01-04 CN CN201410575263.5A patent/CN104270639B/zh active Active
- 2007-01-04 AU AU2007205227A patent/AU2007205227B2/en active Active
- 2007-01-04 US US12/087,197 patent/US8902977B2/en active Active
- 2007-01-04 KR KR1020087016119A patent/KR101357982B1/ko active Active
- 2007-01-04 CN CN200780002059.2A patent/CN101366284B/zh active Active
-
2012
- 2012-05-22 JP JP2012116127A patent/JP5346108B2/ja active Active
- 2012-12-21 JP JP2012278831A patent/JP5594913B2/ja active Active
- 2012-12-21 JP JP2012278830A patent/JP5224488B2/ja active Active
-
2013
- 2013-04-30 US US13/873,789 patent/US9241168B2/en active Active
- 2013-04-30 US US13/873,842 patent/US9237353B2/en active Active
-
2014
- 2014-07-08 JP JP2014140143A patent/JP5896490B2/ja active Active
-
2015
- 2015-12-10 US US14/964,750 patent/US9838694B2/en active Active
-
2016
- 2016-02-02 JP JP2016017659A patent/JP6112523B2/ja active Active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2625902T3 (es) | Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas | |
| ES2898862T3 (es) | Derivación de información de movimiento para subbloques en codificación de vídeo | |
| ES3022203T3 (en) | Adaptive motion vector precision for video coding | |
| ES2841312T3 (es) | Predicción de vectores de movimiento para modelos de movimiento afines en codificación de vídeo | |
| BRPI0719856B1 (pt) | Métodos, aparelhos e meio de armazenamento não transitório para compensação de iluminação e cor local sem sinalização explícita | |
| ES2718818T3 (es) | Información de nivel de secuencia para la codificación de vídeo tridimensional (3DVC) compatible con codificación de vídeo de múltiples vistas (MVC) | |
| ES2634100T3 (es) | Extensión de vídeo tridimensional de cabecera de fragmento para predicción de cabecera de fragmento | |
| KR101773693B1 (ko) | 스킵 및 직접 모드들에 대한 3d 비디오 코딩에서의 디스패리티 벡터 유도 | |
| ES2880744T3 (es) | Señalización de resolución adaptable del vector de movimiento para la codificación de vídeo | |
| ES2546678T3 (es) | Codificación de vídeo usando resolución adaptativa de vectores de movimiento | |
| ES2715980T3 (es) | Codificación de valores de recuento del orden de imágenes que identifican tramas de referencia a largo plazo | |
| BR112021010416A2 (pt) | Codificador, decodificador e métodos correspondentes para realizar desblocagem de croma para blocos que usam codificação de croma em conjunto | |
| ES2703062T3 (es) | Síntesis de visualización en vídeo 3D | |
| ES2978268T3 (es) | Método y aparato de codificación y decodificación de imágenes de video | |
| BR112021013644A2 (pt) | Codificador, decodificador e métodos correspondentes de adaptação de filtro de deblocagem | |
| ES2716676T3 (es) | Predicción residual avanzada simplificada para la 3d-hevc | |
| BR112017020635B1 (pt) | Método para decodificar dados de vídeo, método e aparelho para codificar dados de vídeo, e memória legível por computador | |
| BR112017020632B1 (pt) | Métodos e dispositivo para processar dados de vídeo e memória legível por computador | |
| BR112017020627B1 (pt) | Derivação de vetor de movimento em codificação de vídeo |