ES2390253T3 - Procesamiento de datos de imagen tridimensional - Google Patents

Procesamiento de datos de imagen tridimensional Download PDF

Info

Publication number
ES2390253T3
ES2390253T3 ES09787237T ES09787237T ES2390253T3 ES 2390253 T3 ES2390253 T3 ES 2390253T3 ES 09787237 T ES09787237 T ES 09787237T ES 09787237 T ES09787237 T ES 09787237T ES 2390253 T3 ES2390253 T3 ES 2390253T3
Authority
ES
Spain
Prior art keywords
image
layer
data
depth
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09787237T
Other languages
English (en)
Inventor
Bart G. B. Barenbrug
Bernardus A. M. Zwaans
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of ES2390253T3 publication Critical patent/ES2390253T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Método de generación de datos de imagen tridimensional que comprenden una pluralidad de capas deimagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional,comprendiendo el método:proporcionar (301) primeros datos de imagen para una primera capa de imagen;proporcionar (303) segundos datos de imagen para una segunda capa de imagen;proporcionar (305) datos de indicación de profundidad para al menos una de la primera capa de imagen y lasegunda capa de imagen;generar (307) un indicador de dependencia, siendo el indicador de dependencia indicativo ygenerar (309) los datos de imagen tridimensional que comprenden los primeros datos de imagen, lossegundos datos de imagen, los datos de indicación de profundidad y el indicador de dependencia.

Description

Procesamiento de datos de imagen tridimensional.
Campo de la invención
La invención se refiere a datos de imagen tridimensional que incluyen datos de imagen de vídeo tridimensional.
Antecedentes de la invención
Las pantallas tridimensionales añaden una tercera dimensión a la experiencia de visualización proporcionando a los ojos de un espectador diferentes vistas de la escena que se está mirando. Una enfoque popular para representar imágenes tridimensionales (3D) es usar una o más imágenes bidimensionales (2D) más una representación de profundidad que proporciona información de la tercera dimensión. Una enfoque de este tipo proporciona varias ventajas que incluyen permitir que se generen vistas 3D con una complejidad relativamente baja y proporcionar una representación de datos eficaz, reduciendo de ese modo, por ejemplo, los requisitos de almacenamiento y de recursos de comunicación para señales de imagen (y vídeo) 3D. Este enfoque también permite que se generen imágenes 2D con puntos de vista y ángulos de visualización diferentes a las imágenes que están incluidas en los datos de imagen 3D. Esto puede usarse específicamente para generar una imagen adicional de modo que se proporcionen dos imágenes correspondientes a un ángulo de visualización de los dos ojos de un espectador. Esto puede usarse para proporcionar una percepción 3D, es decir proporcionar una imagen 3D.
Un inconveniente de representar una imagen 3D mediante una única imagen 2D e información de profundidad asociada es que no incluye información sobre las zonas de imagen de fondo que están ocluidas por objetos de primer plano. Por consiguiente, si la escena se reproduce por un punto de vista diferente, no puede revelarse información detrás de los objetos de primer plano. Por consiguiente, se ha propuesto usar representaciones de profundidad e imagen de múltiples capas que comprenden una pluralidad de imágenes bidimensionales (por ejemplo, una imagen de primer plano y una imagen de fondo) con información de profundidad asociada. Una descripción de cómo reproducir nuevas vistas a partir de tal información puede encontrarse en Steven J. Gortler y Liwei He, Rendering Layered Depth Images, Microsoft Technical Report MSTR-TR-97-09, disponible entre otros en http://research.microsoft.com/research/pubs/view.aspx?type=Technical%20Report&id=20 y, por ejemplo, en la solicitud de patente estadounidense US20070057944.
En enfoques que usan más de una capa, se ha propuesto permitir que las capas sean semitransparentes. En el campo de la infografía, se describe un enfoque de este tipo por ejemplo en Norman P. Jouppi y Chun-Fa Chang, “An Economical Hardware Technique for High-Quality Antialiasing y Transparency”, Proceedings of Eurographics/Siggraph workshop on graphics hardware 1999. Un enfoque de este tipo permite visualizar materiales semitransparentes (por ejemplo, agua, humo, llamas) y también permite un antisolapamiento mejorado de bordes de objetos a diferentes profundidades. Específicamente, permite una transición más gradual de bordes. Por tanto, la transparencia no puede usarse sólo para representar objetos semitransparentes, sino que también puede permitir el antisolapamiento de los bordes de los objetos de primer plano haciendo un borde semitransparente de manera que un valor de transparencia representa cuánto de un píxel debe estar en primer plano y cuánto del fondo debe ser visible. Un ejemplo de un enfoque de este tipo puede encontrarse en: C. Lawrence Zitnick, Sing Bing Kang, Matthew Uyttendaele, Simon Winder, Richard Szeliski, “High-quality video view interpolation using a layered representation”, en Proceedings of Siggraph 2004.
Sin embargo, aunque tales enfoques pueden proporcionar una percepción de imagen e imágenes 3D mejoradas en muchos escenarios, tienden a tener algunas desventajas. En particular, la calidad de imagen y la percepción 3D pueden ser inferiores a las óptimas en algunos escenarios y el procesamiento 3D puede introducir distorsiones y degradaciones de imagen, tales como artefactos visibles.
Por tanto, un enfoque mejorado para el procesamiento de datos de imagen 3D sería ventajoso y en particular sería ventajoso un enfoque que permita una flexibilidad aumentada, una calidad de imagen mejorada, una implementación facilitada y/o un rendimiento mejorado.
Sumario de la invención
Por consiguiente, la invención trata de paliar, aliviar o eliminar preferiblemente una o más de las desventajas mencionadas anteriormente de manera individual o en cualquier combinación.
Según un aspecto de la invención, se proporciona un método de generación de datos de imagen tridimensional que comprenden una pluralidad de capas de imagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional, comprendiendo el método: proporcionar (301) primeros datos de imagen para una primera capa de imagen; proporcionar (303) segundos datos de imagen para una segunda capa de imagen; proporcionar (305) datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen; generar (307) un indicador de dependencia, siendo el indicador de dependencia indicativo de si una primera imagen de la primera capa de imagen contiene datos de imagen en capas tridimensional suplementarios para una segunda imagen simultánea de la segunda capa de imagen; y generar (309) los datos de imagen tridimensional que comprenden los primeros datos de imagen, los segundos datos de imagen, los datos de indicación de profundidad y el indicador de dependencia.
La invención puede proporcionar un rendimiento mejorado en muchos escenarios. En particular, puede conseguirse una percepción 3D y/o calidad de imagen mejoradas. En particular, pueden reducirse o eliminarse varios artefactos y degradaciones de imagen asociados con el procesamiento de imágenes 3D en algunas condiciones. La reproducción de elementos de imagen puede referirse a la reproducción de (sub)píxeles de una imagen; siendo la imagen, por ejemplo, una vista completa de una escena tridimensional.
El indicador de dependencia puede ser indicativo de si imágenes simultáneas de la primera capa de imagen y la segunda capa de imagen comprenden datos de imagen en capas tridimensional suplementarios entre sí. La imagen simultánea pretendida en este caso pretende referirse a datos pretendidos para su uso en la reproducción de elementos de imagen en un momento en el tiempo.
Por ejemplo, datos de imagen suplementarios pueden ser datos para uno o más planos de imagen adicionales que representan una profundidad diferente. Por ejemplo, una imagen de primer plano puede proporcionar datos de imagen 3D suplementarios para una imagen de fondo y viceversa.
En particular, los inventores se han dado cuenta de que pueden usarse formatos de imagen 3D en capas para diferentes categorías de imágenes en las capas de imagen y que pueden producirse degradaciones a partir del procesamiento 3D de éstas. Los inventores se han dado cuenta además de que puede conseguirse un rendimiento mejorado adaptando el procesamiento 3D dependiendo de la naturaleza de los datos de imagen que se proporcionan en las capas de imagen, y específicamente adaptando el procesamiento 3D en respuesta a la relación entre las capas de imagen. Específicamente, los inventores se han dado cuenta de que pueden producirse degradaciones de imagen cuando las capas de imagen se consideran independientes pero en realidad son dependientes, o viceversa. Los inventores de han dado cuenta además de que la reproducción de, por ejemplo, imágenes 3D puede controlarse por el creador/codificador/transmisor incluyendo un indicador de dependencia en los datos tridimensionales.
Por ejemplo, para una secuencia de imágenes, tal como para una secuencia de vídeo, las capas de imagen primera y segunda pueden comprender un primer plano y un fondo para la misma escena. Por tanto, los datos de imagen de las capas pueden combinarse para generar imágenes estereoscópicas (por ejemplo, la desoclusión para objetos de la imagen de primer plano puede usar información de imagen procedente de la imagen de fondo). Las capas de imagen son por consiguiente dependientes y están interrelacionadas y una unidad de reproducción puede considerar ambas imágenes juntas cuando genera las vistas de imagen 3D. Sin embargo, durante un fundido encadenado de una escena a otra, la primera capa de imagen puede comprender imágenes de primer plano y de fondo mixtas de la escena original y la segunda capa de imagen puede comprender imágenes de primer plano y de fondo mixtas de la escena posterior. Puede usarse entonces el cambio gradual de los valores de transparencia para realizar un fundido encadenado de la primera a la segunda capa de imagen. Tras el fundido encadenado, las capas de imagen pueden entonces revertir hasta comprender imágenes de primer plano y de fondo separadas. Sin embargo, tal como se han dado cuenta los inventores, una secuencia de este tipo puede perfectamente dar como resultado degradaciones y artefactos de imagen durante el fundido encadenado puesto que el procesamiento 3D intentará realizar la desoclusión basándose en imágenes que no son imágenes de primer plano y de fondo la una de la otra. Tal como también se han dado cuenta los inventores, esto puede paliarse mediante el indicador de dependencia que puede reflejar que las capas de imagen son dependientes antes y después pero no durante el fundido encadenado. Por consiguiente, el procesamiento 3D puede adaptarse dinámicamente para no realizar el procesamiento 3D entre capas cuando el indicador de dependencia indica que las capas de imagen no son dependientes.
El indicador de dependencia puede indicar si procesamiento entre capas tridimensional de imágenes simultáneas de la primera capa de imagen y la segunda capa de imagen es factible. La indicación de dependencia puede indicar si las imágenes simultáneas de las imágenes primera y segunda proporcionan representaciones suplementarias a diferentes niveles de profundidad para una imagen que va a reproducirse. El indicador de dependencia puede ser específicamente un indicador de combinación que indica si las imágenes simultáneas de la primera capa de imagen y la segunda capa de imagen pueden combinarse mediante un proceso tridimensional usando información tridimensional interrelacionada procedente de las capas.
Cada una de las capas de imagen puede comprender una o más imágenes. Por ejemplo, cada capa de imagen puede comprender una secuencia de imágenes. Las capas de imagen primera y segunda pueden comprender imágenes que se superponen entre sí.
Según una característica opcional de la invención, el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes cuando la primera capa de imagen es una capa de oclusión para la segunda imagen.
Esto puede permitir un procesamiento de imágenes 3D mejorado y puede reducir en particular los artefactos de imagen y la degradación de la calidad de imagen introducidos por el procesamiento de desoclusión. Una unidad de reproducción 3D puede adaptar específicamente el procesamiento de desoclusión 3D dependiendo del indicador de dependencia y puede usar específicamente ambas capas de imagen primera y segunda para el procesamiento de desoclusión si el indicador de dependencia es indicativo de que las capas de imagen primera y segunda son dependientes, y si no usar sólo una de las capas.
Según una característica opcional de la invención, el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes cuando la primera capa de imagen no es una capa de oclusión para la segunda imagen.
Esto puede permitir una indicación de dependencia simplificada y/o mejorada y puede permitir en particular el funcionamiento simplificado en muchas realizaciones. El indicador de dependencia puede ser un valor binario que refleja si la primera capa de imagen es una capa de oclusión para la segunda capa de imagen o no.
Según una característica opcional de la invención, los datos de indicación de profundidad comprenden un primer mapa de indicación de profundidad para la primera capa de imagen y un segundo mapa de indicación de profundidad para la segunda capa de imagen; y en los que el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes cuando los valores de indicación de profundidad del primer mapa de indicación de profundidad no concuerdan con los valores de indicación de profundidad del segundo mapa de indicación de profundidad.
Esto puede permitir un procesamiento de imágenes 3D mejorado y puede reducir en particular los artefactos de imagen y la degradación de la calidad de imagen introducidos por el procesamiento 3D. En particular, el indicador de dependencia puede proporcionar un control mejorado para información de profundidad en un sistema de procesamiento de imágenes 3D y puede reducir o paliar el impacto del procesamiento de datos de profundidad que no concuerdan.
Según una característica opcional de la invención, los valores de indicación de profundidad del primer mapa de indicación de profundidad no concuerdan con los valores de indicación de profundidad del segundo mapa de indicación de profundidad si los valores de indicación de profundidad del primer mapa de indicación de profundidad representan niveles de profundidad más profundos que los valores de indicación de profundidad del segundo mapa de indicación en al menos una región de imagen y los valores de indicación de profundidad del segundo mapa de indicación de profundidad representan niveles de profundidad más profundos que los valores de indicación de profundidad del primer mapa de indicación en al menos otra región de imagen.
Esto puede permitir un procesamiento de imágenes 3D mejorado y puede reducir en particular artefactos de imagen y degradación de la calidad de imagen introducidos por el procesamiento 3D. Un nivel de profundidad más profundo para un elemento de imagen o píxel puede ser específicamente un valor de indicación de profundidad que representa un elemento de imagen más alejado con respecto a un punto de vista correspondiente a la vista de la imagen tridimensional.
Según una característica opcional de la invención, el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes cuando la primera capa de imagen y la segunda capa de imagen comprenden imágenes de fundido encadenado, y es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes cuando la primera capa de imagen y la segunda capa de imagen no comprenden imágenes de fundido encadenado.
La invención puede permitir una operación de fundido encadenado mejorada particular. En particular, la invención puede reducir la degradación y artefactos de imagen cuando se realizan fundidos encadenados mientras que permite todavía el procesamiento 3D de alta calidad cuando no están realizándose fundidos encadenados.
Un fundido encadenado puede incluir cualquier transición de una imagen o secuencia de imágenes hasta otra imagen o secuencia de imágenes. Por ejemplo, puede usarse una transición de transparencia gradual entre las dos imágenes (o secuencias de imágenes). Como otro ejemplo, el fundido encadenado puede ser una transición de cortinilla de la imagen u otro patrón de transición.
Según una característica opcional de la invención, el indicador de dependencia es un valor de datos binarios que tiene un primer valor que indica que la primera capa de imagen y la segunda capa de imagen son dependientes y un segundo valor que indica que la primera capa de imagen y la segunda capa de imagen son independientes.
Esto puede permitir una representación eficaz y una reducción de la sobrecarga de datos mientras que permite un control de procesamiento 3D eficaz para reducir la degradación o los artefactos de imagen provocados por el procesamiento 3D.
Según una característica opcional de la invención, el indicador de dependencia se ajusta al primer valor si la primera capa de imagen comprende una imagen de primer plano para una imagen de la segunda capa de imagen y al segundo valor si la primera capa de imagen no comprende una imagen de primer plano para la imagen de la segunda capa de imagen.
Esto puede permitir un procesamiento de imágenes 3D mejorado y puede permitir en particular el procesamiento 3D de alta calidad basado en imágenes de primer plano y de fondo mientras que se reducen los artefactos de imagen y la degradación de la calidad de imagen cuando éstos no están disponibles. La imagen de primer plano de la segunda capa de imagen puede ser específicamente una imagen mixta que comprende tanto objetos de imagen de primer plano para la imagen de la segunda capa de imagen así como una o más zonas de imagen de la imagen de la segunda capa de imagen.
Según una característica opcional de la invención, la primera capa de imagen pertenece a un primer grupo de capas de imagen y la segunda capa de imagen pertenece a un segundo grupo de capas de imagen, comprendiendo al menos uno del primer grupo de capas de imagen y el segundo grupo de capas de imagen una pluralidad de capas de imagen; y el indicador de dependencia es indicativo de una dependencia entre capas de imagen del primer grupo de capas de imagen y capas de imagen del segundo grupo de capas de imagen.
Esto puede permitir un funcionamiento eficaz, una calidad de imagen mejorada y/o una flexibilidad mejorada. En muchas realizaciones, el enfoque puede permitir un control eficaz del procesamiento 3D mientras que mantiene una baja sobrecarga de señalización.
Según una característica opcional de la invención, las capas de imagen de un grupo de capas de imagen son capas de imagen dependientes.
Esto puede permitir un funcionamiento eficaz, una calidad de imagen mejorada y/o una flexibilidad mejorada. En particular, dividir las capas de imagen en grupos de capas de imagen dependientes, siendo la dependencia entre grupos variable y estando indicada por el indicador de dependencia, puede permitir una representación eficaz de los datos de imagen 3D y puede reducir, por ejemplo, las tasas de transmisión de datos.
Según una característica opcional de la invención, los datos de imagen para capas de imagen en un grupo de capas de imagen son adyacentes y el indicador de dependencia es indicativo de una ubicación en los datos de imagen tridimensional de un grupo de capas de imagen independientes siguiente.
Esto puede permitir una representación particularmente eficaz para la información de dependencia y puede reducir la cantidad de sobrecarga requerida para el indicador de dependencia.
Según una característica opcional de la invención, el método comprende además proporcionar datos de transparencia para al menos una de la primera capa de imagen y la segunda capa de imagen e incluir los datos de transparencia en los datos de imagen tridimensional.
La combinación de información de transparencia e información de dependencia puede permitir un enfoque de sucesión 3D eficaz particular. En particular, la combinación puede permitir que se realicen varios algoritmos de procesamiento eficaces con un rendimiento y/o una calidad de imagen mejorados. Por ejemplo, pueden conseguirse operaciones de fundido encadenado mejoradas mientras que se mantiene un control facilitado y una baja utilización de recursos.
Según otro aspecto de la invención, se proporciona un método de reproducción de elementos de imagen que comprende: recibir (501) datos de imagen tridimensional que comprenden primeros datos de imagen para una primera capa de imagen, segundos datos de imagen para una segunda capa de imagen, datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen, y un indicador de dependencia indicativo de una dependencia entre la primera capa de imagen y la segunda capa de imagen; y reproducir (503) elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional mediante el procesamiento de los primeros datos de imagen, los segundos datos de imagen y los datos de indicación de profundidad en respuesta al indicador de dependencia.
El método puede permitir la reproducción mejorada de elementos de imagen para representaciones 3D. En particular, pueden conseguirse una degradación o artefactos de imagen reducidos que resultan del procesamiento 3D. En particular, puede impedir que el procesamiento de imagen se adapte automáticamente a las características específicas de los datos de imagen 3D. Se apreciará que las características, comentarios y ventajas descritos previamente con referencia al método de generación de datos de imagen 3D se aplicarán igualmente al método de reproducción según sea apropiado.
Según una característica opcional de la invención, reproducir (503) comprende realizar procesamiento de imagen tridimensional entre capas de imágenes simultáneas de la primera capa de imagen y la segunda capa de imagen sólo cuando el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes.
Esto puede permitir una calidad de imagen mejorada en muchas aplicaciones y puede proporcionar en particular medios eficaces y de alto rendimiento para restringir la aplicación de procesamiento entre capas a condiciones en las que esto es probable que sea ventajoso.
Según una característica opcional de la invención, reproducir (503) comprende realizar desoclusión para una primera imagen de la primera capa de imagen utilizando información procedente de una segunda imagen de la segunda capa de imagen sólo si el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes.
Esto puede permitir una calidad de imagen mejorada en muchas aplicaciones y puede proporcionar en particular medios eficaces y de alto rendimiento de adaptación de algoritmos de reproducción 3D y desoclusión a las características específicas (actuales) y la utilización de las capas de imagen.
Según una característica opcional de la invención, reproducir (503) comprende combinar una primera imagen de la primera capa de imagen y una segunda imagen de la segunda capa de imagen, siendo la combinación en respuesta a información de imagen tridimensional cuando el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes y no siendo en respuesta a información de imagen tridimensional cuando el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes.
La combinación puede ser específicamente sólo en respuesta a información de transparencia cuando las capas de imagen son independientes. Las imágenes individuales primera y segunda pueden generarse ambas teniendo en cuenta información 3D pero la combinación de éstas no considerará, según la característica opcional, información 3D cuando se combinan las imágenes resultantes. La combinación puede ser específicamente mediante una combinación lineal de valores de píxel cuando las capas de imagen son independientes. La ponderación de las imágenes primera y segunda puede depender en este caso de un valor de transparencia para el píxel.
Según otro aspecto de la invención, se proporciona un aparato para generar datos de imagen tridimensional que comprende una pluralidad de capas de imagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional, comprendiendo el aparato: medios (203) para proporcionar primeros datos de imagen para una primera capa de imagen; medios (205) para proporcionar segundos datos de imagen para una segunda capa de imagen; medios (209, 211) para proporcionar datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen; medios (213) para generar un indicador de dependencia indicativos de una dependencia entre la primera capa de imagen y la segunda capa de imagen; y medios (215) para generar los datos de imagen tridimensional que comprenden los primeros datos de imagen, los segundos datos de imagen, los datos de indicación de profundidad y el indicador de dependencia.
Según otro aspecto de la invención, se proporciona un aparato para reproducir elementos de imagen, comprendiendo el aparato: medios (401) para recibir datos de imagen tridimensional que comprenden primeros datos de imagen para una primera capa de imagen, segundos datos de imagen para una segunda capa de imagen, datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen, y un indicador de dependencia indicativo de una dependencia entre la primera capa de imagen y la segunda capa de imagen; y medios (403) para reproducir elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional mediante el procesamiento de los primeros datos de imagen, los segundos datos de imagen y los datos de indicación de profundidad en respuesta al indicador de dependencia.
Según otro aspecto de la invención, se proporciona una señal de imagen que comprende: primeros datos de imagen para una primera capa de imagen; segundos datos de imagen para una segunda capa de imagen; datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen; y un indicador de dependencia indicativo de una dependencia entre la primera capa de imagen y la segunda capa de imagen.
Según otro aspecto de la invención, se proporciona un método de generación de datos de imagen tridimensional que comprenden una pluralidad de capas de imagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional, comprendiendo el método: proporcionar una primera capa de imagen que comprende datos de imagen que al menos para algunas imágenes representan una imagen compuesta que comprende una contribución procedente de una pluralidad de imágenes; proporcionar una primera capa de profundidad que comprende un mapa de profundidad compuesto para la imagen compuesta; proporcionar una segunda capa de imagen que comprende datos de imagen para una imagen adicional que contribuye a la imagen compuesta; proporcionar una segunda capa de profundidad que comprende un mapa de profundidad adicional para la imagen adicional; proporcionar un mapa de transparencia que representa una contribución de la imagen adicional a la imagen compuesta; generar un indicador de dependencia que refleja si una imagen de la segunda capa de imagen comprende al menos una de una imagen de primer plano y una imagen de fondo para al menos una imagen que contribuye a una imagen compuesta de la primera capa de imagen o si la imagen de la segunda capa de imagen no es una de una imagen de primer plano y una imagen de fondo de cualquier imagen que contribuye a la imagen compuesta; y generar los datos de imagen tridimensional que comprenden la primera capa de imagen, la primera capa de profundidad, la segunda capa de imagen, la segunda capa de profundidad, el mapa de transparencia y el indicador de dependencia.
Según otro aspecto de la invención, se proporciona un método de reproducción de elementos de imagen que comprende: recibir datos de imagen tridimensional que comprenden: una primera capa de imagen que comprende datos de imagen que al menos para algunas imágenes representan una imagen compuesta que comprende una contribución procedente de una pluralidad de imágenes; una primera capa de profundidad que comprende un mapa de profundidad compuesto para la imagen compuesta; una segunda capa de imagen que comprende datos de imagen para una imagen adicional que contribuye a la imagen compuesta; una segunda capa de profundidad que comprende un mapa de profundidad adicional para la imagen adicional; un mapa de transparencia que representa una contribución de la imagen adicional a la imagen compuesta; un indicador de dependencia que refleja si una imagen de la segunda capa de imagen comprende al menos una de una imagen de primer plano y una imagen de fondo para al menos una imagen que contribuye a una imagen compuesta de la primera capa de imagen o si la imagen de la segunda capa de imagen no es una de una imagen de primer plano y una imagen de fondo de cualquier imagen que contribuye a la imagen compuesta; y reproducir elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional mediante el procesamiento tridimensional de los datos de imagen tridimensional en el que la desoclusión para una imagen de la primera capa de imagen es en respuesta a una imagen simultánea de la segunda capa de imagen sólo si el indicador de dependencia es indicativo de que la imagen de la segunda capa de imagen es al menos una de una imagen de fondo y una imagen de primer plano de una imagen que contribuye a la imagen de la primera capa de imagen.
Estos y otros aspectos, características y ventajas de la invención resultarán evidentes a partir de y se aclararán con referencia a la(s) realización(es) descrita(s) a continuación en el presente documento.
Breve descripción de los dibujos
Se describirán realizaciones de la invención, únicamente a modo de ejemplo, con referencia a los dibujos, en los que
la figura 1 es una ilustración de ejemplos de datos para la generación de imágenes para una visualización tridimensional;
la figura 2 ilustra un ejemplo de un aparato para generar datos de imagen tridimensional según algunas realizaciones de la invención;
la figura 3 ilustra un ejemplo de un método de generación de datos de imagen tridimensional según algunas realizaciones de la invención;
la figura 4 ilustra un ejemplo de un aparato para reproducir elementos de imagen según algunas realizaciones de la invención;
la figura 5 ilustra un ejemplo de un método para reproducir elementos de imagen según algunas realizaciones de la invención;
la figura 6 ilustra un ejemplo de un fundido encadenado según algunas realizaciones de la invención; y
la figura 7 ilustra un ejemplo de un fundido encadenado según algunas realizaciones de la invención;
la figura 8 ilustra un ejemplo de reproducción de imágenes para diferentes ángulos de visualización; y
la figura 9 ilustra un ejemplo de un fundido encadenado según algunas realizaciones de la invención.
Descripción detallada de las realizaciones
La siguiente descripción se centra en realizaciones de la invención aplicables a una representación de información de imagen 3D que puede aplicarse a uno o más fotogramas de una señal de vídeo. Sin embargo, se apreciará que la invención no se limita a esta aplicación y puede aplicarse a muchos otros tipos de imagen incluyendo, por ejemplo, imágenes fijas, animaciones, etc.
Un formato popular para representar datos de imagen 3D es usar una primera capa de imagen para datos de imagen para imágenes de primer plano y una segunda capa de imagen para datos de imagen para imágenes de fondo. En algunos escenarios, pueden usarse más de dos capas, por ejemplo puede usarse una tercera capa para imágenes que están entre la imagen de fondo y la imagen de primer plano. Además, se incluyen a menudo datos de indicación de profundidad en forma de un mapa de indicación de profundidad para la imagen de fondo, la imagen de primer plano o normalmente para ambas imágenes de primer plano y de fondo. Además, se ha propuesto incluir datos de transparencia que representan un grado de transparencia para los objetos de imagen de las imágenes. Normalmente, se incluye una capa de transparencia de primer plano que contiene información de transparencia que describe cómo de transparente debe ser el primer plano, es decir el grado en el que debe ser visible el fondo a través del primer plano.
La figura 1 ilustra un ejemplo de datos de imagen 3D según un formato de este tipo. La figura 1 ilustra específicamente una imagen 101 de fondo que tiene un mapa 103 de indicación de profundidad asociado que para cada píxel tiene un valor indicativo de una profundidad del píxel de imagen de fondo. En el ejemplo, los datos de imagen 3D comprenden además una imagen 105 de primer plano y un mapa 107 de indicación de profundidad asociado. En el ejemplo específico, la imagen 105 de primer plano es en realidad una imagen mixta que comprende objetos de imagen de primer plano. Sin embargo, para zonas de imagen en las que no hay objetos de imagen de primer plano, los valores de píxel de fondo se han copiado a la imagen de primer plano. De manera similar, para estos píxeles, se ha copiado el valor de indicación de profundidad de fondo al mapa 109 de indicación de profundidad de primer plano. El uso de una imagen mixta puede proporcionar una retrocompatibilidad mejorada ya que permite que la imagen mixta se presente directamente como una imagen 2D convencional. Sin embargo se apreciará que el siguiente enfoque puede aplicarse igualmente a imágenes de primer plano que sólo contienen objetos de imagen de primer plano, es decir a una imagen de primer plano convencional.
Los datos de imagen 3D también comprenden un mapa 109 de transparencia que para cada píxel indica una transparencia del primer plano. Específicamente, para valores de píxel que son parte de un objeto de imagen de primer plano sólido, el valor de transparencia puede indicar opacidad completa (es decir, que sólo es visible el primer plano). Para valores de píxel que están completamente fuera de cualquier objeto de imagen de primer plano, el valor de transparencia puede indicar transparencia completa (es decir, que el fondo es clara y completamente visible en esta ubicación). Además, para objetos de imagen de primer plano semitransparentes, tales como el objeto de imagen fantasma del ejemplo, el valor de transparencia puede tener un valor intermedio que indica que tanto el primer plano como el fondo son visibles parcialmente. Pueden aplicarse además valores de transparencia intermedios alrededor de los bordes de objetos de imagen de primer plano para proporcionar una transición suave entre el primer plano y el fondo. Esto puede mejorar el rendimiento antisolapamiento.
Los datos de imagen 3D pueden usarse para realizar el procesamiento de imágenes tridimensionales. En particular, los datos de imagen pueden usarse para generar dos vistas correspondientes a diferentes ángulos de visualización. Las dos vistas pueden entonces proporcionarse a los dos ojos de un usuario dando como resultado una experiencia de visualización de percepción 3D.
Por ejemplo, una imagen para el ojo izquierdo puede generarse directamente combinando la imagen de fondo y de primer plano usando los valores de transparencia (o en el presente caso puede usarse directamente la imagen mixta). Una segunda imagen para el ojo derecho puede generarse entonces basándose en la información tridimensional contenida en los mapas de profundidad y el mapa de transparencia. Se proporcionan ejemplos de tal procesamiento, por ejemplo, en Steven J. Gortler y Li-wei He, Rendering Layered Depth Images, Microsoft Technical Report MSTR-TR-97-09, y por ejemplo en la solicitud de patente estadounidense US20070057944.
El procesamiento para generar la segunda imagen puede incluir desplazar objetos de imagen correspondientes a un paralaje determinado. Además, el procesamiento puede incluir realizar una desoclusión para algunos objetos de imagen de primer plano. En particular, algunos píxeles de fondo que no son visibles en la vista original debido a que están superpuestos por objetos de imagen de primer plano pueden volverse visibles en el ángulo de visualización diferente. En un caso de este tipo, los valores de píxel para la imagen para el ojo derecho pueden ajustarse para corresponder al valor de píxel para el píxel de imagen de fondo apropiado (que se ha ocluido previamente). Este enfoque puede dar como resultado una alta calidad de imagen para la imagen recién generada.
Sin embargo, en algunas situaciones, las capas de imagen disponibles pueden usarse también para proporcionar otros efectos visuales. Específicamente, puede conseguirse un fundido encadenado de una imagen a otra (o para una secuencia de vídeo de una secuencia de imágenes a otra secuencia de imágenes) poniendo la imagen original en la primera capa de imagen y la nueva imagen en la segunda capa de imagen. Los datos de transparencia pueden usarse entonces para la transición de la primera capa de imagen a la segunda capa de imagen. Esto puede proporcionar un fundido encadenado altamente eficaz que puede conseguirse con complejidad baja.
Los inventores se han dado cuenta de que existen diferentes casos de uso para datos de imagen 3D y valores de transparencia. Por ejemplo, pueden usarse valores de transparencia para crear objetos/bordes semitransparentes en una escena o pueden usarse para crear efectos de superposición entre imágenes que son completamente independientes, tales como, por ejemplo, cuando realiza un fundido encadenado entre dos imágenes 3D.
Los inventores se han dado cuenta además de que esto puede tener consecuencias significativas para la reproducción de las imágenes. Específicamente, cuando las capas están relacionadas/son dependientes y comprenden imágenes que tienen una significación 3D vinculada (tal como en el ejemplo de primer plano/fondo), puede aplicarse el procesamiento 3D entre capas para mejorar la calidad de la imagen reproducida. Los ejemplos de tal procesamiento entre capas incluyen rellenar zonas de desoclusión en la primera capa con información de la segunda capa; copiar píxeles de capa de fondo al primer plano justo antes de una desoclusión, etc. Sin embargo, los inventores se han dado cuenta de que tal procesamiento entre capas normalmente será perjudicial cuando las dos capas no tengan una relación 3D.
Los inventores se han dado cuenta además de que puede incluirse información adicional en los datos de imagen 3D para permitir que un extremo de origen/transmisión controle los procesos de reproducción realizados por una unidad de reproducción. Específicamente, los inventores se han dado cuenta de que puede conseguirse un funcionamiento y rendimiento mejorados incluyendo un indicador de dependencia que refleja la dependencia (actual) entre las capas de imagen. El indicador de dependencia indica si una imagen de una capa de imagen contiene datos de imagen en capas 3D suplementarios para una imagen simultánea de otra capa de imagen. Los datos 3D suplementarios para dos imágenes pueden corresponder específicamente a datos que reflejan datos para objetos de imagen visibles en ese plano de imagen.
Este indicador de dependencia puede indicar, por ejemplo, si el procesamiento 3D entre capas puede aplicarse o no debe aplicarse cuando se reproducen los datos de imagen 3D. Por tanto, específicamente, el indicador de dependencia puede usarse para señalar si las capas de una representación de múltiples capas están interrelacionadas o no, de modo que el procesamiento apropiado puede activarse o desactivarse. Como un ejemplo específico para una representación de dos capas, el indicador de dependencia puede ser un único bit que señala si las dos capas son independientes o están relacionadas.
El indicador de dependencia puede generarse, por ejemplo, mediante herramientas de creación de contenido y puede codificarse, por ejemplo, como metadatos en un formato de archivo adecuado. Por ejemplo, puede insertarse como bandera adicional en una cabecera de mensaje para paquetes de datos que contienen los datos de imagen 3D.
La figura 2 ilustra un ejemplo de un aparato para generar datos de imagen tridimensional que comprenden una pluralidad de capas de imagen. El aparato es específicamente un codificador de señales que codifica una señal de imagen tridimensional que comprende datos correspondientes al ejemplo de la figura 2.
El codificador de señales comprende un procesador 201 de contenido que recibe señales de vídeo correspondientes a vistas estereométricas (tal como, por ejemplo, se originan desde dos cámaras de vídeo separadas). En respuesta, el procesador 201 de contenido genera una secuencia de imágenes de primer plano y una secuencia de imágenes de fondo.
Las imágenes de primer plano se alimentan a un primer procesador 203 de capa de imagen que procede a generar primeros datos de imagen para una primera capa de imagen. En el ejemplo, el primer procesador 203 de capa de imagen genera generalmente datos de imagen de primer plano para una primera capa de imagen de manera que la primera capa de imagen comprende una secuencia de imágenes de primer plano. Sin embargo, durante algunos intervalos de tiempo de transición, la primera capa de imagen puede usarse para otros tipos de imágenes. Específicamente, durante un fundido encadenado de una secuencia de imágenes a otra, los datos de imagen generados para la primera capa de imagen pueden ser los de una imagen de primer plano y de fondo combinada. Por tanto, la primera capa de imagen puede comprender a veces una imagen de primer plano y puede comprender a veces una imagen de primer plano y de fondo combinada, es decir una única representación de imagen de capa. Se apreciará, que en realizaciones en las que se usa una imagen mixta para el primer plano (como en el ejemplo de la figura 1), la primera capa de imagen puede comprender siempre una imagen mixta. Sin embargo, en otras realizaciones, el primer procesador 203 de capa de imagen puede disponerse para combinar una imagen de primer plano y de fondo recibida (sólo) durante una transición de fundido encadenado.
Las imágenes de fondo se alimentan a un segundo procesador 205 de capa de imagen que procede a generar segundos datos de imagen para una segunda capa de imagen. En el ejemplo, el segundo procesador 205 de capa de imagen genera principalmente datos de imagen de fondo para la segunda capa de imagen. Sin embargo, durante algunos intervalos de tiempo de transición, la segunda capa de imagen puede usarse para otros tipos de imágenes. Específicamente, durante un fundido encadenado de una secuencia a otra, los datos de imagen generados para la segunda capa de imagen pueden ser una imagen para la secuencia de imágenes a la que se funde el fundido encadenado. Por tanto, la segunda capa de imagen puede comprender a veces una imagen de fondo para la imagen de primer plano de la primera capa de imagen, y puede comprender a veces una imagen que es independiente de la imagen de la primera capa de imagen.
Por consiguiente, en el ejemplo, la primera capa de imagen comprende imágenes de primer plano y la segunda capa de imagen comprende imágenes de fondo correspondientes la mayor parte del tiempo. Sin embargo, durante los fundidos encadenados, la primera capa de imagen contendrá datos para imágenes mixtas que se combinan con imágenes de primer plano y de fondo para la secuencia de imágenes antes del fundido encadenado. De manera similar, la segunda capa de imagen contendrá datos para imágenes mixtas que son imágenes de primer plano y de fondo combinadas para la secuencia de imágenes después del fundido encadenado.
El codificador de señales comprende además un procesador 207 de transparencia acoplado al procesador 201 de contenido y que está dispuesto para generar datos de transparencia para al menos una de la primera capa de imagen y la segunda capa de imagen. Específicamente, en el ejemplo, el procesador 207 de transparencia genera un mapa de transparencia para las imágenes en la primera capa de imagen. Por tanto, fuera de los fundidos encadenados, el mapa de transparencia indica el nivel de transparencia de los objetos de primer plano incluidos en la imagen de primer plano de la primera capa de imagen. Sin embargo, durante los fundidos encadenados simples, el mapa de transparencia puede comprender valores de transparencia uniformes para toda la imagen. Además, el fundido encadenado puede conseguirse cambiando gradualmente el valor de transparencia para las imágenes de un valor correspondiente a la opacidad completa para la primera capa de imagen a uno correspondiente a la transparencia completa. Por tanto, se consigue una transición y un fundido encadenado suaves de la secuencia de imágenes inicial a las secuencias de imágenes posteriores.
Por consiguiente, fuera de los fundidos encadenados, pueden usarse los datos de transparencia para generar la formación de imágenes 3D precisas (tal como, por ejemplo, generar imágenes según diferentes ángulos de visualización). Sin embargo, durante un fundido encadenado el mapa de transparencia no es adecuado para el procesamiento 3D que se usa más bien para conseguir de manera eficaz y fácil un fundido encadenado deseado. Por tanto, puede usarse el mapa de transparencia de diferente manera para diferentes escenarios de dependencia.
El codificador de señales también comprende un primer procesador 209 de mapa de profundidad acoplado al procesador 201 de contenido y dispuesto para generar un mapa de indicación de profundidad para las imágenes de la primera capa de imagen.
El mapa de indicación de profundidad comprende valores de indicación de profundidad para píxeles de la imagen mixta. Los valores de indicación de profundidad pueden corresponder, por ejemplo, a un valor numérico que refleja directamente una profundidad de imagen para un objeto de imagen al que pertenecen los píxeles. Sin embargo, se apreciará que en otras realizaciones, puedan usarse otros valores de indicación de profundidad. Por ejemplo, los valores de indicación de profundidad pueden corresponder a la valores de disparidad o paralaje para el píxel.
Por tanto, en el ejemplo, el mapa de indicación de profundidad comprende valores de indicación de profundidad para cada píxel de la imagen correspondiente de la primera capa de imagen. Por tanto, fuera de un fundido encadenado, la indicación de profundidad puede ser una indicación de profundidad para una imagen de primer plano. Durante un fundido encadenado, los valores de indicación de profundidad pueden corresponder a una mezcla de los valores de indicación de profundidad para el primer plano y las imágenes de fondo ya que éstas se combinan en imágenes mixtas. Por ejemplo, para una imagen mixta, el valor de indicación de profundidad puede tomarse como el valor de indicación de profundidad de la imagen de primer plano excepto para los píxeles correspondientes a transparencia completa. Para estos píxeles, el valor de indicación de profundidad puede tomarse de la imagen de fondo. En realizaciones en las que se usa una imagen mixta en vez de una imagen pura de primer plano, el mapa de indicación de profundidad puede representar también información de profundidad mixta fuera del intervalo de fundido encadenado.
Específicamente, el mapa de indicación de profundidad puede generarse, por ejemplo, como un mapa que comprende un nivel de profundidad, un valor de profundidad, un valor de paralaje o un valor de disparidad para cada píxel de la imagen de fondo. Se apreciará que un experto conocerá diversos enfoques para generar un mapa de indicación de profundidad para una imagen. Por ejemplo, el mapa de indicación de profundidad puede generarse a partir de imágenes estéreo que usan conversión de 2D a 3D semiautomatizada, o a partir de gráficos por ordenador. También es posible la generación de profundidad completamente automatizada a partir de vídeo 2D.
El codificador de señales también comprende un segundo procesador 211 de mapa de profundidad acoplado al procesador 201 de contenido y dispuesto para generar un mapa de indicación de profundidad para las imágenes de la segunda capa de imagen. Por tanto, fuera de los fundidos encadenados, el segundo procesador 211 de mapa de profundidad genera información de profundidad para imágenes de fondo y durante un fundido encadenado el segundo procesador 211 de mapa de profundidad genera mapas de profundidad para imágenes mixtas de imágenes de primer plano y de fondo para la secuencia de imágenes tras el fundido encadenado.
El codificador de señales comprende además un procesador 213 de dependencia acoplado al procesador 201 de contenido y que está dispuesto para proporcionar una indicación de la dependencia entre las imágenes de la primera capa de imagen y la segunda capa de imagen. Por ejemplo, puede generarse un valor binario simple que refleja si las imágenes de las dos capas de imagen son parte de una transición de fundido encadenado o no. Por tanto, el indicador de dependencia puede ajustarse a un primer valor cuando la imagen de la primera capa de imagen es una imagen de primer plano para la imagen de la segunda capa y ajustarse a un segundo valor cuando la imagen de la primera capa de imagen es una imagen mixta de una secuencia de imágenes antes del fundido encadenado y la imagen de la segunda capa de imagen es una imagen mixta de una secuencia de imágenes tras el fundido encadenado. Por tanto, el indicador de dependencia puede ser una bandera binaria simple que indica si las imágenes de la primera capa de imagen y la segunda capa de imagen son dependientes y están interrelacionadas o no.
El primer procesador 203 de capa de imagen, el segundo procesador 205 de capa de imagen, el procesador 207 de transparencia, el primer procesador 209 de mapa de profundidad, el segundo procesador 211 de mapa de profundidad y el procesador 213 de dependencia están acoplados a un combinador 215 de datos que combina los datos de imagen para la primera capa de imagen, los datos de imagen para la segunda capa de imagen, los datos de transparencia, los datos de mapa de indicación de profundidad para la primera capa de imagen, los datos de mapa de indicación de profundidad para la segunda capa de imagen y el indicador de dependencia en un único flujo de datos de imagen 3D.
La figura 3 ilustra un ejemplo de un método de generación de datos de imagen 3D que puede realizarse por el codificador de señales de la figura 2.
El método se inicia en la etapa 301 en la que el primer procesador 203 de capa de imagen genera datos de imagen para la primera capa de imagen tal como se describió anteriormente.
La etapa 301 va seguida por la etapa 303 en la que el segundo procesador 205 de capa de imagen genera datos de imagen para la segunda capa de imagen tal como se describió anteriormente.
La etapa 303 va seguida por la etapa 305 en la que se generan datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen por los procesadores de profundidad primero 209 y/o segundo 211. En el ejemplo, se genera un mapa de indicación de profundidad tanto para la capa de imagen primera como para la segunda.
La etapa 305 va seguida por la etapa 307 en la que se genera un indicador de dependencia que es indicativo de una dependencia entre la primera capa de imagen y la segunda capa de imagen por el procesador 213 de dependencia.
La etapa 307 va seguida por la etapa 309 en la que se combinan los datos de capa de imagen, los datos de indicación de profundidad y el indicador de dependencia para dar los datos 3D.
La figura 4 ilustra y es un ejemplo de un aparato para reproducir elementos de imagen. El aparato es específicamente un dispositivo de reproducción que puede recibir los datos de imagen 3D generados por el codificador de señales de la figura 2 y generar dos imágenes para una percepción 3D cuando se ven de manera separada por los ojos de un espectador.
El aparato comprende un receptor 401 que recibe los datos y los separa en diferentes categorías de datos. Por tanto, el receptor 401 proporciona datos de imagen para la primera capa de imagen, datos de imagen para la segunda capa de imagen, datos de indicación de profundidad para la primera capa de imagen, datos de indicación de profundidad para la segunda capa de imagen, un mapa de transparencia y el indicador de dependencia.
Los datos se alimentan a una unidad 403 de reproducción que recibe los datos y en respuesta reproduce elementos de imagen correspondientes a elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional. La unidad 403 de reproducción genera específicamente dos imágenes correspondientes a respectivamente el ojo izquierdo y el derecho de un espectador. Las imágenes se generan mediante el procesamiento de al menos los datos de imagen de la primera capa de imagen, los datos de imagen de la segunda capa de imagen y los datos de indicación de profundidad. En el ejemplo en el que los datos de transparencia se incluyen también en los datos 3D, la generación de al menos una de las imágenes (correspondientes a un ángulo de visualización diferente al de las imágenes de la primera capa de imagen y la segunda capa de imagen) es también en respuesta a los datos de transparencia.
Además, el procesamiento está adaptado para reflejar si las capas de imagen son dependientes o no. Por tanto, la unidad 403 de reproducción está dispuesta para adaptar el procesamiento 3D dependiendo del indicador de dependencia. En el ejemplo, la unidad 403 de reproducción puede activar o desactivar el procesamiento entre capas dependiendo de si el indicador de dependencia indica que las capas de imagen son dependientes o no.
En el ejemplo, la unidad de reproducción genera una imagen de ángulo de visualización de desvío (es decir, una imagen correspondiente a un ángulo de visualización diferente al de las imágenes de las capas de imagen primera y segunda) para proporcionar una percepción de imagen 3D estereométrica para un usuario.
En el ejemplo específico de una señal que comprende fundidos encadenados, esta imagen puede generarse usando los mapas de indicación de profundidad y las imágenes de primer plano y de fondo cuando no se realiza un fundido encadenado. Por tanto, cuando el indicador de dependencia indica que las capas de imagen primera y segunda son dependientes y por tanto que la primera capa de imagen comprende una imagen de primer plano para la imagen de la segunda capa de imagen, la generación de la imagen de ángulo de visualización de desvío se realiza no sólo usando los mapas de indicación de profundidad sino realizando también el procesamiento entre capas usando las imágenes de primer plano y de fondo.
Específicamente, la generación de la imagen de ángulo de visualización de desvío incluye procesamiento de desoclusión. Por tanto, el ángulo de visualización de desvío puede desplazar algunos objetos de primer plano de manera que ya no estarán ocluidos los píxeles ocluidos previamente por los objetos de imagen de primer plano. La unidad 401 de reproducción puede usar entonces los valores apropiados de la imagen de fondo para rellenar la zona desocluida. Por tanto, se usa procesamiento de desoclusión entre capas para generar una imagen 3D.
Sin embargo, durante un fundido encadenado, la imagen de la segunda capa de imagen no es una imagen de fondo para la imagen de la primera capa de imagen. Por consiguiente, la desoclusión entre capas daría como resultado valores de píxel completamente no relacionados que se usan para rellenar regiones de imagen desocluidas. Esto puede dar como resultado una degradación de imagen significativa y la introducción de artefactos visibles.
Sin embargo, en el dispositivo de reproducción de la figura 4, el procesamiento de desoclusión depende del indicador de dependencia. Específicamente, la unidad 403 de reproducción está dispuesta para realizar sólo la desoclusión entre capas para imágenes correspondientes (simultáneas) de las capas cuando el indicador de dependencia es indicativo de que las capas de imagen son dependientes. Sin embargo, si el indicador de dependencia es indicativo de que las capas de imagen son independientes, es decir en el ejemplo específico es indicativo de un fundido encadenado que está realizándose, la unidad 403 de reproducción procede a realizar una única desoclusión de capa para las imágenes concurrentes de las dos capas de imagen.
Por ejemplo, las zonas de píxel desocluidas pueden rellenarse usando datos de fondo almacenados para los píxeles correspondientes. Específicamente, los valores de píxel de fondo de la última imagen de fondo almacenada (es decir, la imagen de fondo inmediatamente antes del indicador de dependencia que cambia de una indicación de dependencia a una indicación de independencia) pueden usarse para rellenar la zona de imagen desocluida. Esto proporcionará una calidad de imagen percibida mejorada y reducirá en particular la significación percibida de artefactos introducidos por el proceso de desoclusión.
Por tanto, en el ejemplo, la reproducción realizada por la unidad 403 de reproducción combina las imágenes de las capas de imagen primera y segunda cuando el indicador de dependencia indica que las capas de imagen son dependientes. La combinación puede incluir específicamente generar información de desplazamiento para la imagen de ángulo de visualización diferente basándose en los mapas de indicación de profundidad para las capas de imagen tanto primera como segunda, es decir tanto para la imagen de primer plano como para la de fondo. La combinación incluye además realizar desoclusión para la imagen de primer plano de la primera capa de imagen basándose en valores de píxel de la imagen de fondo de la segunda capa de imagen. Por tanto, las imágenes se combinan basándose en los datos 3D que están contenidos en el flujo de datos 3D recibido.
Sin embargo, cuando el indicador de dependencia es indicativo de que las capas de imagen son independientes, las imágenes de las capas de imagen primera y segunda pueden combinarse todavía. Por ejemplo, durante un fundido encadenado, la imagen reproducida puede incluir contribuciones tanto de la imagen de la primera capa de imagen como de la imagen de la segunda capa de imagen. Sin embargo, en este caso, la combinación se basa sólo en los valores de transparencia para la imagen de la primera capa. Por tanto, mientras que la imagen individual de las capas de imagen primera y segunda puede reproducirse teniendo en cuenta, por ejemplo, el mapa de profundidad y usando una única desoclusión de capa, la combinación de las dos imágenes no tiene en cuenta nada de la información 3D.
La figura 5 ilustra un ejemplo de un método para reproducir elementos de imagen que puede realizarse por el dispositivo de reproducción de la figura 4.
El método se inicia en la etapa 501 en la que el receptor 401 recibe los datos de imagen 3D que comprenden datos de imagen para la primera capa de imagen, datos de imagen para la segunda capa de imagen, datos de indicación de profundidad para la primera capa de imagen, datos de indicación de profundidad para la segunda capa de imagen, un mapa de transparencia y el indicador de dependencia.
Estos datos se alimentan entonces a la unidad 403 de reproducción que en la etapa 503 procede a reproducir elementos de imagen correspondientes a elementos de imagen de vistas múltiples de los datos de imagen 3D para su uso en la visualización de una imagen tridimensional mediante el procesamiento de los datos recibidos desde el receptor 401.
La figura 6 ilustra un ejemplo específico del procesamiento realizado por el sistema que comprende el codificador de la figura 2 y el dispositivo de reproducción de la figura 4 durante un fundido encadenado. La figura 6 ilustra específicamente el valor del indicador de dependencia (Ind) que se ajusta a 0 para reflejar una dependencia entre las capas de imagen primera y segunda y a 1 para reflejar la independencia de las capas de imagen primera y segunda. Además ilustra el contenido de la primera capa de imagen L1, el mapa de indicación de profundidad para la primera capa de imagen D-L1, la segunda capa de imagen L2, el mapa de indicación de profundidad para la segunda capa de imagen D-L2, el mapa de transparencia TRP y la imagen reproducida para tiempos diferentes (IMG). Se apreciará que en otras realizaciones, la fila (IMG) puede corresponder a una imagen mixta que se genera en un codificador y se transmite a unidades de reproducción adecuadas.
Por tanto en el ejemplo, un flujo de señal puede ser un transmisor que contiene las primeras capas, concretamente una capa de imagen primera y segunda (L1, L2), una capa de profundidad primera y segunda (D-L1, D-L2) y una primera capa de transparencia (TRP). En algunas situaciones, las capas de imagen primera y segunda (L1, L2) contienen datos de imagen 3D dependientes y suplementarios de manera que pueden combinarse las imágenes simultáneas de las dos capas de imagen (L1, L2). En otros tiempos, las dos capas de imagen (L1, L2) no contienen datos de imagen 3D dependientes suplementarios entre sí y por tanto no pueden combinarse cuando, por ejemplo, se realiza desoclusión. Esto se indica mediante el indicador de dependencia que se incluye también en el flujo de bits y que indica si la información en las dos capas de imagen corresponde a imágenes que representan información tridimensional suplementaria, interrelacionada o si indica que la información en las dos capas de imagen no tienen ninguna información tridimensional correlacionada. Se apreciará que el indicador de dependencia normalmente se aplicará igualmente a las capas de profundidad (D-L1, D-L2) que tenderán también a ser dependientes cuando las dos capas de imagen (L1, L2) son dependientes e independientes por lo demás.
Antes del fundido encadenado (t<t1) (no mostrado), la primera capa de imagen comprende una imagen de primer plano y la segunda capa de imagen comprende una imagen de fondo. De manera similar, los mapas de indicación de profundidad reflejan las imágenes de primer plano y de fondo y el mapa de transparencia corresponde al primer plano. El indicador de dependencia se ajusta a 0 para reflejar que las capas son dependientes y se usa procesamiento 3D entre capas. Por tanto, puede usarse procesamiento 3D entre capas convencional para generar una imagen correspondiente a una vista diferente. Por ejemplo, puede realizarse desoclusión entre capas.
A tiempo t1, se combinan las dos capas de imagen para generar una única imagen de primer plano y de fondo combinada, mixta que se incluye en la primera capa de imagen L1. El mapa de indicación de profundidad refleja la profundidad de la imagen mixta y es por tanto una combinación de los mapas de indicación de profundidad de primer plano y de fondo. Por tanto, a tiempo t1, los datos 3D sólo contienen una única imagen de capa y profundidad, y por consiguiente el indicador de dependencia no es relevante (se mantiene por tanto en un valor de 0).
A tiempo t2, se inserta una imagen para la secuencia de imágenes posterior al fundido encadenado en la segunda capa de imagen L2, incluyéndose también el mapa de profundidad correspondiente (D-L2). Esta imagen es también una imagen de primer plano y de fondo combinada y el mapa de indicación de profundidad es un mapa de indicación de profundidad de primer plano y de fondo combinado.
Además, el indicador de dependencia se ajusta a 1 para reflejar que las dos imágenes de las capas de imagen primera y segunda son independientes. Por tanto, la desoclusión y otro procesamiento 3D para la imagen de ángulo de visualización alternativo correspondiente a la primera capa de imagen se basan sólo en la primera capa de imagen y el mapa de indicación de profundidad para la primera capa de imagen. Además, un valor de transparencia uniforme para toda la imagen se ajusta a opacidad completa dando como resultado la imagen reproducida correspondiente a la imagen original de la primera capa de imagen.
El valor de transparencia se cambia entonces gradualmente de opacidad completa a transparencia completa dando como resultado la imagen reproducida que se funde gradualmente de la secuencia de imágenes original a la secuencia de imágenes posterior.
Específicamente, a tiempo T3, el valor de transparencia está a medio camino entre la opacidad completa y la transparencia completa y la imagen reproducida es una mezcla equitativa entre las imágenes de las capas de imagen primera y segunda.
A tiempo t4, el valor de transparencia indica transparencia completa dando como resultado que la primera capa de imagen ya no es visible y correspondiendo completamente la imagen reproducida a la secuencia de imágenes tras el fundido encadenado.
A tiempo t5, la secuencia de imágenes posterior y el mapa de indicación de profundidad asociado se mueven a la primera capa de imagen (correspondiente a la capa de imagen de primer plano) y el valor de transparencia se ajusta a opacidad completa. Además, en esta fase existe sólo una única capa de imagen y por consiguiente la indicación de profundidad puede ajustarse a 0.
El sistema puede proceder entonces a cambiar a una representación de dos capas en la que la secuencia de imágenes se representa mediante dos capas de imagen y mapas de indicación de profundidad asociados.
Se apreciará que las imágenes de las capas de imagen pueden ser, por ejemplo, imágenes estáticas (por ejemplo, las imágenes ilustradas en la figura 6 pueden ser las mismas todas las veces). Sin embargo, en otros ejemplos, las imágenes pueden representar imágenes secuenciales, tales como, por ejemplo, fotogramas de vídeo de una señal de vídeo.
Se apreciará también que el ejemplo de la figura 6 ilustra un fundido encadenado muy básico y que pueden implementarse fácilmente fundidos encadenados más complejos incluyendo diversas transiciones de cortinilla u otros efectos de transición. Por ejemplo, pueden conseguirse fácilmente efectos de transición en los que algunas regiones de imagen muestran partes de una imagen, otras regiones de imagen muestran partes de otra imagen, y aún otras regiones de imagen muestran imágenes mixtas, usando un mapa de transparencia no uniforme. Por ejemplo, en vez de usar un mapa de transparencia que simplemente realiza una transición de opacidad completa a transparencia completa, pueden usarse patrones complejos y que cambian de manera dinámica. Un ejemplo de un fundido encadenado que usa una transición de cortinilla de la imagen se ilustra en la figura 7.
La figura 8 ilustra un ejemplo de cómo puede procesarse una imagen por la unidad 403 de reproducción dependiendo del valor del indicador de dependencia. En el ejemplo, el contenido de imagen de la primera capa L1 se indica mediante una línea discontinua y el contenido de imagen de la segunda capa se indica mediante una línea continua. En el ejemplo, la imagen de la primera capa es una imagen mixta que contiene tanto elementos de un objeto de imagen de primer plano F así como de uno de fondo. En la situación en la que la imagen de L2 es una imagen de fondo para la imagen de L1, la imagen de L2 proporciona una imagen de fondo completa. En este caso, el indicador de dependencia indica que L1 y L2 son dependientes y que por consiguiente la imagen de L2 puede usarse, por ejemplo, para procesamiento de desoclusión.
Por consiguiente, la unidad 403 de reproducción puede generar una primera imagen correspondiente a un ángulo de visualización V. En este caso, el ángulo de visualización corresponde al de las imágenes de las capas y como la imagen de L1 es una imagen mixta, ésta puede usarse directamente. Además, puede reproducirse una segunda imagen correspondiente a un ángulo de visualización diferente A. En este caso la imagen de primer plano F se desplazará en la imagen y cubrirá una parte diferente del fondo. Como consecuencia, puede verse ahora una parte del fondo C que estaba ocluida previamente por el objeto de primer plano F. Como las dos capas son dependientes, la unidad 403 de reproducción procede a determinar los valores de píxel para la imagen reproducida para el ángulo de visualización A usando los valores de píxel para la zona de imagen C de la imagen de fondo proporcionada en L2. Por tanto, se proporciona una imagen mejorada para el ángulo de visualización A.
Sin embargo, si la imagen de L2 no es una capa de fondo para la imagen de L1, este enfoque dará como resultado que la región de imagen se rellena con valores de píxel que no tienen relación con las imágenes de primer plano o de fondo. Por consiguiente, se introducirá un artefacto visible y dará como resultado una calidad de imagen reducida.
Sin embargo, según el enfoque actual, el indicador de dependencia indicará en este caso que las dos capas son independientes. Esto informará a la unidad 403 de reproducción de que no pueden usar los datos de imagen simultánea de L2 para realizar desoclusión para la imagen de L1. Por tanto, en su lugar, la unidad 403 de reproducción procede a realizar desoclusión para la imagen L1 basándose , por ejemplo, en la imagen de L1 (por ejemplo, copiando valores de píxel adyacentes o la textura de regiones de imagen del fondo B de L1) o usando imágenes almacenadas (por ejemplo, una capa de fondo previa). Por tanto, el procesamiento de desoclusión puede adaptarse automáticamente para reflejar la derivación óptima de zonas de imagen desocluidas dando como resultado de este modo una calidad de imagen mejorada.
Se apreciará que en algunas realizaciones, al menos una de las capas de imagen que se transmiten puede comprender imágenes que son en sí mismas una combinación de imágenes independientes. Por ejemplo, la figura 9 ilustra un ejemplo que corresponde directamente al de la figura 6. Sin embargo, en este ejemplo, se incluyen diferentes capas en los datos 3D generados que se distribuyen a dispositivos de reproducción. En el ejemplo, la primera capa de imagen L1 corresponde a la imagen combinada/compuesta que incluye contribuciones procedentes tanto de las imágenes antes del fundido encadenado así como de imágenes posteriores al fundido encadenado (y a imágenes mixtas de primer plano y de fondo fuera del fundido encadenado). En este caso, la primera capa de imagen, por ejemplo, en t3, contiene en sí misma una imagen compuesta que comprende contribuciones procedentes de imágenes que son independientes entre sí (es decir, las imágenes de antes y después del fundido encadenado). Además, en el ejemplo, la segunda capa de imagen L2 contiene una imagen que es idéntica a una imagen que está incluida en la imagen compuesta. Sin embargo, aunque esto puede reproducir las imágenes simultáneas de la capa de imagen primera y segunda correlacionadas, las dos capas no contienen, durante el fundido encadenado, datos de imagen tridimensional que se complementan y suplementan entre sí (más bien, la imagen de L2 es idéntica a la imagen fundida incluida en la imagen compuesta de L1). Específicamente, la imagen en una capa de imagen no incluye ningún dato de imagen para un plano de imagen complementario de un plano de imagen representado por los datos de imagen de la otra capa de imagen.
En el ejemplo, una primera capa de profundidad D-L1 comprende además una capa de profundidad compuesta que proporciona información de profundidad para la imagen compuesta de L1. Además, en el ejemplo, la imagen de primer plano y el mapa de profundidad asociado (las dos filas superiores de la figura 9) no están incluidos en sí mismos en los datos 3D sino que sólo se usan para generar los datos para las capas compuestas L1 y DL1.
Además, se genera una capa de transparencia que refleja la transparencia de la imagen de primer plano con relación a la imagen de L2. Por tanto, este mapa de transparencia proporciona una indicación de la contribución relativa de la imagen anterior al fundido encadenado y la imagen posterior al fundido encadenado a la imagen compuesta de L1.
El indicador de dependencia se genera de la misma manera que anteriormente, es decir, para indicar si las capas de imagen contienen o no datos 3D suplementarios que corresponden a diferentes planos de imagen y que, por tanto, pueden usarse para realizar, por ejemplo, desoclusión.
Por tanto, en el ejemplo específico de la figura 9, 3D pueden generarse datos de señalización que comprenden:
una primera capa de imagen que comprende datos de imagen que al menos para algunas imágenes representan una imagen compuesta que comprende una contribución procedente de una pluralidad de imágenes;
una primera capa de profundidad que comprende un mapa de profundidad compuesto para la imagen compuesta;
una segunda capa de imagen que comprende datos de imagen para una imagen adicional que contribuye a la imagen compuesta;
una segunda capa de profundidad que comprende un mapa de profundidad adicional para la imagen adicional; y
un mapa de transparencia que representa una contribución de la imagen adicional a la imagen compuesta.
Además, se incluye el indicador de dependencia que refleja si una imagen de la segunda capa de imagen comprende al menos una de una imagen de primer plano y una imagen de fondo para al menos una imagen que contribuye a una imagen compuesta de la primera capa de imagen o si la imagen de la segunda capa de imagen no es una de una imagen de primer plano y una imagen de fondo de cualquier imagen que contribuye a la imagen compuesta.
El enfoque descrito puede proporcionar la ventaja de que la imagen de la primera capa de imagen L1 puede usarse directamente en una unidad de reproducción convencional. Por tanto, simplemente usando la imagen de L1, se proporciona una imagen que incluye el fundido encadenado y la combinación de las diferentes imágenes. Sin embargo, al mismo tiempo, puede mejorarse el funcionamiento de una unidad de reproducción que puede aprovechar todos los datos proporcionados. Por tanto, la unidad 403 de reproducción puede recrear, por ejemplo, la imagen mixta original (de la primera fila de la figura 9) basándose en la imagen compuesta y la información de transparencia. Entonces puede proceder a realizar la desoclusión de esta imagen dependiendo del valor del indicador de dependencia. Por tanto, si el indicador de dependencia refleja que L2 proporciona datos de fondo para la imagen derivada, se usa la información para desoclusión y si no se ignora la imagen actual de L2 para este fin.
En los ejemplos descritos, por consiguiente sólo se aplica el procesamiento entre capas cuando el indicador de dependencia es indicativo de que las capas son dependientes y no se aplica cuando la dependencia es indicativa de que las capas son independientes. Se apreciará que en otras realizaciones, no es necesario que el indicador de dependencia sea un valor binario. Por ejemplo, puede ser un parámetro que puede adoptar varios valores diferenciados, correspondiendo cada valor a un conjunto de algoritmos de procesamiento que pueden aplicarse para esta dependencia.
En el ejemplo específico, el procesamiento de imágenes 3D entre capas se activa y se desactiva dependiendo del valor del indicador de dependencia y específicamente se activa y desactiva un procedimiento de desoclusión entre capas (correspondiente al procesamiento de desoclusión que se adapta para que sea un procesamiento o bien de una sola capa o bien entre capas). Sin embargo, en otras realizaciones, el procesamiento 3D entre capas puede adaptarse en respuesta al indicador de dependencia. Por ejemplo, en algunas realizaciones, la determinación de desplazamiento en las diferentes vistas de imagen puede cambiarse entre procesamiento entre capas y procesamiento de una sola capa dependiendo del indicador de dependencia.
En algunas realizaciones, el indicador de dependencia puede indicar si el mapa de indicación de profundidad de las imágenes en las capas de imagen primera y segunda concuerda o no concuerda. Específicamente, cuando las capas de imagen primera y segunda comprenden respectivamente una imagen de primer plano (o mixta) y una imagen de fondo, el mapa de indicación de profundidad para la imagen de fondo (es decir para la segunda capa de imagen) representará siempre una posición más profunda (o la misma) que el píxel correspondiente para el mapa de indicación de profundidad para la imagen de primer plano. Sin embargo, en escenarios en los que las dos capas de imagen no comprenden imágenes de primer plano y de fondo correspondientes sino que comprenden más bien imágenes independientes, tal como durante un fundido encadenado, esta relación entre los mapas de indicación de profundidad puede romperse. En este caso, los valores de indicación de profundidad para la primera capa de imagen pueden ser, en algunas regiones de imagen, menores que los valores de indicación de profundidad correspondientes para la segunda capa de imagen y pueden ser, en otras regiones, mayores que los valores de indicación de profundidad correspondientes para la segunda capa de imagen.
Por consiguiente, el indicador de dependencia puede ajustarse para reflejar si los mapas de indicación de profundidad concuerdan o no concuerdan entre sí. En efecto, en algunas realizaciones puede usarse este criterio para determinar un valor del indicador de dependencia.
La descripción anterior se ha centrado en ejemplos en los que los datos 3D comprenden dos capas de imagen. Sin embargo, en otras realizaciones pueden usarse más de dos capas de imagen. En tales realizaciones, el indicador de dependencia puede proporcionar, por ejemplo, una indicación de la dependencia entre todos los posibles pares de capas de imagen.
En algunas realizaciones, las capas de imagen pueden dividirse de forma dinámica o de forma estática en grupos de capas de imagen, comprendiendo cada grupo de capas de imagen una o más capas de imagen dependientes. Por ejemplo, un grupo de capas de imagen pueden contener dos capas de imagen que contienen capas de imagen dependientes. Otro grupo de capas de imagen también puede contener dos capas de imagen que son dependientes. Sin embargo, la dependencia entre los grupos de capas de imagen puede variar y la dependencia actual entre los grupos de capas de imagen puede indicarse mediante el indicador de dependencia. Por ejemplo, una representación de imagen 3D puede comprender cuatro capas de imagen diferentes que pueden combinarse para proporcionar imágenes para una percepción 3D. Sin embargo, durante un fundido encadenado, la representación puede reducirse a una representación de dos capas tanto para la imagen antes del fundido encadenado como para la imagen tras el fundido encadenado. Tras el fundido encadenado, la representación se aumenta de nuevo a una representación de cuatro capas. Por tanto, antes y después del fundido encadenado, el procesamiento 3D puede usar las cuatro capas. Sin embargo, durante fundido encadenado, dos grupos de capas de imagen de cada dos capas de imagen comprenden imágenes independientes. Por consiguiente, durante el fundido encadenado, el procesamiento 3D de cada imagen se reduce a un procesamiento de dos capas. En tal ejemplo, el indicador de dependencia puede indicar si los grupos de imagen son dependientes o no, y el procesamiento 3D puede adaptarse en respuesta a esto. Como otro ejemplo, puede usarse una representación de vídeo de dos capas antes y después de un fundido encadenado con una señal de cuatro capas que comprende dos representaciones de vídeo de dos capas que están usándose durante el fundido encadenado. El indicador de dependencia puede indicar entonces la dependencia dentro de cada vídeo de 2 capas, pero la independencia entre los dos vídeos durante el fundido encadenado.
Por tanto, para más capas, el indicador de dependencia puede ser un indicador basado en grupos. Además, en algunas realizaciones, los datos 3D pueden estructurarse según los grupos de capas de imagen. Por ejemplo, las capas de imagen dentro de cada grupo pueden disponerse de manera que sean adyacentes. Por ejemplo, el combinador 215 de datos puede disponerse para ordenar datos para capas de imagen de manera que las capas de imagen que pertenecen al mismo grupo de capas de imagen sean adyacentes. En tales realizaciones, el indicador de dependencia puede indicar simplemente una ubicación en los datos 3D del siguiente grupo de capas de imagen independientes.
Por ejemplo, un flujo de datos 3D puede comprender seis capas de imagen numeradas como las capas de imagen 1-6. En algunos escenarios, todas las capas pueden ser dependientes y esto puede reflejarse mediante el indicador de dependencia que se ajusta a cero. En otros escenarios, las capas de imagen pueden dividirse en dos grupos de capas de imagen independientes que contienen cada una de ellos tres capas de imagen. El primer grupo de capas de imagen usarán las capas 1-3 y el segundo grupo de capas de imagen usarán las capas 4-6. Esto puede indicarse simplemente ajustando el indicador de dependencia a un valor de 4. En otros escenarios, las capas de imagen pueden dividirse en tres grupo de capas de imagen independientes (que comprenden las capas de imagen 1-2, 3-4 y 5-6 respectivamente). Esto puede comunicarse ajustando el indicador de dependencia a un valor de (3,5).
Por tanto, puede lograrse una representación altamente eficaz de la información de dependencia dando como resultado una baja sobrecarga de señalización.
Se apreciará que la descripción anterior por claridad ha descrito realizaciones de la invención con referencia a diferentes unidades funcionales y procesadores. Sin embargo, resultará evidente que puede usarse cualquier distribución adecuada de funcionalidad entre diferentes unidades funcionales o procesadores sin apartarse de la invención. Por ejemplo, puede realizarse la funcionalidad ilustrada que ha de realizarse por procesadores o controladores separados, por el mismo procesador o controladores. Por tanto, las referencias a unidades funcionales específicas sólo han de considerarse como referencias a medios adecuados para proporcionar la funcionalidad descrita en vez de indicativas de una organización o estructura física o lógica estricta.
La invención puede implementarse en cualquier forma adecuada incluyendo hardware, software, firmware o cualquier combinación de éstos. La invención puede implementarse opcionalmente al menos parcialmente como software informático que se ejecuta en uno o más procesadores de datos y/o procesadores de señales digitales. Los elementos y componentes de una realización de la invención pueden implementarse de manera física, funcional y lógica de cualquier manera adecuada. En efecto, la funcionalidad puede implementarse en una única unidad, en una pluralidad de unidades o como parte de otras unidades funcionales. Como tal, la invención puede implementarse en una única unidad o puede distribuirse de manera física y funcional entre diferentes unidades y procesadores.
Aunque la presente invención se ha descrito con relación a algunas realizaciones, no pretende limitarse a la forma específica expuesta en el presente documento. Más bien, el alcance de la presente invención está limitado sólo por las reivindicaciones adjuntas. Adicionalmente, aunque una característica pueda parecer que se describe con relación a realizaciones particulares, un experto en la técnica reconocería que pueden combinarse diversas características de las realizaciones descritas según la invención. En las reivindicaciones, el término que comprende no excluye la presencia de otros elementos o etapas.
Además, aunque se enumeren de manera individual, una pluralidad de medios, elementos o etapas del método pueden implementarse, por ejemplo, por una única unidad o procesador. Adicionalmente, aunque puedan incluirse 5 características individuales en diferentes reivindicaciones, éstas posiblemente puedan combinarse ventajosamente, y la inclusión en diferentes reivindicaciones no implica que una combinación de características no sea factible y/o ventajosa. Tampoco la inclusión de una característica en una categoría de reivindicaciones implica una limitación a esta categoría sino que indica más bien que la característica es igualmente aplicable a otras categorías de reivindicaciones según sea apropiado. Además, el orden de las características en las reivindicaciones no implica 10 ningún orden específico en el que deba trabajarse con las características y, en particular, el orden de las etapas individuales en una reivindicación de método no implica que las etapas deban realizarse en este orden. Más bien, las etapas pueden realizarse en cualquier orden adecuado. Además, las referencias en singular no excluyen una pluralidad. Por tanto las referencias a “un/uno”, “una”, “primero/primera”, “segundo/segunda” etc. no descartan una pluralidad. Los símbolos de referencia en las reivindicaciones se proporcionan meramente como un ejemplo
15 clarificador, no deben interpretarse como limitativos del alcance de las reivindicaciones en modo alguno.

Claims (21)

  1. REIVINDICACIONES
    1. Método de generación de datos de imagen tridimensional que comprenden una pluralidad de capas de imagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional, comprendiendo el método:
    proporcionar (301) primeros datos de imagen para una primera capa de imagen;
    proporcionar (303) segundos datos de imagen para una segunda capa de imagen;
    proporcionar (305) datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen;
    generar (307) un indicador de dependencia, siendo el indicador de dependencia indicativo y
    generar (309) los datos de imagen tridimensional que comprenden los primeros datos de imagen, los segundos datos de imagen, los datos de indicación de profundidad y el indicador de dependencia.
  2. 2.
    Método según la reivindicación 1, en el que el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes cuando la primera capa de imagen es una capa de oclusión para la segunda imagen.
  3. 3.
    Método según la reivindicación 2, en el que el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes cuando la primera capa de imagen no es una capa de oclusión para la segunda imagen.
  4. 4.
    Método según la reivindicación 1, en el que los datos de indicación de profundidad comprenden un primer mapa de indicación de profundidad para la primera capa de imagen y un segundo mapa de indicación de profundidad para la segunda capa de imagen; y en el que el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes cuando los valores de indicación de profundidad del primer mapa de indicación de profundidad no concuerdan con los valores de indicación de profundidad del segundo mapa de indicación de profundidad.
  5. 5.
    Método según la reivindicación 4, en el que los valores de indicación de profundidad del primer mapa de indicación de profundidad no concuerdan con los valores de indicación de profundidad del segundo mapa de indicación de profundidad si los valores de indicación de profundidad del primer mapa de indicación de profundidad representan niveles de profundidad más profundos que los valores de indicación de profundidad del segundo mapa de indicación en al menos una región de imagen y los valores de indicación de profundidad del segundo mapa de indicación de profundidad representan niveles de profundidad más profundos que los valores de indicación de profundidad del primer mapa de indicación en al menos otra región de imagen.
  6. 6.
    Método según la reivindicación 1, en el que el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes cuando la primera capa de imagen y la segunda capa de imagen comprenden imágenes de fundido encadenado, y es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes cuando la primera capa de imagen y la segunda capa de imagen no comprenden imágenes de fundido encadenado.
  7. 7.
    Método según la reivindicación 1, en el que el indicador de dependencia es un valor de datos binarios que tiene un primer valor que indica que la primera capa de imagen y la segunda capa de imagen son dependientes y un segundo valor que indica que la primera capa de imagen y la segunda capa de imagen son independientes.
  8. 8.
    Método según la reivindicación 7, en el que el indicador de dependencia se ajusta al primer valor si la primera capa de imagen comprende una imagen de primer plano para una imagen de la segunda capa de imagen y al segundo valor si la primera capa de imagen no comprende una imagen de primer plano para la imagen de la segunda capa de imagen.
  9. 9.
    Método según la reivindicación 1, en el que la primera capa de imagen pertenece a un primer grupo de capas de imagen y la segunda capa de imagen pertenece a un segundo grupo de capas de imagen, comprendiendo al menos uno del primer grupo de capas de imagen y el segundo grupo de capas de imagen una pluralidad de capas de imagen; y el indicador de dependencia es indicativo de una dependencia entre capas de imagen del primer grupo de capas de imagen y capas de imagen del segundo grupo de capas de imagen.
  10. 10.
    Método según la reivindicación 9, en el que las capas de imagen de un grupo de capas de imagen son
    capas de imagen dependientes.
  11. 11.
    Método según la reivindicación 1, que comprende además proporcionar datos de transparencia para al menos una de la primera capa de imagen y la segunda capa de imagen e incluir los datos de transparencia en los datos de imagen tridimensional.
  12. 12.
    Método de reproducción de elementos de imagen, que comprende:
    recibir (501) datos de imagen tridimensional que comprenden primeros datos de imagen para una primera capa de imagen, segundos datos de imagen para una segunda capa de imagen, datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen, y un indicador de dependencia indicativo de si una primera imagen de la primera capa de imagen contiene datos de imagen en capas tridimensional suplementarios para una segunda imagen simultánea de la segunda capa de imagen; y
    reproducir (503) elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional mediante el procesamiento de los primeros datos de imagen, los segundos datos de imagen y los datos de indicación de profundidad en respuesta al indicador de dependencia.
  13. 13.
    Método según la reivindicación 12, en el que reproducir (503) comprende realizar procesamiento de imagen tridimensional entre capas de imágenes simultáneas de la primera capa de imagen y la segunda capa de imagen sólo cuando el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes.
  14. 14.
    Método según la reivindicación 12, en el que reproducir (503) comprende realizar desoclusión para una primera imagen de la primera capa de imagen utilizando información procedente de una segunda imagen de la segunda capa de imagen sólo si el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes.
  15. 15.
    Método según la reivindicación 12, en el que reproducir (503) comprende combinar una primera imagen de la primera capa de imagen y una segunda imagen de la segunda capa de imagen, siendo la combinación en respuesta a la información de imagen tridimensional cuando el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son dependientes y no siendo en respuesta a la información de imagen tridimensional cuando el indicador de dependencia es indicativo de que la primera capa de imagen y la segunda capa de imagen son independientes.
  16. 16.
    Aparato para generar datos de imagen tridimensional que comprenden una pluralidad de capas de imagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional, comprendiendo el aparato:
    medios (203) para proporcionar primeros datos de imagen para una primera capa de imagen;
    medios (205) para proporcionar segundos datos de imagen para una segunda capa de imagen;
    medios (209, 211) para proporcionar datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen;
    medios (213) para generar un indicador de dependencia indicativo de si una primera imagen de la primera capa de imagen contiene datos de imagen en capas tridimensional suplementarios para una segunda imagen simultánea de la segunda capa de imagen; y
    medios (215) para generar los datos de imagen tridimensional que comprenden los primeros datos de imagen, los segundos datos de imagen, los datos de indicación de profundidad y el indicador de dependencia.
  17. 17. Aparato para reproducir elementos de imagen, comprendiendo el aparato:
    medios (401) para recibir datos de imagen tridimensional que comprenden primeros datos de imagen para una primera capa de imagen, segundos datos de imagen para una segunda capa de imagen, datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen, y un indicador de dependencia indicativo de si una primera imagen de la primera capa de imagen contiene datos de imagen en capas tridimensional suplementarios para una segunda imagen simultánea de la segunda capa de imagen; y
    medios (403) para reproducir elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional mediante el procesamiento de los primeros datos de imagen, los segundos datos de imagen y los datos de indicación de profundidad en respuesta al indicador de dependencia.
  18. 18. Señal de imagen que comprende:
    primeros datos de imagen para una primera capa de imagen;
    segundos datos de imagen para una segunda capa de imagen;
    datos de indicación de profundidad para al menos una de la primera capa de imagen y la segunda capa de imagen; y
    un indicador de dependencia indicativo de si una primera imagen de la primera capa de imagen contiene datos de imagen en capas tridimensional suplementarios para una segunda imagen simultánea de la segunda capa de imagen.
  19. 19.
    Producto de programa informático que permite a un procesador llevar a cabo el método según cualquiera de las reivindicaciones 1 a 15.
  20. 20.
    Método de generación de datos de imagen tridimensional que comprenden una pluralidad de capas de imagen para su uso en la reproducción de elementos de imagen de vistas de una imagen tridimensional, comprendiendo el método:
    proporcionar una primera capa de imagen que comprende datos de imagen que al menos para algunas imágenes representan una imagen compuesta que comprende una contribución procedente de una pluralidad de imágenes;
    proporcionar una primera capa de profundidad que comprende un mapa de profundidad compuesto para la imagen compuesta;
    proporcionar una segunda capa de imagen que comprende datos de imagen para una imagen adicional que contribuye a la imagen compuesta;
    proporcionar una segunda capa de profundidad que comprende un mapa de profundidad adicional para la imagen adicional;
    proporcionar un mapa de transparencia que representa una contribución de la imagen adicional a la imagen compuesta;
    generar un indicador de dependencia que refleja si una imagen de la segunda capa de imagen comprende al menos una de una imagen de primer plano y una imagen de fondo para al menos una imagen que contribuye a una imagen compuesta de la primera capa de imagen o si la imagen de la segunda capa de imagen no es una de una imagen de primer plano y una imagen de fondo de cualquier imagen que contribuye a la imagen compuesta; y
    generar los datos de imagen tridimensional que comprenden la primera capa de imagen, la primera capa de profundidad, la segunda capa de imagen, la segunda capa de profundidad, el mapa de transparencia y el indicador de dependencia.
  21. 21. Método de reproducción de elementos de imagen que comprende:
    recibir datos de imagen tridimensional que comprenden:
    una primera capa de imagen que comprende datos de imagen que al menos para algunas imágenes representan una imagen compuesta que comprende una contribución procedente de una pluralidad de imágenes;
    una primera capa de profundidad que comprende un mapa de profundidad compuesto para la imagen compuesta;
    una segunda capa de imagen que comprende datos de imagen para una imagen adicional que contribuye a la imagen compuesta;
    una segunda capa de profundidad que comprende un mapa de profundidad adicional para la imagen adicional;
    un mapa de transparencia que representa una contribución de la imagen adicional a la imagen compuesta;
    un indicador de dependencia que refleja si una imagen de la segunda capa de imagen comprende al menos
    5 una de una imagen de primer plano y una imagen de fondo para al menos una imagen que contribuye a una imagen compuesta de la primera capa de imagen o si la imagen de la segunda capa de imagen no es una de una imagen de primer plano y una imagen de fondo de cualquier imagen que contribuye a la imagen compuesta; y
    10 reproducir elementos de imagen de vistas múltiples de los datos de imagen tridimensional para su uso en la visualización de una imagen tridimensional mediante el procesamiento tridimensional de los datos de imagen tridimensional en el que la desoclusión para una imagen de la primera capa de imagen es en respuesta a una imagen simultánea de la segunda capa de imagen sólo si el indicador de dependencia es indicativo de que la imagen de la segunda capa de imagen es al menos una de una imagen de fondo y una
    15 imagen de primer plano de una imagen que contribuye a la imagen de la primera capa de imagen.
ES09787237T 2008-09-25 2009-09-18 Procesamiento de datos de imagen tridimensional Active ES2390253T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08165060 2008-09-25
EP08165060 2008-09-25
PCT/IB2009/054088 WO2010035193A1 (en) 2008-09-25 2009-09-18 Three dimensional image data processing

Publications (1)

Publication Number Publication Date
ES2390253T3 true ES2390253T3 (es) 2012-11-08

Family

ID=41401844

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09787237T Active ES2390253T3 (es) 2008-09-25 2009-09-18 Procesamiento de datos de imagen tridimensional

Country Status (9)

Country Link
US (1) US8890868B2 (es)
EP (1) EP2342693B1 (es)
JP (1) JP5583127B2 (es)
KR (1) KR101648206B1 (es)
CN (1) CN102165495B (es)
ES (1) ES2390253T3 (es)
PL (1) PL2342693T3 (es)
TW (1) TW201021543A (es)
WO (1) WO2010035193A1 (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100088325A1 (en) 2008-10-07 2010-04-08 Microsoft Corporation Streaming Queries
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
KR101940023B1 (ko) * 2009-02-19 2019-01-21 톰슨 라이센싱 3d 비디오 포맷
US9158816B2 (en) 2009-10-21 2015-10-13 Microsoft Technology Licensing, Llc Event processing with XML query based on reusable XML query template
TWI398158B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 產生立體影像之影像深度的方法
CN102156999B (zh) * 2010-02-11 2015-06-10 腾讯科技(深圳)有限公司 一种用户界面的生成方法和装置
JP5025786B2 (ja) * 2010-12-21 2012-09-12 株式会社東芝 画像処理装置、及び画像処理方法
GB2489674A (en) * 2011-03-29 2012-10-10 Sony Corp 3D image generation
JP5355616B2 (ja) * 2011-04-21 2013-11-27 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
JP5291755B2 (ja) * 2011-04-21 2013-09-18 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
JP5577305B2 (ja) * 2011-08-05 2014-08-20 株式会社ソニー・コンピュータエンタテインメント 画像処理装置
US9100642B2 (en) * 2011-09-15 2015-08-04 Broadcom Corporation Adjustable depth layers for three-dimensional images
US8243102B1 (en) 2011-10-12 2012-08-14 Google Inc. Derivative-based selection of zones for banded map display
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9035880B2 (en) 2012-03-01 2015-05-19 Microsoft Corporation Controlling images at hand-held devices
US9785201B2 (en) 2012-03-01 2017-10-10 Microsoft Technology Licensing, Llc Controlling images at mobile devices using sensors
CZ308335B6 (cs) * 2012-08-29 2020-05-27 Awe Spol. S R.O. Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění
US10027947B2 (en) * 2013-06-05 2018-07-17 Sony Corporation Image processing apparatus and image processing method
US9772764B2 (en) 2013-06-06 2017-09-26 Microsoft Technology Licensing, Llc Accommodating sensors and touch in a unified experience
EP3192259A4 (en) * 2014-09-09 2018-05-16 Nokia Technologies Oy Stereo image recording and playback
US9984494B2 (en) * 2015-01-26 2018-05-29 Uber Technologies, Inc. Map-like summary visualization of street-level distance data and panorama data
CN105989574A (zh) * 2015-02-25 2016-10-05 光宝科技股份有限公司 图像处理装置及图像景深处理方法
KR102689919B1 (ko) 2015-08-18 2024-07-30 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
KR20170025058A (ko) 2015-08-27 2017-03-08 삼성전자주식회사 영상 처리 장치 및 이를 포함하는 전자 시스템
US10489915B2 (en) * 2017-04-01 2019-11-26 Intel Corporation Decouple multi-layer render fequency
CN113542847B (zh) * 2020-04-21 2023-05-02 抖音视界有限公司 图像显示方法、装置、设备及存储介质
CN111899192B (zh) 2020-07-23 2022-02-01 北京字节跳动网络技术有限公司 交互方法、装置、电子设备及计算机可读存储介质
KR20220164027A (ko) * 2020-07-29 2022-12-12 구글 엘엘씨 프로그레시브 이미지 오버스무딩

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280337A (en) 1992-10-13 1994-01-18 The Grass Valley Group, Inc. Depth-based video combining
JP3620069B2 (ja) * 1994-06-28 2005-02-16 ソニー株式会社 信号変換装置および方法
US6249616B1 (en) * 1997-05-30 2001-06-19 Enroute, Inc Combining digital images based on three-dimensional relationships between source image data sets
JPH11195132A (ja) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> テクスチャマッピング用バッファ、3次元グラフィクス処理装置、3次元グラフィクス処理システム、3次元グラフィクス処理方法および処理プログラムが記憶された記憶媒体
US6266068B1 (en) * 1998-03-13 2001-07-24 Compaq Computer Corporation Multi-layer image-based rendering for video synthesis
JPH11339008A (ja) * 1998-05-26 1999-12-10 Matsushita Electric Ind Co Ltd 画像処理装置
US6611268B1 (en) * 2000-05-30 2003-08-26 Microsoft Corporation System and process for generating 3D video textures using video-based rendering techniques
US7095905B1 (en) * 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
KR20030064703A (ko) * 2003-07-11 2003-08-02 홍길천 추출 및 합성을 통한 3차원 매체 제작기법
CN100483463C (zh) * 2003-09-17 2009-04-29 皇家飞利浦电子股份有限公司 用于在3-d图像显示屏上显示3-d图像的系统和方法
US7015926B2 (en) 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
JP4591955B2 (ja) * 2004-10-20 2010-12-01 Kddi株式会社 自由視点映像の隠蔽領域補完装置
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7774430B2 (en) 2005-11-14 2010-08-10 Graphics Properties Holdings, Inc. Media fusion remote access system
US20080007567A1 (en) 2005-12-18 2008-01-10 Paul Clatworthy System and Method for Generating Advertising in 2D or 3D Frames and Scenes
CN101271583B (zh) * 2008-04-28 2010-04-21 清华大学 一种基于深度图的快速图像绘制方法
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format

Also Published As

Publication number Publication date
KR20110059777A (ko) 2011-06-03
CN102165495A (zh) 2011-08-24
EP2342693B1 (en) 2012-07-25
EP2342693A1 (en) 2011-07-13
JP5583127B2 (ja) 2014-09-03
JP2012503813A (ja) 2012-02-09
KR101648206B1 (ko) 2016-08-12
PL2342693T3 (pl) 2012-12-31
CN102165495B (zh) 2014-11-26
WO2010035193A1 (en) 2010-04-01
US20110169823A1 (en) 2011-07-14
TW201021543A (en) 2010-06-01
US8890868B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
ES2390253T3 (es) Procesamiento de datos de imagen tridimensional
JP5173028B2 (ja) シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号
RU2551789C2 (ru) Выбор точек обзора для формирования дополнительных видов в 3d видео
ES2700227T3 (es) Puntos de entrada para modo de reproducción en 3D
TW201029442A (en) View synthesis with heuristic view merging
JP2011103589A5 (es)
US20150365645A1 (en) System for generating intermediate view images
CN105723705A (zh) 用于自动立体多视图显示器的图像的生成
KR20140130435A (ko) 3d 디스플레이를 위한 디스플레이 프로세서
US9967537B2 (en) System for generating intermediate view images
US9621870B2 (en) Temporal cadence perturbation for time-division stereoscopic displays
KR101539232B1 (ko) 3차원 그래픽 생성 방법 및 장치
US8849011B2 (en) Video processing system and method thereof for compensating boundary of image
KR20090093734A (ko) 다시점 영상을 위한 부가 정보를 포함하는 데이터스트림부호화 방법 및 그 장치, 그리고 이를 이용한 데이터스트림복호화 방법 및 장치