ES2562924T3 - Un procedimiento de procesamiento de información de paralaje comprendida en una señal - Google Patents

Un procedimiento de procesamiento de información de paralaje comprendida en una señal Download PDF

Info

Publication number
ES2562924T3
ES2562924T3 ES09787345.9T ES09787345T ES2562924T3 ES 2562924 T3 ES2562924 T3 ES 2562924T3 ES 09787345 T ES09787345 T ES 09787345T ES 2562924 T3 ES2562924 T3 ES 2562924T3
Authority
ES
Spain
Prior art keywords
parallax
information
transform
depth
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09787345.9T
Other languages
English (en)
Inventor
Bart G. B. Barenbrug
Christian Benien
Harald H. A. Van Woerkom
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2562924T3 publication Critical patent/ES2562924T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un procedimiento de procesamiento de una señal, que comprende: recibir una señal (901) que comprende información de paralaje, información de imagen (301) y metadatos, obtener una primera transformada de información de paralaje de la señal indicativa de un primer rango de profundidad para la información de imagen (303), en el que la primera transformada de información de paralaje se obtiene de los metadatos, o la primera transformada de información de paralaje es una transformada de información de identidad de la información de paralaje recibida, siendo la transformada de información de identidad la transformación de identidad de la información de paralaje, obtener una segunda transformada de información de paralaje de la señal indicativa de un segundo rango de profundidad para la información de imagen (305), en el que la segunda transformada de información de paralaje se obtiene de los metadatos, determinar una transformada de información de paralaje objetivo que coincide con un rango de profundidad objetivo de un dispositivo de visualización objetivo por medio del procesamiento de la primera transformada de información de paralaje y la segunda transformada de información de paralaje (307), usándose la primera transformada de información de paralaje y la segunda transformada de información de paralaje como entrada en la generación de la transformada de información de paralaje objetivo, adaptándose la transformada de información de paralaje objetivo para generar una señal actualizada que coincide con el rango de profundidad del dispositivo de visualización objetivo, en el que las transformadas de información de paralaje indicativas de un rango de profundidad definen una transformación de la información de paralaje para coincidir con el rango de profundidad.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
10
15
20
25
30
35
40
45
50
55
60
de oclusión le dice que el objeto está oculto detrás del borde de la pantalla y, por lo tanto, debe estar detrás de la pantalla. En menor medida, también puede parecer no natural tener objetos cortados en el borde superior o inferior.
Actualmente, únicamente una pantalla IMAX es suficientemente ancha para que las personas no tengan que preocuparse sobre violaciones de ventana en los bordes izquierdo/derecho. En las pantallas de cine normales (aprox. 10 m de ancho), las violaciones de ventana empiezan a convertirse en un problema y en los aparatos de televisión 3D el problema es inevitable. Observando las ecuaciones anteriores, se puede ver que para conseguir el mismo efecto 3D en términos de profundidad relativa, el paralaje de pantalla físico es idéntico independientemente del tamaño de la pantalla. Para mostrar objetos infinitamente lejanos en un cine, las imágenes izquierda y derecha se desplazan en xB = 65 mm. Esto es aproximadamente el 0,5 % de la ancho de pantalla. Para mostrar objetos infinitamente lejanos en una TV 3D, las imágenes izquierda y derecha también se desplazan 65 mm, pero ahora el desplazamiento es casi el 5 % del ancho de pantalla. Para mostrar un objeto que flota delante de la pantalla a una distancia relativa del 25 %, se necesita un margen de al menos el 1,5 % del ancho de una pantalla de cine, pero un margen del 15 % para una TV. Por lo tanto, es mucho más difícil tener objetos suspendidos delante de la nariz de las personas con una TV 3D. Únicamente funciona para objetos que están más o menos en el centro de la pantalla.
La conclusión es que las pantallas de menor tamaño limitan automáticamente la cantidad de profundidad que puede mostrarse.
El otro problema importante es el desajuste de acomodación/convergencia. Independientemente de que el objeto parezca estar detrás o delante de la pantalla, todavía hay que enfocar los ojos en la pantalla. En pocas palabras, solo se usa una de las pistas de profundidad absoluta en la proyección estereoscópica, y esta contradice a la otra. Para un público sin experiencia 3D, la regla general es evitar las disparidades retinianas de más de 1,5 grados. Algo más de 1,5 grados conduce a la fatiga visual, y a veces las personasno pueden fusionar ambas imágenes en una, y no verán ningún efecto 3D. Esto depende principalmente de la calidad de las pistas monoculares de profundidad que nos ayuda a fusionar las imágenes con estereopsis. La disparidad retiniana puede calcularse como se indica a continuación:
 p 
βtan 1 .
 
 D 
De nuevo, el cine 3D tiene ventaja aquí, ya que el paralaje físico p es menor en comparación con la distancia de la pantalla D. Asumiendo una distancia de la pantalla de D = 10 m, entonces la disparidad retiniana para objetos infinitamente lejanos es únicamente aproximadamente 0,37 grados.
Los objetos que flotan a una distancia relativa del 20 % tienen una disparidad retiniana de 1,48 grados, y están aproximadamente tan cerca como uno debería llegar en un cine.
Observando de nuevo las ecuaciones para la profundidad relativa, se asume que un espectador se sienta delante de una pantalla estéreo. Los objetos con una profundidad relativa del 50 % parecen estar a medio camino entre el espectador y la pantalla. Ahora, acercándose a la pantalla -el mismo objeto aún tiene una profundidad relativa del 50 %, pero su profundidad en comparación con el tamaño en la pantalla cambia. El objeto tiene menos profundidad absoluta. Si el espectador se aleja de la pantalla, la profundidad absoluta aumenta. Únicamente en un cierto "punto ideal" el espectador obtiene la relación correcta entre la profundidad y el tamaño 2D. Si el espectador se sienta en esa posición, el campo de visión (es decir, cuán grande la pantalla le aparece a uno) es el mismo que el campo de visión de la cámara. Esta condición también se denomina ortoestereopsis, la reproducción perfecta de la profundidad que se observó por la cámara.
Es posible conseguir esta condición para todos los espectadores. Incluso para un solo espectador, quiere decir que todo el contenido tiene que crearse con una lente de una única cámara y sin zoom. Los espectadores pueden tolerar fácilmente muy poca profundidad, ya que es a lo que están acostumbrados en TV 2D y cine 2D, por lo que deben evitar demasiada profundidad, lo que podría parecer no natural.
Cómo funciona la escala de profundidad para diferentes pantallas:
La escala de profundidad es un proceso de convertir la profundidad almacenada en un formato en el rango de profundidad de la pantalla objetivo. La expresión escala de profundidad quiere decir preferiblemente mapear una disparidad/paralaje con respecto a otra disparidad/paralaje. Diversos formatos, tales como el formato WOWvx, pueden mostrar 3D en cualquier pantalla, para pantallas autoestereoscópicas en teléfonos móviles a una proyección estéreo en cines, usando siempre las capacidades de profundidad total de cada pantalla mientras que la fatiga ocular y las molestias de visión se reducen al mínimo. Sin embargo, se debe advertir que el formato no debería limitarse a un determinado formato 3D, sino que también se pueden usar otros formatos, tal como un fichero 2D plus Depth y formato de interfase.
imagen6
15
25
35
45
55
65
Pantallas limitadas y pantallas más pequeñas:
Las pantallas autoestereoscópicas actuales y pantallas más pequeñas en general tienen un rango de profundidad y paralaje limitado, simplemente porque las pantallas no son suficientemente grandes para mostrar suficiente paralaje sin usar una cantidad significativa del ancho de pantalla, o porque las pantallas autoestereoscópicas multivista tienen que renderizar varias vistas y necesitan un múltiplo del rango de paralaje usado por una pantalla estereoscópica del mismo tamaño.
Para usar este rango de profundidad limitado al máximo, es posible usar uno de los siguientes procedimientos:
No cada toma/escena usa el rango de profundidad completo, y es posible mapear el rango de profundidad de cada toma con respecto el rango de profundidad de la pantalla. No es posible obtener una profundidad consistente en diferentes tomas, y no hay ninguna medida absoluta de la profundidad, pero eso no es apreciable en tales pantallas.
En las tomas que usan el rango de profundidad completo, reducirlo a solo una fracción del rango de profundidad original conduce a un efecto de tarjeta de embarque, donde, por ejemplo, las caras y otros objetos parecen planos. Una buena solución es aumentar la profundidad dentro de los objetos a costa de la profundidad entre objetos. Esto se logra incrustando una transformada de paralaje en el formato.
Los objetos que son el centro de la escena pueden rodearse con un plano cercano y lejano, o un volumen de visualización. En una pantalla limitada, nada detrás del plano lejano se proyecta sobre el plano lejano de la pantalla, y nada delante del plano cercano se recorta/proyecta al plano cercano. Esto también se logra incrustando una transformada de paralaje en el formato.
No siempre se cumplen las condiciones de visualización para un dispositivo de visualización 3D. Esto requerirá que la pantalla sea grande y que deba verse desde una gran distancia y que la separación entre las vistas deba ser muy buena. Sin embargo, estas condiciones de visualización no siempre se cumplen; por lo tanto, a veces una señal de imagen + profundidad puede mostrar un rango paralaje demasiado grande si se pensó para un dispositivo de visualización 3D con capacidades de profundidad menos restrictivas. También puede ser el caso de que el contenido se hizo para una pantalla con un rango de profundidad limitado, lo que quiere decir que podría visualizarse más profundidad en una pantalla menos restrictiva. El estiramiento lineal simple de la profundidad puede progresar notablemente para aumentar o disminuir la cantidad de profundidad, pero a veces se requiere una transformación de paralaje más específica de la escena. Tales mapeos se conocen en la técnica, como se describe, por ejemplo, en "Nick Holliman, Mapping Perceived Depth to Regions of Interest in Stereoscopic Images, in Stereoscopic Displays and Applications XV, 2004, disponible en htty://www.comp.leeds.ac.uk/edemand/publications/hol04a.pdf".
Se proporciona un ejemplo del uso de tal mapeo en las Figs. 4 -6. El lado izquierdo de la Fig. 4 muestra una escena de una carretera que parece estar detrás de la pantalla y que se extiende desde la profundidad de la pantalla hasta el infinito, y el lado derecho, el mapa de paralaje. Muy cerca del espectador está suspendida una pelota. Hay un gran espacio de profundidad entre la pelota y la parte visible de la carretera. El rango de paralaje para todo el rango puede ser, por ejemplo, de -65 mm a 65 mm. Para pantallas con un rango de profundidad limitado, la pelota parece muy plana al modificar la escala de la disparidad linealmente. Sería más agradable que la pelota aproveche todo el espacio disponible delante de la pantalla. Esto puede conseguirse con una transformada de paralaje, como se muestra en la Fig. 5, donde el eje x contiene el paralaje de entrada de la transformada, y el eje y muestra el paralaje de salida. Los valores de paralaje positivo se escalan linealmente (el paralaje positivo está detrás de la pantalla, en este caso se trata de la carretera). Hacer otra cosa que el escalamiento lineal podría causar una discrepancia entre las pistas monoculares y binoculares de profundidad, y una recreación de otras vistas mostrará una carretera curvada/torcida en lugar de una recta. El rango de paralaje de la pelota de -65 mm a, por ejemplo, -40 mm se escala linealmente para usar todo el "espacio" delante de la pantalla limitada. Se elimina el espacio entre el objeto en primer plano y de fondo (el rango de paralaje de -40 mm a 0 mm). Un mapeo de paralaje como se muestra en la Fig. 5 conseguirá esto y dará como resultado un mapa de paralaje modificado (usando una escala de paralaje menor) como se muestra en la Fig. 6. Como se analizará aquí a continuación, la transformada de identidad, es decir, los datos de profundidad real para la visualización de la imagen en la Fig. 4, junto con la transformada suministrada, los datos de profundidad para la visualización de la imagen en la Fig. 6, se usa para obtener una nueva para el rango de visualización de un dispositivo objetivo específico. Se debe advertir que las transformadas de paralaje se usan preferiblemente porque las diferentes pantallas 3D tienen diferentes características de visualización del rango de profundidad. Por ejemplo, en pantallas de menor tamaño, el rango de profundidad es generalmente más pequeño que en una gran pantalla cinematográfica, donde se pueden tener objetos casi tocando la nariz del espectador.
Otro ejemplo de un mapeo de paralaje se muestra en la Fig. 7, que identifica un rango de intereses entre un plano lejano y cercano al que se asigna el rango de profundidad de la pantalla, recortando cualquier valor de profundidad fuera de ese rango.
Se debe advertir que recibiendo tal mapa de paralaje como se muestra en la Fig. 4 (la Fig. derecha), de este mapa de paralaje es posible obtener dicho mapeo (en este caso el mapeo de identidad) del mapa de paralaje, por ejemplo
10
15
20
25
30
35
40
45
50
55
60
la transformada de paralaje caracterizada por (-65 mm, 65 mm), (65 mm, 65 mm), en lugar del mapeo que se muestra en la Fig. 5.
Como se describe en la solicitud de patente no publicada EP 07116278.8 (Expediente del abogado PH008849EP1), presentada el 13 de septiembre de 2007, es ventajoso enviar transformadas de paralaje que describan estos mapeos junto con mapas de profundidad para que el mapeo pueda aplicarse (o no) en el extremo receptor donde se conocen las condiciones de visualización y las propiedades de la pantalla 3D. De esta manera, el contenido puede verse en las pantallas con una variedad de capacidades de rango de paralaje porque los mapas de paralaje todavía pueden adaptarse a la pantalla 3D y las condiciones de visualización. Así, la imagen y la profundidad de la Fig. 4 podrían acompañarse de información que describe la transformada de paralaje que se muestra en la Fig. 5 o, por el contrario, si el mapa de profundidad de la Fig. 6 tuviese el contenido codificado, la inversa de la transformada que se muestra en la Fig. 5 podría enviarse como metadatos para permitir la reconstrucción del mapa de profundidad mostrado en la Fig. 4.
Además, la señal de profundidad original (o más bien los metadatos como la escala de paralaje y la compensación en MPEGC parte 3) da lugar a un rango de paralaje, mientras que aplicar la transformada de paralaje proporcionada como se describe en el documento PH008849EP1, da como resultado una segunda señal de profundidad con un segundo rango de paralaje.
En un modo de realización, el objetivo de la presente invención es abordar el escenario donde ninguno de dichos rangos de paralaje, es decir, ni el rango de paralaje de la señal de profundidad original ni el segundo rango de paralaje, coincide con el rango de paralaje de una pantalla 3D objetivo. En tal situación, una transformada novedosa puede computarse a partir de dos transformadas (por ejemplo, la transformada proporcionada y la transformada de identidad) por interpolación (o extrapolación de ser necesario). De esta manera, el rango de profundidad de la señal puede ajustarse al rango de paralaje disponible de una pantalla 3D.
La Fig. 3 muestra un diagrama de flujo de un procedimiento de acuerdo con la presente invención para procesar la información de paralaje comprendida en una señal.
En la etapa (S1) 301, se recibe una señal que incluye un mapa de paralaje asociado a información de imagen adicional.
En la etapa (S2) 303, se obtienen primeros datos de la señal indicativa de las limitaciones del primer mapa de paralaje.
Los datos indicativos del mapa de paralaje pueden ser cualquier información de paralaje (también conocida como información de disparidad, que indica la cantidad (horizontal) de desplazamiento entre vistas), o información de distancia (datos indicativos de a qué distancia delante o detrás de la pantalla se sitúa la escena en ese lugar). Las limitaciones del mapa de paralaje pueden incluir, por ejemplo, la distancia de visualización entre un espectador y el dispositivo de visualización 3D, o un parámetro de ubicación que indica la posición del espectador desde el dispositivo de visualización 3D, una combinación de los mismos.
En la etapa (S3) 305, se obtienen segundos datos de la señal indicativa de las limitaciones del segundo mapa de paralaje.
En la etapa (S4) 307, se determinan terceros datos que coinciden con las limitaciones del tercer mapa de paralaje de un dispositivo objetivo por medio del procesamiento de al menos los primeros datos y los segundos datos. Estos terceros datos se adaptan para generar una señal actualizada que coincide con las limitaciones de información del mapa de paralaje del dispositivo objetivo.
En un modo de realización, los primeros datos y los segundos datos son transformadas de información de paralaje y las limitaciones del primer y el segundo mapa de paralaje son los primeros y segundos rangos de profundidad para la información de imagen.
La expresión con información de paralaje puede incluir información relacionada con la profundidad o información relacionada con la disparidad, o una combinación de ambas.
En este modo de realización, los terceros datos son la tercera transformada de información de paralaje y la limitación del tercer mapa de paralaje es un tercer rango de profundidad. En un modo de realización, esta primera transformada de información de paralaje es una transformada de información de identidad del mapa de paralaje recibido, es decir, los datos de profundidad real para la visualización de la imagen, y la al menos segunda transformada de información de paralaje es la transformada de información de paralaje procesada a partir de la transformada de información de identidad (véanse las Figs. 4-6).
imagen7
15
25
35
45
55
65
pantalla" que convierte la información en la memoria en salida de vídeo a una pantalla, o un programa que se ejecuta en un ordenador PC.
La Fig. 9 muestra un dispositivo 900 para procesar la información de paralaje incluida en una señal 901, donde el dispositivo 900 comprende un receptor (R) 910 y un procesador (P) 911. El receptor está adaptado para recibir una señal que comprende un mapa de paralaje asociado a la información de imagen 902. El procesador (P) 911 está adaptado para obtener primeros datos de la señal indicativa de las limitaciones del primer mapa de paralaje, obtener segundos datos de la señal indicativa de las limitaciones del segundo mapa de paralaje, y determinar terceros datos que coinciden con las limitaciones del tercer mapa de paralaje de un dispositivo objetivo 904 por medio del procesamiento de al menos los primeros y los segundos datos. Estos terceros datos se adaptan para generar una señal actualizada que coincide con las limitaciones de información del mapa de paralaje del dispositivo objetivo 904. Las etapas de procesamiento realizadas por el procesador (P) 911 se han analizado ya en el diagrama de flujo de la Fig. 3.
El dispositivo puede ser una parte integral de un decodificador 905, un reproductor de discos Blu-ray 905, un dispositivo de visualización 3D 1000, una pantalla estéreo, un dispositivo de ordenador PC 905, un dispositivo de ordenador portátil, y similares.
Como se representa en la Fig. 9 y como se ha analizado previamente en la Fig. 3, el procesamiento puede realizarse en el lado del dispositivo de visualización (es decir, en el lado del receptor final), o externamente donde los terceros datos se transmiten posteriormente por un transmisor (T) 906 al dispositivo objetivo 904 a través de un canal de comunicación cableado o inalámbrico 907, que está provisto de un receptor 903 para recibir el proceso la información para generar la señal actualizada que coincide con las limitaciones de información del mapa de paralaje del dispositivo objetivo 904. En el caso del procesamiento externamente, el dispositivo de visualización 900 puede estar adaptado para leer, por ejemplo, un fichero .wowvx con una transformada de paralaje en este, y ajustar el modo de salida para un compositor a un modo estéreo para una determinada pantalla (que tiene un determinado rango). De esa manera, el compositor renderizará una imagen izquierda y derecha usando el paralaje ajustado.
Como ejemplo, un disco Blu-ray puede contener vídeo + información de paralaje para un cierto rango de profundidad 3D y una transformada de paralaje que permite mapear la información de paralaje a un nuevo mapa de paralaje que puede usarse para un segundo tipo de pantalla con un rango de profundidad diferente. El reproductor de discos Bluray puede reproducir ese disco, convertir la información del formato comprimido a un formato de visualización y enviar toda esta información a través de, por ejemplo, HDMI para un dispositivo de visualización 3D. El dispositivo de pantalla o el reproductor de discos Blu-ray puede aplicar el procedimiento divulgado en el presente documento para computar una transformada de paralaje novedosa que puede usarse para mapear la información de paralaje al rango de visualización de la pantalla 3D en cuestión (el reproductor de discos Blu-ray podría determinar el rango de visualización de la pantalla a partir de, por ejemplo, la información EDID). Si el reproductor de discos Blu-ray implementase el procedimiento, reemplazaría la transformada de paralaje leída del disco por la transformada novedosa que adecua el dispositivo de visualización 3D al comunicar los datos de vídeo a la pantalla. Como alternativa, el reproductor Blu-ray podría aplicar la transformada de paralaje novedosa a los mapas de paralaje leídos del disco y enviar los nuevos mapas de paralaje a la pantalla en lugar de los leídos del disco. Entonces ya no habría ninguna necesidad de enviar una transformada de paralaje que proporcione compatibilidad para una pantalla 3D que no implemente el procedimiento divulgado en el presente documento. Como alternativa, la transformada de paralaje original del disco se envía a la pantalla 3D y la pantalla 3D realiza el procedimiento divulgado en el presente documento para computar una transformada de paralaje novedosa.
La Fig. 10 muestra dispositivo de visualización tridimensional (3D) 1000 que comprende el dispositivo 900 de la Fig.
9. Este dispositivo de visualización 3D puede ser un sistema de pantalla autoestereoscópico, un sistema de pantalla estereoscópico o una pantalla estéreo.
El procedimiento de acuerdo con la presente invención puede implementarse ventajosamente en una amplia variedad de plataformas de procesamiento. Puede preverse que las implementaciones funcionan en un ordenador de fines generales, un procesador digital de señales u otro procesador programable. Como alternativa, la invención puede implementarse en una implementación de hardware preprogramado incluida en un circuito integrado de aplicación específica.
Aunque la invención se ha ilustrado y descrito en detalle en los dibujos y la descripción anterior, tal ilustración y descripción se han de considerar ilustrativas o ejemplares y no restrictivas; la invención no se limita a los modos de realización divulgados. Se aprecia adicionalmente, como se ha descrito anteriormente con referencia a la Fig. 10, que la invención puede incorporarse en un producto, tal como una pantalla, un decodificador, u otro dispositivo. En el último caso, la invención puede incorporarse en, implementarse en plataformas de procesamiento dirigidas a este mismo propósito y/o plataformas de procesamiento de propósitos más generales.
Otras variaciones a los modos de realización divulgados pueden entenderse y llevarse a cabo por los expertos en la técnica al poner en práctica la invención reivindicada, a partir de un estudio de los dibujos, la divulgación y las
reivindicaciones adjuntas. En las reivindicaciones, la expresión "que comprende" no excluye otros elementos o etapas, y el artículo indefinido "un" o "una" no excluye una pluralidad. Un único procesador u otra unidad pueden cumplir las funciones de varios elementos citados en las reivindicaciones. El mero hecho de que ciertas medidas se citen en reivindicaciones dependientes diferentes entre sí no indica que no pueda utilizarse una combinación de 5 estas medidas de manera más ventajosa. Un programa de ordenador puede almacenarse/distribuirse sobre un medio adecuado, tal como un medio de almacenamiento óptimo o un medio de estado sólido suministrado junto con
o como parte de otro hardware, pero también puede distribuirse de otras formas, tal como a través de Internet y otros sistemas de telecomunicación cableada o inalámbrica. Cualquier signo de referencia en las reivindicaciones no debería interpretarse como limitativo del alcance.
10

Claims (1)

  1. imagen1
    imagen2
ES09787345.9T 2008-10-10 2009-10-01 Un procedimiento de procesamiento de información de paralaje comprendida en una señal Active ES2562924T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08166300 2008-10-10
EP08166300 2008-10-10
PCT/IB2009/054302 WO2010041176A1 (en) 2008-10-10 2009-10-01 A method of processing parallax information comprised in a signal

Publications (1)

Publication Number Publication Date
ES2562924T3 true ES2562924T3 (es) 2016-03-09

Family

ID=41382066

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09787345.9T Active ES2562924T3 (es) 2008-10-10 2009-10-01 Un procedimiento de procesamiento de información de paralaje comprendida en una señal

Country Status (9)

Country Link
US (1) US8913108B2 (es)
EP (1) EP2332340B1 (es)
JP (1) JP5575778B2 (es)
KR (1) KR101602904B1 (es)
CN (1) CN102177721B (es)
ES (1) ES2562924T3 (es)
PL (1) PL2332340T3 (es)
TW (1) TWI523488B (es)
WO (1) WO2010041176A1 (es)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9445072B2 (en) 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
US10095953B2 (en) 2009-11-11 2018-10-09 Disney Enterprises, Inc. Depth modification for display applications
TWI405455B (zh) * 2010-07-07 2013-08-11 Acer Inc 快門眼鏡以及控制快門眼鏡的方法
WO2012068724A1 (zh) * 2010-11-23 2012-05-31 深圳超多维光电子有限公司 立体图像获取系统及方法
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
US8773427B2 (en) 2010-12-22 2014-07-08 Sony Corporation Method and apparatus for multiview image generation using depth map information
KR101852811B1 (ko) 2011-01-05 2018-04-27 엘지전자 주식회사 영상표시 장치 및 그 제어방법
US20130010077A1 (en) * 2011-01-27 2013-01-10 Khang Nguyen Three-dimensional image capturing apparatus and three-dimensional image capturing method
JP2012204852A (ja) * 2011-03-23 2012-10-22 Sony Corp 画像処理装置および方法、並びにプログラム
US20120300034A1 (en) * 2011-05-23 2012-11-29 Qualcomm Incorporated Interactive user interface for stereoscopic effect adjustment
JP5129377B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置
EP2600616A3 (en) * 2011-11-30 2014-04-30 Thomson Licensing Antighosting method using binocular suppression.
US20150116467A1 (en) * 2011-12-28 2015-04-30 Sony Corporation Parallax adjustment device, image processing device, and frame format
JP5963483B2 (ja) * 2012-03-12 2016-08-03 キヤノン株式会社 撮像装置および撮像装置の制御方法
RU2632404C2 (ru) * 2012-04-13 2017-10-04 Конинклейке Филипс Н.В. Данные сигнализации глубины
KR101966920B1 (ko) * 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
KR20140034400A (ko) * 2012-09-11 2014-03-20 삼성전자주식회사 시점간 상관성을 이용한 영상 처리 방법 및 장치
DE102013204301A1 (de) * 2013-03-12 2014-09-18 C.R.S. Iimotion Gmbh Tiefenanpassung von stereoskopischen Bildern
TWI547142B (zh) 2013-04-02 2016-08-21 杜比實驗室特許公司 引導的3d顯示器適配
MX355960B (es) * 2013-04-05 2018-05-07 Koninklijke Philips Nv Reorientación de una señal de imagen tridimensional.
US9571812B2 (en) 2013-04-12 2017-02-14 Disney Enterprises, Inc. Signaling warp maps using a high efficiency video coding (HEVC) extension for 3D video coding
CN105165008B (zh) 2013-05-10 2017-11-21 皇家飞利浦有限公司 对与多视图再现设备一起使用的视频数据信号进行编码的方法
CN104284172A (zh) * 2013-07-04 2015-01-14 联咏科技股份有限公司 影像匹配方法及立体匹配系统
US10057558B2 (en) * 2015-09-04 2018-08-21 Kabushiki Kaisha Toshiba Electronic apparatus and method for stereoscopic display

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3157384B2 (ja) * 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
US6756993B2 (en) * 2001-01-17 2004-06-29 The University Of North Carolina At Chapel Hill Methods and apparatus for rendering images using 3D warping techniques
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
AU2003221346A1 (en) * 2003-03-11 2004-09-30 Seijiro Tomita Stereoscopic image display device
AU2003221143A1 (en) * 2003-03-20 2004-10-11 Seijiro Tomita Stereoscopic video photographing/displaying system
US7388583B2 (en) * 2003-07-11 2008-06-17 Koninklijke Philips Electronics N.V. Method of and scaling unit for scaling a three-dimensional model
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
JP4762994B2 (ja) * 2004-10-26 2011-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視差マップ
US20070030543A1 (en) 2005-08-08 2007-02-08 Bahram Javidi Depth and lateral size control of three-dimensional images in projection integral imaging
CN101416520B (zh) * 2006-03-31 2011-12-14 皇家飞利浦电子股份有限公司 多视图的高效编码
WO2009034519A1 (en) 2007-09-13 2009-03-19 Koninklijke Philips Electronics N.V. Generation of a signal
KR101574068B1 (ko) * 2008-12-26 2015-12-03 삼성전자주식회사 영상 처리 방법 및 장치

Also Published As

Publication number Publication date
JP2012505586A (ja) 2012-03-01
EP2332340B1 (en) 2015-12-23
KR101602904B1 (ko) 2016-03-11
US20110199465A1 (en) 2011-08-18
EP2332340A1 (en) 2011-06-15
WO2010041176A1 (en) 2010-04-15
JP5575778B2 (ja) 2014-08-20
TW201019708A (en) 2010-05-16
CN102177721B (zh) 2015-09-16
TWI523488B (zh) 2016-02-21
KR20110083650A (ko) 2011-07-20
US8913108B2 (en) 2014-12-16
PL2332340T3 (pl) 2016-05-31
CN102177721A (zh) 2011-09-07

Similar Documents

Publication Publication Date Title
ES2562924T3 (es) Un procedimiento de procesamiento de información de paralaje comprendida en una señal
ES2578022T3 (es) Combinación de datos de imágenes 3D y gráficos
ES2562255T3 (es) Inserción de objetos 3D en una imagen estereoscópica a una profundidad relativa
ES2435669T3 (es) Gestión de subtítulos en visualización en 3D
US8646917B2 (en) Three dimensional display with multiplane image display elements
US7660472B2 (en) System and method for managing stereoscopic viewing
EP2395759A1 (en) Autostereoscopic display device and method for operating an autostereoscopic display device
US20160344999A1 (en) SYSTEMS AND METHODs FOR PRODUCING PANORAMIC AND STEREOSCOPIC VIDEOS
JP6231125B2 (ja) マルチビュー立体視ディスプレイデバイスと共に使用するビデオデータ信号を符号化する方法
KR20110015452A (ko) 입체 이미지의 블러 향상
TW201215096A (en) Image display device, image display viewing system and image display method
CA2933704A1 (en) Systems and methods for producing panoramic and stereoscopic videos
US20120327077A1 (en) Apparatus for rendering 3d images
US20170171534A1 (en) Method and apparatus to display stereoscopic image in 3d display system
CN110915206A (zh) 用于产生看起来是投影在电子显示器前方或上方的虚拟三维图像的系统、方法和软件
KR101917762B1 (ko) 가상현실 장치의 컨버전스를 조절하여 눈의 피로를 감소시키는 방법
CN108633331A (zh) 用于自动立体显示器的图像的生成
US20140285484A1 (en) System of providing stereoscopic image to multiple users and method thereof
JP2009500878A (ja) 奥行錯覚デジタル撮像
JP2014053782A (ja) 立体画像データ処理装置、および、立体画像データ処理方法
ES2968936T3 (es) Procedimiento y dispositivo para un control adaptativo de la disparidad
Date et al. 66.3: Invited Paper: Smooth Motion Parallax Autostereoscopic 3D Display Using Linear Blending of Viewing Zones
KR102242923B1 (ko) 스테레오 카메라의 정렬장치 및 스테레오 카메라의 정렬방법
US11601633B2 (en) Method for optimized viewing experience and reduced rendering for autostereoscopic 3D, multiview and volumetric displays
KR20180108314A (ko) 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치