ES2771855T3 - Método y aparato para calibrar un dispositivo de visualización autoestereoscópico - Google Patents
Método y aparato para calibrar un dispositivo de visualización autoestereoscópico Download PDFInfo
- Publication number
- ES2771855T3 ES2771855T3 ES15305407T ES15305407T ES2771855T3 ES 2771855 T3 ES2771855 T3 ES 2771855T3 ES 15305407 T ES15305407 T ES 15305407T ES 15305407 T ES15305407 T ES 15305407T ES 2771855 T3 ES2771855 T3 ES 2771855T3
- Authority
- ES
- Spain
- Prior art keywords
- screen
- image
- command
- user
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/371—Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Un método para calibrar una pantalla 3D auto-estereoscópica (1.4) de un dispositivo que comprende una cámara (1.3), donde el método comprende: - mostrar una imagen patrón sobre una pantalla (1.4) de dicho dispositivo (1.2); y - capturar una imagen de dicho dispositivo reflejado por una superficie reflectante (4.0) usando dicha cámara, donde la imagen capturada (3.2) del dispositivo comprende la pantalla del dispositivo; y caracterizado por que el método 10 además comprende: - obtener una imagen resultante donde la pantalla parece rectangular, procediendo a una corrección de perspectiva si la pantalla no aparece rectangular en la imagen capturada (3.2); y - determinar el valor de un comando para un medio de máscara ajustable (2.2), que constituye una barrera de paralaje, de la pantalla 3D auto-estereoscópica para obtener una mezcla equilibrada de diafonía en la imagen resultante en una posición horizontal correspondiente a la posición horizontal de la cámara en dicha imagen resultante.
Description
DESCRIPCIÓN
Método y aparato para calibrar un dispositivo de visualización autoestereoscópico
La presente descripción se refiere a un método para calibrar un dispositivo de pantalla de visualización tridimensional (3D) auto estereoscópico dinámico.
Una pantalla 3D auto-estereoscópica comprende una pantalla de visualización normal estándar con píxeles intercalados, donde un píxel muestra una imagen para el ojo derecho y un píxel muestra una imagen para el ojo izquierdo. Además, un mecanismo asegura que un ojo no puede ver píxeles que están pensados para ser vistos por el otro ojo. Este mecanismo podría ser una barrera de paralaje, o cualquier otro sistema de lentes o de matriz de lentes, que denominaremos barrera como término genérico. Esta barrera puede colocarse antes o después de la pantalla de píxeles. Esta configuración proporciona una experiencia 3D a un usuario centrado frente a la pantalla. Una pantalla 3D auto-estereoscópica dinámica está diseñada para compensar el movimiento del usuario frente a la pantalla, para permitir una mayor libertad en cuanto a la posición desde la que el 3D es visible para el usuario. Esta compensación se consigue desplazando la barrera con relación a la pantalla de píxeles. Esto puede hacerse, por ejemplo, con una barrera de paralaje obtenida mediante el uso de un LCD de alta resolución, donde se pueden activar o desactivar píxeles oscuros para crear así un efecto de barrera que se desplaza.
Una pantalla 3D auto-estereoscópica con una barrera de paralaje fija está pensado para su uso por un usuario ubicado en una posición dada con relación a la pantalla. Esta posición es típicamente una posición central frente a la pantalla a una distancia dada de la misma. Dichas pantallas deben ensamblarse meticulosamente. En efecto, un pequeño desplazamiento lateral de la barrera de paralaje provoca un desplazamiento de la posición ideal del usuario, que ya no es la posición central frente a la pantalla. Por tanto, la experiencia 3D del usuario se degrada. Cuando se usa la barrera dinámica, no son necesarias tolerancias de montaje estrictas en la dirección ortogonal a las líneas de barrera, debido a que la barrera puede desplazarse y ajustarse, por ejemplo encendiendo o apagando líneas. Este ajuste requiere el conocimiento de la fase horizontal precisa de la barrera con relación a la matriz de píxeles de la pantalla. La calibración de la pantalla 3D auto-estereoscópica dinámica es un medio para determinar ese conocimiento.
Soluciones existentes para la calibrar la pantalla a veces proponen un bucle de optimización, para ajustar un parámetro que puede ser software o hardware para determinar la fase de la barrera. Este proceso requiere una cámara que almacena la pantalla auto-estereoscópica, mirando un patrón de imagen específico y un proceso de software para encontrar el parámetro óptimo para su aplicación para minimizar la deformación del patrón visto por la cámara. El proceso está típicamente basado en un bucle que comprende una fase de ajuste, seguido de otra adquisición de cámara, repitiéndose el proceso hasta la convergencia completa. Este proceso requiere un entorno de prueba complejo con cámaras. Sería ventajoso un proceso de calibración más simple que requiriese menos recursos.
El documento US 20130182083 describe la calibración de un sistema de visualización autoestereoscópico utilizando una cámara que se monta encima de la pantalla y que observa un patrón de prueba mostrado por la pantalla y reflejado en un espejo.
El documento US 20130127842 describe la calibración de un sistema de visualización autoestereoscópico usando dos cámaras orientadas hacia la pantalla de visualización y el control de la barrera de paralaje usando una cámara para capturar la posición del usuario.
El documento US 20100245824 describe la calibración de un sistema de visualización estereoscópico usando una cámara que observa un patrón de prueba mostrado por la pantalla y reflejado en un espejo, estando la cámara y el espejo en posiciones predeterminadas separadas del dispositivo de visualización.
La invención descrita en este documento se ha diseñado para resolver uno o más de los inconvenientes anteriores. La solución propuesta es un proceso de calibración para un dispositivo 3D auto-estereoscópico dinámico que requiere una única captura de imagen por la cámara del dispositivo de la pantalla auto-estereoscópica a través de una superficie reflectora. El proceso puede calcular la fase horizontal de la barrera de paralaje a partir de esta única captura de imagen.
La invención proporciona un método y un dispositivo para la calibración de una pantalla 3D auto-estereoscópica de un dispositivo que comprende una cámara, el producto de programa de ordenador correspondiente y un medio de almacenamiento legible por ordenador, según se define en las reivindicaciones adjuntas.
Al menos parte de los métodos de acuerdo con la invención pueden implementarse por ordenador. Por tanto, la presente invención puede tomar la forma de una realización enteramente de hardware, una realización enteramente
de software (incluyendo firmware, software residente, micro-código, etc.) o una realización que combina aspectos de software y hardware que pueden denominarse de manera general en este documento como “circuito”, “módulo”, o “sistema”. Además, la presente invención puede adoptar la forma de un producto de programa de ordenador incorporado en cualquier medio tangible de expresión que tenga un código de programa utilizable por un ordenador embebido en el medio.
Como la presente invención puede implementarse mediante software, la presente invención puede implementarse como un código legible por ordenador para la provisión de un aparato programable o cualquier otro medio de portadora adecuado. Un medio de portadora tangible puede comprender un medio de almacenamiento tal como un disco flexible, un CD-ROM, un disco duro, un dispositivo de cinta magnética o un dispositivo de memoria de estado sólido y similares. Un medio de portadora transitorio puede incluir una señal tal como una señal eléctrica, una señal electrónica, una señal óptica, una señal acústica, una señal magnética, o una señal electromagnética, por ejemplo una señal de microondas o una señal RF.
Se describirán ahora realizaciones de la invención solo a modo de ejemplo, y haciendo referencia a los dibujos adjuntos, en los que:
La Figura 1 ilustra el sistema utilizado para describir una realización particular de la invención.
La Figura 2 ilustra la estructura de una pantalla 3D utilizada en una realización de la invención.
La Figura 3 ilustra un ejemplo de imagen capturada por la cámara en una realización de la invención.
La Figura 4 ilustra el sistema óptico para la captura de la imagen en una realización de la invención.
La Figura 5 ilustra la imagen resultante que muestra líneas blancas y negras en una realización de la invención.
La Figura 6 ilustra alguna forma posible de función de patrón de diafonía.
La Figura 7 ilustra la configuración de una realización de la invención utilizada para calcular la distancia de observación óptima.
La Figura 8 ilustra diagramas de flujo del método de calibración de acuerdo con una realización de la invención.
La Figura 9 ilustra un diagrama de flujo de la determinación de comando actual para un usuario actual frente a la pantalla de acuerdo con una realización de la invención.
La Figura 10 es un diagrama de bloques esquemático de un dispositivo de cálculo para la implementación de una o más realizaciones de la invención.
La Figura 1 ilustra el sistema usado para describir una realización particular de la invención. Es necesario remarcar que la invención no está limitada a este sistema particular y puede aplicarse en numerosos sistemas que implican la misma problemática.
Un usuario 1.1 está usando un dispositivo 1.2 portátil, tal como una consola de juegos, un teléfono móvil, un ordenador portátil u otros. Este dispositivo 1.2 portátil comprende una pantalla 1.4 de visualización y una cámara 1.3. La cámara 1.3 permite tomar fotografías regularmente de los alrededores de la consola de juegos, que podría ser un vídeo continuo. En un caso de uso, el usuario 1.1 presenta su cabeza 1.6 más o menos frente al dispositivo portátil 1.2 para visualizar las imágenes en la pantalla 1.4. Esto significa que la cámara 1.3 puede capturar fotografías de la cabeza 1.5 del usuario. Varios algoritmos de seguimiento conocidos permiten seguir la cabeza 1.5 del usuario en fotografías capturadas por la cámara y en particular identificar la posición de los ojos u otros elementos del usuario en estas fotografías.
En la realización particular descrita en este documento, la pantalla 1.4 es una pantalla estereoscópica tridimensional. La Figura 2 ilustra la estructura de esta pantalla. La pantalla 2.1 real comprende píxeles divididos en dos partes. Una parte, referenciada como 2.4, se utiliza para mostrar una imagen izquierda para que sea visible por el ojo izquierdo del usuario mientras que una segunda parte, referenciada como 2.3, se usa para mostrar una imagen derecha para que sea visible por el ojo derecho del usuario. Para conseguir una buena experiencia estereoscópica, la parte derecha del píxel debería enmascararse para el ojo izquierdo del usuario, mientras que la parte izquierda del píxel debería enmascararse para el ojo derecho del usuario. A veces se disponen medios 2.2 de máscara en la pantalla. En nuestro ejemplo, estos medios de máscara están hechos de tiras 2.5 finas que pueden ocultarse electrónicamente. Las tiras finas ocultadas constituyen una barrera de paralaje que puede desplazarse enfrente de la pantalla. Dependiendo de la ubicación real de los ojos 2.6 y 2.7 del usuario, tiene que ajustarse la ubicación de la barrera para enmascarar adecuadamente la parte correcta de los píxeles.
Para proporcionar al usuario una buena experiencia 3D, el dispositivo 1.2 portátil sigue en tiempo real la ubicación de la cabeza del usuario en fotografías captadas por la cámara. Un algoritmo de seguimiento facial identifica la ubicación de la cara en la fotografía. Encuentra la ubicación de los ojos. El punto central ubicado entre los dos ojos puede tomarse como la referencia. Desde la ubicación de este punto central, puede calcularse la ubicación correcta de la barrera en la pantalla para obtener una vista estereoscópica para que el usuario conozca la ubicación de su cara en la imagen capturada.
Cuando se contempla la calibración de dicho dispositivo 3D auto-estereoscópico dinámico, el dispositivo se coloca
frente a una superficie reflectante. La superficie reflectante puede ser un espejo o cualquier otra superficie similar. Al hacerlo, una imagen capturada por la cámara del dispositivo contiene la imagen del propio dispositivo y, más particularmente de la pantalla del dispositivo.
La Figura 3 ilustra un ejemplo de imagen capturada por la cámara del dispositivo auto-estereoscópico dinámico. La imagen 3.2 capturada muestra una reflexión en la superficie reflectante de la pantalla 3D 1.5.
Se proyecta un patrón sobre la pantalla 3D, con una imagen diferente para el ojo derecho e izquierdo. Por ejemplo, una imagen blanca para un ojo y una imagen negra para el otro ojo. Puede ser cualquier otro patrón que permita determinar la tasa de diafonía de un píxel dado.
La diafonía se define para un píxel dado en la imagen capturada que representa un punto en la pantalla 3D de la mezcla de información que proviene de la imagen izquierda y de la imagen derecha en ese punto. Concretamente, cuando se coloca idealmente, un ojo del usuario solo verá una de las imágenes 3D, derecha o izquierda, y la diafonía sería por tanto de 0 o 1. Para cualquier otra posición el píxel resultante estaría constituido por una mezcla entre la imagen izquierda y la imagen derecha para ese píxel. La diafonía refleja la parte que contribuye cada imagen, izquierda y derecha.
En caso de que el patrón sea una imagen blanca para un ojo y una negra para el otro, la cámara verá entonces bandas 3.4 y 3.5 verticales blanca y negra a través de la pantalla. Dentro de cada banda (negra y blanca), la cámara ve los píxeles de una imagen específica, para uno o el otro ojo, y en medio una mezcla de los dos patrones de imagen, concretamente un nivel de gris. La luminancia de un píxel dado está directamente relacionada con el nivel de diafonía usando este patrón.
La Figura 4 ilustra el sistema óptico para la captura de la imagen de la Figura 3. Muestra el dispositivo 1.2 autoestereoscópico dinámico con su cámara 1.3 frente a una superficie 4.0 reflectante. El eje 4.1 representa la normal a la pantalla. El dispositivo 4.7 en línea de puntos representa la imagen virtual del dispositivo 3D visto por la cámara a través de la superficie 4.0 reflectante. El eje 4.2 representa la normal a la pantalla del dispositivo 4.7. El eje 4.3 es el eje óptico de la cámara mientras que el eje 4.4 es el correspondiente eje óptico de la cámara virtual en la imagen observada. La línea 4.5 es la línea de visión de un observador 4.6 que mira la imagen de la cámara. Esta línea es perpendicular a la superficie 4.0 reflectante.
El proceso de calibración aprovecha las siguientes propiedades.
Un observador 4.6 de la pantalla 3D estereoscópica que se desplaza a lo largo de la línea 4.5 de visión “verá” la misma cantidad de diafonía en la intersección de la línea de visión 4.5 y la pantalla 3D estereoscópica. Esto significa que una cámara apuntando a una pantalla estereoscópica ve una cierta cantidad de diafonía en la intersección de la dirección de orientación y la pantalla, y esta cantidad no depende de la distancia a la pantalla.
Cuando captura la propia imagen de una cámara 1.3 en una superficie 4.0 reflectante, mover la cámara sobre una línea de visión 4.5 que pasa por el centro de la cámara y es perpendicular al espejo no cambia la posición de la cámara en la imagen resultante.
El patrón (3.4, 3.5) de diafonía resultante es periódico en una pantalla corregida en perspectiva. En otras palabras, el patrón de diafonía es periódico cuando el espejo es paralelo a la pantalla. Esto también significa que el patrón de diafonía resultante no es periódico si el espejo no es paralelo a la pantalla. Pero usar una transformación en perspectiva para corregir la perspectiva restaura también la periodicidad del patrón de diafonía.
La tono de la tira vista en dirección a la dirección ortogonal a la superficie (4.5) reflectante no cambia si el dispositivo está más cerca o más lejos de la superficie reflectante. Más precisamente, suponiendo que tenemos una cámara orientada en esta dirección (4.6), y moviéndose a lo largo de esta línea, vería siempre el mismo tono de gris en la banda 3.6 vertical alineada con la cámara.
Además, si esta cámara (4.6) no ve una tira de un 50% de gris, que es la mezcla perfectamente equilibrada entre los patrones blanco y negro que representa un 50% de diafonía, entonces un usuario cuyos ojos estuviesen centrados en esta posición y a una distancia óptima de la pantalla 3D autoestereoscópica vería un 3D perfecto. Suponiendo que las tiras negra y blanca alrededor de la gris están en el orden correcto, cada ojo del usuario vería totalmente la imagen correcta.
Al ser dinámica, la pantalla 3D auto-estereoscópica está dotada de un medio de máscara ajustable para proporcionar la experiencia 3D al usuario situado frente a la pantalla. Considerando una barrera de paralaje que puede desplazarse, el desplazamiento de la barrera es periódico en su efecto. Para una posición dada de la barrera un usuario frente a la pantalla ve una mezcla dada para cada ojo de la imagen izquierda y derecha. Si la barrera está colocada adecuadamente, el ojo izquierdo ve solo la imagen izquierda mientras que el ojo derecho ve solo la imagen derecha. Si la barrera no está adecuadamente colocada, cada ojo ve una mezcla de las imágenes izquierda y derecha (es decir, se produce diafonía). Desplazar la barrera de un período reproducirá el mismo resultado.
Basándose en esto, es posible modelar el comando para su envío al medio de máscara ajustable mediante un número entre 0, que significa sin movimiento, y 1, que significa un desplazamiento de un período completo. Este comando teórico puede adaptarse al medio de control actual del medio de máscara ajustable bajo consideración en una realización dada.
Calibrar la pantalla 3D auto-estereoscópica dinámica significa determinar este comando para una colocación adecuada del medio de máscara ajustable para una posición dada del usuario. Este comando corresponde a un desplazamiento del medio de máscara y representa la fase horizontal del medio de máscara ajustable.
Como se ha descrito anteriormente, el patrón usado para la calibración debe determinar el nivel de diafonía en la imagen resultante capturado por la cámara a través de la superficie reflectante. Llamamos aquí imagen resultante a la imagen de la pantalla después de una corrección de perspectiva si la superficie reflectante no es paralela a la pantalla. Pueden usarse imágenes blanca y negra para las imágenes de los ojos izquierdo y derecho. De hecho, pueden usarse también imágenes derecha e izquierda constituidas por cualquier tipo de bandas horizontales invertidas de color. El nivel de diafonía medido es típicamente el mismo a lo largo de una línea vertical de la imagen resultante.
Definamos la intensidad del patrón de diafonía horizontal en la imagen resultante con una función pattern=fct (comando, posición). Esta función recibe una primera entrada “comando” que es el comando enviado al medio de máscara ajustable con un valor entre 0 y 1. Recibe una segunda entrada “posición” que es la posición horizontal en la imagen resultante con un valor entre 0, que corresponde a la primera columna de píxeles izquierda, y 1, que corresponde a la última columna de píxeles derecha. El resultado de la función, denominada “pattern", es el nivel de diafonía para estas entradas que adopta un valor entre -1 si el píxel “posición” corresponde completamente a la imagen derecha, por ejemplo un píxel negro si la imagen derecha es negra, y 1 si el píxel “posición” corresponde completamente a la imagen izquierda, por ejemplo un píxel blanco si la imagen izquierda es blanca. Los valores intermedios representan el nivel de diafonía. Por ejemplo, representa el nivel de gris en nuestro ejemplo. Un valor de 0 representa la mezcla perfectamente equilibrada, cincuenta-cincuenta, entre la imagen izquierda y derecha, y por tanto un máximo de diafonía.
La Figura 5 ilustra la imagen resultante que presenta tiras 3.5 y 3.5 blancas y negras. La posición de la cámara se denomina 3.6. La distancia 5.8 representa el período del patrón resultante. La distancia 5.7 representa la distancia entre la posición central y el extremo más cercano, que significa mínimo o máximo, en el patrón resultante. Este extremo corresponde a una posición sin diafonía. Además, buscaremos el extremo del patrón del “ojo derecho” a la izquierda de la posición 3.6 de la cámara, o inversamente para el extremo del patrón del “ojo izquierdo” a la derecha de la posición de la cámara.
La Figura 6 ilustra algunas formas posibles de la función patrón de diafonía fct. Estas diferentes formas son periódicas y dependen del patrón real utilizado para las imágenes derecha e izquierda.
Como se ilustra en la Figura 6, la función patrón de diafonía fct es periódica en lo que respecta a la posición. Denominando el período Tct, se verifica la siguiente ecuación:
La determinación del período Tct de la función fct puede realizarse determinado puntos importantes de la función. Por ejemplo, determinando la distancia entre dos máximos o mínimos sucesivos. Si la función es demasiado suave, puede ser difícil detectar los máximos con una precisión suficiente. En este caso, en una realización, podemos detectar la intersección de la función fct y su opuesto, creando un patrón compuesto por blanco en la parte superior y negro en la parte inferior para el ojo izquierdo, y la inversa - negro en la parte superior y blanco en la parte inferior -para el ojo derecho. De ese modo, aparecerá un desplazamiento en las tiras verticales, y podremos detectar la intersección entre fct y -fc t.
Alternativamente, el período Tct puede determinarse a partir del período de la función seno que mejor se ajusta al patrón de diafonía observado.
El objetivo de la calibración es conseguir una mezcla equilibrada entre la imagen derecha e izquierda en la posición en la imagen resultante que corresponde a la posición de la cámara Pcam 3.6. En la práctica, puede no ser posible conseguir una mezcla completamente equilibrada, y puede darse alguna tolerancia. Suponiendo que se ha capturado la imagen resultante con un comando C aplicado al medio de máscara ajustable, buscamos el comando X como:
Calculemos la relación entre la posición de la cámara Pcam del segmento y los máximos de diafonía Maxct (5.7) más cercanos y el período Tct (5.8):
Aquí, la posición de la cámara Pcam y los máximos de diafonía Maxct más cercanos son valores normalizados (entre [0, 1]), lo que significa que cualquier posición siguiente se calcula con relación al lado izquierdo de la imagen resultante y se normaliza mediante la anchura de la imagen. Por ejemplo aquí:
Con relación al período relativo a la posición, sabemos que:
Además, sabemos que:
De modo que, de hecho:
En otras palabras, dado cualquier comando C de barrera, y analizando el período de las tiras y la posición de la cámara en la imagen resultante, tenemos que añadir rM10r™~; al comando C para obtener una diafonía perfecta de 50% de gris en la posición de la cámara Pcam. El comando X que estamos buscando es:
Por ejemplo, si el comando es 0,2 y el análisis resultante da una relación de 0,5, entonces sabemos que el comando barrera que se debe establecer es 0,45 para obtener el 50% de diafonía en la posición de la cámara.
Este cálculo puede llevarse a cabo en un disparo de captura de la imagen resultante, y no es necesaria ninguna otra captura de imagen para obtener el valor correcto. Sin embargo, podemos tomar varias capturas típicamente con diferentes comandos a la barrera, para obtener diferentes medidas y promediarlas para obtener un resultado con mejor precisión.
Se debería notar que la cámara 1.3 no tiene que estar situada por encima de la pantalla 1.4 estereoscópica tal como se muestra en la Figura 1. La cámara no tiene que estar alineada de ningún modo con las tiras (3.4, 3.5) que se ven en la Figura 5. De hecho, la posición de la cámara podría incluso estar fuera de la imagen si su posición es conocida con relación a la imagen resultante. De hecho, todo lo que necesitamos saber es la posición de la cámara con relación a las tiras, para poder calcular la relación, e incluso sin “ver” una parte de la pantalla estereoscópica en ese
lugar, podemos determinar el comando de barrera para obtener la diafonía equilibrada de 50% en la posición de la cámara.
A continuación se describe cómo obtener el comando correcto para su envío al medio de máscara ajustable de una pantalla 3D auto-estereoscópica dinámica de un dispositivo para ajustar el 3D a cualquier usuario presente en una posición específica frente a la pantalla. Denominamos aquí una posición específica del usuario a la posición identificada en la imagen capturada. Esta no es la posición absoluta en el mundo real con relación al dispositivo.
La distancia entre ojos típica del usuario y la distancia óptima a la pantalla auto estereoscópica dinámica por fabricación son conocidas. El campo de visión (FOV, Field Of Vision) de la cámara es conocida mediante otros medios de calibración. El tamaño del segmento horizontal en la distancia óptima de la pantalla, delimitado por el FOV de la cámara, es conocido. El segmento horizontal es el segmento que representa la posible posición de la cara del usuario a una distancia óptima de la pantalla para que su cara sea visible en la imagen capturada. Se usa el término segmento porque el interés está en la posición horizontal de la cara, no su posición vertical, en lo que se refiere a la barrera de paralaje. Podemos encontrar en el segmento de distancia óptima, el número de períodos de comando de barrera horizontalmente desde el final a la izquierda hasta el final a la derecha. Un período de comando de barrera corresponde al comando segmento [0, 1], y también concuerda con dos veces la distancia entre los ojos del usuario cuando el usuario está a la distancia de visualización óptima. De hecho, cuando los ojos del usuario se mueven horizontalmente sobre el plano paralelo a la pantalla de una distancia entre ojos, cada ojo ver exactamente la imagen errónea, y cuando se mueven a dos distancias entre ojos, cada ojo ve de nuevo exactamente la imagen buena, lo que corresponde a un período de comando de barrera.
El valor
¿ J11 S TeyG dig t anee ratioOfCommandPeriods = 2*
segment$izt
representa la inversa del número de períodos de comando en el segmento, de modo que la relación del período de comando en el segmento unitario.
También puede expresarse como:
Ya conocemos del valor de comando Y que hay que enviar para obtener una tira 50% gris en la posición de la cámara:
i
Y = X raüo„m - -
Ahora también sabemos que enviando un comando de Y+1 obtendremos el mismo resultado que con un desplazamiento espacial horizontal en la fotografía por un offset de ratioOfCommandPeriods. Por tanto, para obtener el comando Commanduser que hay que enviar cuando el usuario está en una posición horizontal específica Userposition en la imagen, debemos añadir el offset entre la posición de la cámara y la posición del usuario, normalizada por ratioOfCommandPeriods (y módulo 1). Estas posiciones se deben medir en la imagen corregida en perspectiva (ver la Figura 5).
Finalmente:
Donde X es el comando de la barrera de paralaje usado para obtener la imagen resultante cuando se emite esta imagen resultante para su calibración a través de la superficie reflectante. Camerapcsition es la posición horizontal de la cámara identificada en la imagen resultante. Userpositcn es la posición horizontal del usuario identificada en una imagen capturada. ratiocum y raticOfCcmmandPericds se calculan a partir de la imagen resultante, como se ha explicado anteriormente.
De modo que, por ejemplo, si el disparo de captura para la calibración se realiza con el comando 0,2, donde el análisis da un ratiocam = 0,5, donde la posición del usuario es de 0,7 y la posición de la cámara es de 0,4 con una relación de períodos de comando de 0,26, esto nos da un Ccmmanduser=0,60385 para su envío al usuario en esta posición con relación a la pantalla 3D.
En una realización particular se calcula un valor intermedio Ccmmandatcenter y se usa para calcular el comando para una posición del usuario dada. Este valor intermedio corresponde al comando para la posición de un usuario en el centro de la imagen capturada:
Usando este valor intermedio ventajosamente memorizado, el comando para cualquier posición del usuario está dado por la siguiente ecuación:
/
lfs e rvosítíon —
0.5 \
C o m m a n d ^ = [ r a t í o 0 fC o m m a n d P s r io d ! ! + C o m m a n d ^ ^ , . j m 0d 1
En conclusión, el proceso de calibración nos permite determinar, con un único disparo de captura, los dos parámetros necesarios para pilotar barrera de la pantalla auto estereoscópica para cualquier posición del usuario: Ccmmandatcenter y raticOfCcmmandPericds, donde la posición del usuario es la posición horizontal de la cara del usuario en la imagen capturada.
Anteriormente hemos usado en el cálculo una distancia óptima de visión con relación a la pantalla autoestereoscópica dada por el fabricante. Para ir más lejos, puede determinarse la distancia con la misma captura de adquisición. Como se muestra en la Figura 7, una cámara 1.3 está orientada hacia la pantalla (2.1, 2.2) 3D auto Zk
estereoscópica, viendo diafonía -tiras blancas y negras - de medio período 2 (7.1). El medio período corresponde a la distancia desde un máximo negro a un máximo blanco. Esta cámara está a la distancia distancecamera (7.2) de la pantalla, que es el doble de la distancia del espejo distancetcMirmr. La distancia de visión óptima es donde cada ojo (2.6, 2.7) separado intereyedistance (7.3) está viendo solo la imagen negra o la imagen blanca. Esto significa que tenemos la relación:
Nótese que stripes^md es una unidad de distancia (milímetros, por ejemplo), y que está definida por:
¡ tn a g e W id th p ixe L * S c re e n W id th ^ t^
s fripeS pe fijjd . — T'ct
ScreenW idthpíXei
La distancia de visión óptima está entonces definida por:
2 * íntereye¡u,;ianci, * ScreenWidthpixl l Optirruitaistante = 2 * distanceíoM írror £
Ta * ftnüffeWidthpáei * ScreenWidthmm + 1)
Por tanto, se puede ver aquí por qué la cámara no se debería colocar cerca de la distancia óptima con relación a la pantalla, porque el período Tct sería infinito.
Este cálculo se realiza cuando la pantalla auto estereoscópica dinámica es paralela al espejo, y con una cámara orientada hacia el espejo.
La Figura 8 ilustra un diagrama de flujo del método de calibración de acuerdo con una realización de la invención que corresponde a la descripción anterior.
En el paso 8.1, se muestra un patrón en la pantalla 3D con una imagen diferente para el ojo izquierdo y el derecho. Por ejemplo, una imagen blanca para uno ojo y una imagen negra para el otro ojo. Puede ser cualquier otro patrón que permita determinar el nivel de diafonía de un píxel dado.
En el paso 8.2, el dispositivo captura una imagen de sí mismo a través de una superficie reflectante como un espejo. Esta imagen comprende la pantalla 3D del dispositivo. En el caso de que las condiciones de obtención de las imágenes no aseguren que la imagen obtenida de la pantalla del dispositivo es un rectángulo, se aplica un paso de corrección de perspectiva. El resultado de este paso es por tanto una imagen que contiene una vista rectangular de la pantalla del dispositivo.
En el paso 8.3, se determina el valor de un comando para una colocación adecuada del medio de máscara ajustable para una posición dada del usuario. Este comando corresponde a un desplazamiento del medio de máscara y representa la fase horizontal del medio de máscara ajustable. Este comando no se aplica al medio de máscara, solo se considera su valor como resultado de la calibración. Este valor puede usarse en la determinación de un comando actual determinado basándose en la posición actual del usuario frente a la pantalla. El valor de este comando, si se aplica al medio de máscara, permite obtener una mezcla equilibrada de diafonía en la imagen resultante en una posición horizontal correspondiente a la posición horizontal de la cámara en dicha imagen resultante.
La Figura 9 ilustra un diagrama de flujo de la determinación de comando actual para un usuario actual frente a la pantalla de acuerdo con una realización de la invención.
En el paso 9.1, tiene lugar la calibración de la pantalla 3D auto-estereoscópica dinámica. Esta calibración puede realizarse usando el método descrito con relación a la Figura 8.
En el paso 9.2, se determina el segmento de distancia óptima que representa la posible posición de la cara del usuario a una distancia óptima de la pantalla.
En el paso 9.3, se determina la posición de la cara de un usuario en una imagen capturada.
En el paso 9.4, se determina el comando actual para el medio de máscara ajustable basándose en el segmento de distancia óptima, la posición de la cara del usuario en una imagen capturada y el valor del comando determinado durante la calibración.
La Figura 10 es un diagrama de bloques esquemático de un dispositivo 1000 de cálculo para la implementación de una o más realizaciones de la invención. El dispositivo 1000 de cálculo puede ser un dispositivo tal como un micro ordenador, una estación de trabajo o un dispositivo portátil ligero (por ejemplo, una tableta, teléfono celular, dispositivo de juegos portátil, entre otras posibilidades). El dispositivo 1000 de cálculo comprende un bus de comunicación conectado a:
- una unidad 1001 de procesamiento central, tal como un microprocesador, denominada CPU;
- una memoria 1002 de acceso aleatorio, denominada RAM, para almacenar el código ejecutable del método de las realizaciones de la invención así como los registros adaptados para almacenar variables y parámetros necesarios para implementar el método para codificar o decodificar al menos parte de una imagen de acuerdo con realizaciones de la invención, pudiendo expandirse la capacidad de memoria de la misma mediante una RAM opcional conectada a un puerto de expansión, por ejemplo;
- una memoria 1003 de solo lectura, denominada ROM, para almacenar programas de ordenador para implementar realizaciones de la invención;
- una interfaz 1004 de red está típicamente conectada a una red de comunicación a través de la cual se transmiten o reciben datos digitales que se van a procesar. La interfaz 1004 de red puede ser una interfaz de red única, o puede estar compuesta de un conjunto de interfaces de red diferentes (por ejemplo, interfaces cableadas e inalámbricas, o diferentes tipos de interfaces cableadas o inalámbricas). Los paquetes de datos se escriben en la interfaz de red para la transmisión o se leen de la interfaz de red para la recepción bajo el control de la aplicación de software ejecutada en la EPU 1001;
- puede usarse una interfaz 1005 de red para recibir entradas de un usuario o para mostrar información a un usuario;
- puede disponerse un disco duro 1006 denominado HD como un dispositivo de almacenamiento masivo; - puede usarse un módulo E/S 1007 para recibir/enviar datos desde/hacia dispositivos externos tales como una fuente de vídeo o pantalla.
El código ejecutable puede almacenarse bien en una memoria de solo lectura 1003, en el disco duro 1006 o en un medio digital extraíble tal como, por ejemplo, un disco. De acuerdo con una variante, el código ejecutable de los programas puede recibirse por medio de una red de comunicación, a través de la interfaz 1004 de red, para su almacenamiento en uno de los medios de almacenamiento del dispositivo 1000 de comunicación, tal como el disco duro 1006, antes de su ejecución.
La unidad 1001 de procesamiento central está adaptada para controlar y dirigir la ejecución de las instrucciones o porciones de código de software del programa o programas de acuerdo con realizaciones de la invención, estando dichas instrucciones almacenadas en uno de los medios de almacenamiento anteriormente mencionados. Después de encenderse, la CPU 1001 puede ejecutar instrucciones de la memoria RAM 1002 principal con relación a una aplicación de software después de que esas instrucciones hayan sido cargadas desde el ROM 1003 de programa o el disco duro (HD) 1006, por ejemplo. Dicha aplicación de software, cuando es ejecutada por la CPU 1001, hace que se lleven a cabo los pasos de los algoritmos descritos en este documento.
Cualquier paso del algoritmo descrito en este documento puede implementarse en software mediante la ejecución de un conjunto de instrucciones o un programa por parte de una máquina programable de computación, tal como un PC (“Personal Computer”) un DSP (“Digital Signal Processor”) o un microcontrolador; o alternativamente puede implementarse mediante hardware a través de una máquina o componente dedicado, tal como una FPGA (“Field Programmable Gate Array”) o un ASIC (“Application Specific Integrated Circuit”).
Aunque la presente invención se ha descrito anteriormente haciendo referencia a realizaciones específicas, la presente invención no está limitada a las realizaciones específicas, y serán evidentes diferentes modificaciones para un experto en el campo dentro del alcance de la presente invención.
También surgirán muchas modificaciones y variaciones a personas conocedoras de este campo al hacer referencia a las realizaciones ilustrativas anteriores, que se proporcionan únicamente a modo de ejemplo y que no pretenden limitar el alcance de la invención, que está determinado únicamente por las reivindicaciones adjuntas. En particular, diferentes elementos de las diferentes realizaciones podrían intercambiarse cuando sea necesario.
Claims (12)
1. Un método para calibrar una pantalla 3D auto-estereoscópica (1.4) de un dispositivo que comprende una cámara (1.3), donde el método comprende:
- mostrar una imagen patrón sobre una pantalla (1.4) de dicho dispositivo (1.2); y
- capturar una imagen de dicho dispositivo reflejado por una superficie reflectante (4.0) usando dicha cámara, donde la imagen capturada (3.2) del dispositivo comprende la pantalla del dispositivo; y
caracterizado por que el método además comprende:
- obtener una imagen resultante donde la pantalla parece rectangular, procediendo a una corrección de perspectiva si la pantalla no aparece rectangular en la imagen capturada (3.2); y
- determinar el valor de un comando para un medio de máscara ajustable (2.2), que constituye una barrera de paralaje, de la pantalla 3D auto-estereoscópica para obtener una mezcla equilibrada de diafonía en la imagen resultante en una posición horizontal correspondiente a la posición horizontal de la cámara en dicha imagen resultante.
2. El método de la reivindicación 1, caracterizado por que la imagen patrón está constituida por cualquier tipo de bandas invertidas de color verticales.
3. El método de la reivindicación 2, caracterizado por que la imagen patrón está constituida por bandas verticales alternativas blancas y negras.
4. El método de la reivindicación 1, caracterizado por que la determinación del comando para el medio de máscara ajustable comprende:
- determinar el nivel de diafonía para una pluralidad de píxeles de la pantalla en la imagen resultante; y - determinar el período horizontal de este nivel de crosstalk; y
- determinar el comando para el medio ajustable basándose en este período y en la distancia horizontal entre la posición de la cámara y el máximo más cercano en el nivel de diafonía.
5. Un método para determinar un comando actual para un medio de máscara ajustable de una pantalla 3D autoestereoscópica de un dispositivo para ajustar el 3D a cualquier usuario frente a la pantalla, caracterizado por que el método comprende:
- calibrar la pantalla 3D auto-estereoscópica del dispositivo de acuerdo con la reivindicación 1; y
- determinar el segmento de distancia óptima que representa la posible posición de la cara del usuario a una distancia óptima de la pantalla para que sea visible en una imagen capturada; y
- determinar la posición de la cara ce un usuario en una imagen capturada; y
- determinar el comando actual para el medio de máscara ajustable basándose en el segmento de distancia óptima, la posición de la cara del usuario en una imagen capturada y el valor del comando determinado durante la calibración.
6. El método de la reivindicación 5, caracterizado por que el segmento de distancia óptima se determina basándose en la distancia entre-ojos típica del usuario, la distancia óptima de visión de la pantalla 3D autoestereoscópica y el campo de visión de la cámara.
7. El método de la reivindicación 5, caracterizado por que la determinación del comando actual para el medio de máscara ajustable comprende:
- determinar el número de períodos de comando en el segmento de distancia óptima, siendo el período de comando el doble de la distancia entre-ojos del usuario cuando el usuario se encuentra a una distancia de visión óptima.
8. El método de la reivindicación 7, caracterizado por que además comprende:
- determinar un comando centrado correspondiente al comando para una posición horizontal de la cara del usuario en el centro de la imagen capturada; y
- determinar el comando actual basándose en dicho comando centrado y en dicho número de períodos de comando en el segmento de distancia óptima.
9. Un dispositivo (1.2) que comprende una cámara (1.3) y una pantalla 3D auto-estereoscópica (1.4), caracterizado por que el dispositivo comprende medios de calibración que comprenden:
- dicha pantalla (1.4) para mostrar una imagen patrón sobre una pantalla de dicho dispositivo; y
- dicha cámara (1.3) para capturar una imagen de dicho dispositivo reflejada por una superficie (4.0)
reflectante, donde la imagen capturada (3.2) del dispositivo comprende la pantalla del dispositivo; y
- medios para obtener una imagen resultante donde la pantalla aparece rectangular, procediendo a una corrección de perspectiva si la pantalla no aparece rectangular en la imagen capturada (3.2); y
- medios para determinar el valor del un comando para un medio (2.2) de máscara ajustable, que constituye una barrera de paralaje, de la pantalla 3D auto-estereoscópica para conseguir una mezcla equilibrada de diafonía en la imagen resultante en una posición horizontal correspondiente a la posición horizontal de la cámara en dicha imagen resultante.
10. Un dispositivo de acuerdo con la reivindicación 9, caracterizado por que además comprende medios de determinación de comando actual que comprenden:
- medios para determinar la distancia óptima que representa la posición posible de la cara del usuario a una distancia óptima de la pantalla para que sea visible en una imagen capturada; y
- medios para determinar una posición de la cara de un usuario en una imagen capturada; y
- medios para determinar el comando actual para el medio de máscara ajustable basándose en el segmento de distancia óptima, la posición de la cara del usuario en una imagen capturada y el valor del comando determinado durante la calibración.
11. Un producto de programa de ordenador que comprende una secuencia de instrucciones para hacer que el dispositivo de la reivindicación 9 implemente el método de cualquiera de las reivindicaciones 1 a 8, cuando se carga y ejecuta por el dispositivo de la reivindicación 9.
12. Un medio de almacenamiento legible por ordenador que almacena instrucciones para hacer que el dispositivo de la reivindicación 9 implemente el método de cualquiera de las reivindicaciones 1 a 8, cuando se carga y ejecuta por el dispositivo de la reivindicación 9.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15305407.7A EP3070943B1 (en) | 2015-03-20 | 2015-03-20 | Method and apparatus for calibrating an autostereoscopic display device |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2771855T3 true ES2771855T3 (es) | 2020-07-07 |
Family
ID=52737032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES15305407T Active ES2771855T3 (es) | 2015-03-20 | 2015-03-20 | Método y aparato para calibrar un dispositivo de visualización autoestereoscópico |
Country Status (4)
Country | Link |
---|---|
US (1) | US10097816B2 (es) |
EP (1) | EP3070943B1 (es) |
JP (1) | JP6219997B2 (es) |
ES (1) | ES2771855T3 (es) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102401168B1 (ko) * | 2017-10-27 | 2022-05-24 | 삼성전자주식회사 | 3차원 디스플레이 장치의 파라미터 캘리브레이션 방법 및 장치 |
JP7207954B2 (ja) * | 2018-11-05 | 2023-01-18 | 京セラ株式会社 | 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム |
JP2020101694A (ja) * | 2018-12-21 | 2020-07-02 | 公立大学法人大阪 | 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体 |
EP3910940B1 (en) * | 2019-03-07 | 2024-08-28 | 3Dvstar Display Technology Co., Ltd. | Automatic calibration method for image arrangement of naked-eye 3d display screen, and electronic device |
CN110708540B (zh) * | 2019-12-05 | 2021-04-30 | 深圳市新致维科技有限公司 | 一种动态串扰测试系统及动态串扰测试方法 |
WO2022250164A1 (ja) * | 2021-05-28 | 2022-12-01 | 京セラ株式会社 | 3次元画像表示システムの設定方法 |
WO2023062936A1 (ja) * | 2021-10-13 | 2023-04-20 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007047470B3 (de) * | 2007-09-28 | 2009-05-28 | Visumotion Gmbh | Verfahren zur Ausrichtung eines Parallaxenbarriereschirms auf einem Bildschirm |
JP5872185B2 (ja) * | 2010-05-27 | 2016-03-01 | 任天堂株式会社 | 携帯型電子機器 |
JP5673008B2 (ja) * | 2010-08-11 | 2015-02-18 | ソニー株式会社 | 画像処理装置、立体画像表示装置および立体画像表示システム、ならびに立体画像表示装置の視差ずれ検出方法および立体画像表示装置の製造方法 |
KR101890622B1 (ko) * | 2011-11-22 | 2018-08-22 | 엘지전자 주식회사 | 입체영상 처리 장치 및 입체영상 처리 장치의 칼리브레이션 방법 |
EP2615838B1 (en) * | 2012-01-12 | 2019-08-21 | SeeFront GmbH | Calibration of an autostereoscopic display system |
JP5924046B2 (ja) * | 2012-03-15 | 2016-05-25 | ソニー株式会社 | 表示装置および方法、情報処理装置および方法、並びにプログラム |
-
2015
- 2015-03-20 ES ES15305407T patent/ES2771855T3/es active Active
- 2015-03-20 EP EP15305407.7A patent/EP3070943B1/en active Active
-
2016
- 2016-03-07 US US15/062,732 patent/US10097816B2/en active Active
- 2016-03-09 JP JP2016045133A patent/JP6219997B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20160277728A1 (en) | 2016-09-22 |
US10097816B2 (en) | 2018-10-09 |
EP3070943B1 (en) | 2019-11-06 |
EP3070943A1 (en) | 2016-09-21 |
JP6219997B2 (ja) | 2017-10-25 |
JP2016177281A (ja) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2771855T3 (es) | Método y aparato para calibrar un dispositivo de visualización autoestereoscópico | |
US10848745B2 (en) | Head-mounted display tracking system | |
JP6484349B2 (ja) | カメラリグおよび立体画像キャプチャ | |
CA2938159C (en) | Omnistereo imaging | |
US20170363949A1 (en) | Multi-tier camera rig for stereoscopic image capture | |
KR101647536B1 (ko) | 다중-프로젝터 시스템 및 방법 | |
EP3163535A1 (en) | Wide-area image acquisition method and device | |
US9930307B1 (en) | Projector image alignment | |
US10504243B2 (en) | Calibration system for a head-mounted display tracking system | |
JP4825244B2 (ja) | 立体視画像表示装置、立体視画像表示方法 | |
KR20160034847A (ko) | 단초점 카메라를 이용하여 디스플레이 시스템을 캘리브레이팅하기 위한 시스템 및 방법 | |
US9810913B2 (en) | Smart head-mounted projection system | |
EA032105B1 (ru) | Способ и система для отображения трехмерных объектов | |
WO2016131217A1 (zh) | 一种图像校正的方法和装置 | |
CN110335307B (zh) | 标定方法、装置、计算机存储介质和终端设备 | |
KR102532486B1 (ko) | 웨어러블 디바이스를 테스트하기 위한 방법 및 시스템 | |
KR101991754B1 (ko) | 이미지 처리 방법 및 장치, 그리고 전자 기기 | |
JP2017058843A (ja) | 画像処理装置、画像処理方法および画像処理用プログラム | |
CN102170576A (zh) | 双摄像头立体拍摄的处理方法及装置 | |
BR112021008558A2 (pt) | aparelho, método de estimativa de disparidade, e produto de programa de computador | |
CN101854485A (zh) | 一种自动调节手持立体拍摄设备抖动的方法及装置 | |
JP2012103941A (ja) | 画像処理装置および画像処理方法 | |
CN106851246B (zh) | 用于确定三维图像或视频的视觉疲劳度的方法和设备 | |
KR20150037975A (ko) | 사각 이미지 공급 장치를 이용한 파노라마 이미지 생성 장치 | |
CN104299548B (zh) | 裸眼多视真三维显示系统的校正系统及实现方法 |