ES2770333T3 - Dispositivo de representación de imagen de aberturas múltiples 3D - Google Patents

Dispositivo de representación de imagen de aberturas múltiples 3D Download PDF

Info

Publication number
ES2770333T3
ES2770333T3 ES16757216T ES16757216T ES2770333T3 ES 2770333 T3 ES2770333 T3 ES 2770333T3 ES 16757216 T ES16757216 T ES 16757216T ES 16757216 T ES16757216 T ES 16757216T ES 2770333 T3 ES2770333 T3 ES 2770333T3
Authority
ES
Spain
Prior art keywords
optical channels
channels
images
image
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16757216T
Other languages
English (en)
Inventor
Frank Wippermann
Andreas Brückner
ANDREAS BRäUER
Alexander Oberdörster
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2770333T3 publication Critical patent/ES2770333T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

Dispositivo de representación de imagen de aberturas múltiples 3D para poner a disposición informaciones 3D de una escena con: un sensor de imagen (12); una primera pluralidad (141) de canales ópticos (1411, 1412, 1413, 1414) para representar primeros campos visuales parciales (3011, 3012, 3013, 3014) que se solapan de un campo visual completo (28) sobre primeras zonas de sensor de imagen (1211, 1212, 1213, 1214) del sensor de imagen; una segunda pluralidad (142) 10 de canales ópticos (1421, 1422, 1423, 1424) para representar segundos campos visuales parciales (3021, 3022, 3023, 3024) que se solapan entre sí y con los primeros campos visuales parciales, del campo visual completo (28) sobre segundas zonas de sensor de imagen (1221, 1222, 1223, 1224) del sensor de imagen, estando dispuestas la primera y la segunda pluralidad de canales ópticos lateralmente desplazadas a razón de una separación de base (15) una de la otra; cubriendo los primeros campos visuales parciales (3011, 3012, 3013, 3014) juntos el campo visual completo (28), y cubriendo los segundos campos visuales parciales juntos el campo visual completo (28); un procesador (85) para fundir imágenes, las cuales están recogidas por la primera pluralidad de canales ópticos, dando lugar a una primera imagen completa, estando configurado el procesador (85), para llevar a cabo en una zona de solapamiento (86) de primeros campos visuales parciales de un par de canales ópticos de la primera pluralidad de canales ópticos, la fusión mediante el uso de disparidades en un par de imágenes, de las cuales al menos una está recogida por uno de la segunda pluralidad de canales ópticos, cuyo segundo campo visual parcial representado se solapa con la zona de solapamiento.

Description

DESCRIPCIÓN
Dispositivo de representación de imagen de aberturas múltiples 3D
La presente solicitud hace referencia a un dispositivo de representación de imagen de aberturas múltiples 3D.
Los sistemas de representación de imagen de aberturas múltiples con disposición de canal lineal consisten en varios canales de formación de imagen dispuestos unos junto a los otros, los cuales recogen respectivamente solo una parte del objeto. La imagen completa resulta a este respecto de una unión o fusión de las imágenes parciales individuales. Mediante la separación finita de los canales de formación de imagen entre sí aparece paralaje, que es evidente en particular en separaciones entre objetos cortas y conduce a artefactos en las imágenes completas unidas. Existen también sistemas de representación de imagen de aberturas múltiples, en los cuales los canales individuales recogen una y la misma escena respectivamente por completo, calculándose a partir del paralaje entre los canales una información sobre la profundidad del objeto o de la escena.
Resultan problemas cuando se desean una resolución espacial o lateral alta de la escena con un campo visual relativamente ancho por una parte y la generación de informaciones de profundidad por otra parte con un mismo sistema de representación de imagen.
En el documento WO 2011/063347 A2 se describen sistemas y procedimientos para la implementación de cámaras de conjunto, las cuales están configuradas para llevar a cabo un procesamiento de superresolución, para generar imágenes con superresolución con resolución más alta usando una pluralidad de imágenes grabadas y conjuntos de lentes apiladas, que pueden usarse en cámaras de conjunto.
En el documento US 9,013,543 B1 se describen sistemas, procedimientos y productos de fabricación para minimizar el paralaje basándose en la generación del mapa de profundidad.
En el documento DE 102013222780 B3 se describe un dispositivo de aberturas múltiples para la detección de una zona de objeto con al menos dos canales ópticos para la detección de una primera zona parcial de la zona de objeto y al menos dos canales ópticos para la detección de una segunda zona parcial de la zona de objeto. Los canales ópticos para la detección de la primera y de la segunda zona parcial están dispuestos entrecruzados en una estructura de una sola línea, solapándose la primera y la segunda zona parcial al menos parcialmente.
La presente invención crea un dispositivo de representación de imagen de aberturas múltiples 3D, el cual permite lograr una alta resolución lateral y/o un campo visual amplio, pudiendo derivarse adicionalmente informaciones de profundidad.
Este objetivo se soluciona mediante el objeto de las reivindicaciones independientes.
La presente solicitud se basa en el conocimiento, de que puede crearse un dispositivo de representación de imagen de aberturas múltiples 3D, que sea capaz por un lado, de poner a disposición una información 3D sobre una escena y que permita por otro lado lograr una alta resolución lateral y/o un campo visual amplio, en cuanto que se equipa el dispositivo de representación de imagen de aberturas múltiples 3D con una primera pluralidad de canales ópticos para representar primeros campos visuales parciales que se solapan de un campo visual completo sobre primeras zonas de sensor de imagen de un sensor de imagen del dispositivo de representación de imagen de aberturas múltiples 3D, así como con una segunda pluralidad de canales ópticos para representar segundos campos visuales parciales que se solapan del campo visual completo sobre segundas zonas de sensor de imagen del sensor de imagen, estando dispuestas la primera y la segunda pluralidad de canales ópticos lateralmente desplazadas a razón de una separación de base, y cuando al fundirse imágenes, las cuales están recogidas por la primera pluralidad de canales ópticos, dando lugar a una primera imagen completa en una zona de solapamiento de primeros campos visuales parciales de un par de canales ópticos de la primera pluralidad de canales ópticos, se usan disparidades en un par de imágenes, de las cuales una está recogida por uno de la segunda pluralidad de canales ópticos. El campo visual completo se divide por lo tanto dos veces en campos visuales parciales que se solapan entre sí únicamente de forma parcial, en concreto una vez en forma de la primera pluralidad de canales ópticos y la otra vez en forma de la segunda pluralidad de canales ópticos, debido a lo cual es posible, lograr una resolución lateral deseada y/o una amplitud deseada del campo visual completo y obtener información sobre paralaje más allá del campo visual completo. La fusión de las imágenes obtenidas mediante la primera pluralidad de canales ópticos dando lugar a una imagen completa sufre menos del paralaje, que se da entre los canales de la primera pluralidad de canales ópticos, dado que la fusión de las imágenes, las cuales se recogieron mediante la primera pluralidad de canales ópticos, dando lugar a la primera imagen completa, se refuerza mediante informaciones de disparidad, las cuales se obtienen mediante evaluación de una imagen, la cual se recogió a través de uno de los canales de la segunda pluralidad de canales ópticos. En particular es posible, mantener reducidas las separaciones laterales entre los canales de la primera pluralidad de canales ópticos. Las separaciones laterales que aparecen inevitablemente aún así, conducen a paralaje entre los canales de la primera pluralidad de canales. En la fusión de las imágenes de la primera pluralidad de canales puede realizarse ahora no obstante la dependencia de la separación de objetos de la fusión de las imágenes en la zona de solapamiento con respecto a un modo de proceder, el cual evalúa únicamente disparidades entre imágenes de la primera pluralidad de canales ópticos, de manera mejorada, en cuanto que las disparidades entre imágenes de un par de imágenes se aprovechan, de las cuales una está recogida a través de uno de la segunda pluralidad de canales ópticos. Éste puede ser un par de imágenes, de las cuales una está recogida a través de la primera y la otra a través de la segunda pluralidad de canales, o ser un par de imágenes, de las cuales ambas se recogieron a través de diferentes canales de la primera o de la segunda pluralidad de canales. Para una zona de solapamiento pueden usarse no obstante también disparidades de más de un par de imágenes. Entre ellos podría encontrarse naturalmente de forma adicional también un par de imágenes, de las cuales ambas se recogieron a través de diferentes canales de la segunda pluralidad de canales, es decir, un par de las imágenes, las cuales han de fundirse.
Son objeto de las reivindicaciones dependientes configuraciones ventajosas de la presente solicitud. A continuación se explican con mayor detalle ejemplos de realización de la presente solicitud haciendo referencia a los dibujos. Muestran:
Fig. 1 una representación parcial tridimensional parcialmente esquemática de un dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con un ejemplo de realización.
Fig. 2 una representación esquemática de los canales y su formación de fuentes de disparidad para zonas de solapamiento de campos visuales parciales de canales, cuya imagen ha de fundirse;
Fig. 3 una imagen espacial de un aparato móvil, para ilustrar una estructura del dispositivo de representación de imagen de aberturas múltiples 3D;
Fig. 4 una representación tridimensional de un módulo de un dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con un ejemplo de realización, en el cual a modo de ejemplo las ópticas son portadas por un sustrato transparente, atravesado por trayectorias ópticas; y
Figs. 5a y b vista lateral y vista superior de un módulo de un dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con un ejemplo de realización, en cuyo caso los ejes ópticos disponen de una divergencia previa en el plano de los ejes ópticos y el dispositivo de desvío de haz asume la divergencia en la otra dirección, debido a lo cual la cantidad de facetas del dispositivo de desvío puede reducirse y pueden limitarse las inclinaciones a una dirección.
La Fig. 1 muestra un dispositivo de representación de imagen de aberturas múltiples 3D 10 de acuerdo con un ejemplo de realización. Tiene un sensor de imagen, el cual, tal como se indica en la Fig. 1, puede estar dividido en dos componentes 121 o 122, un componente 121 para los canales ópticos 141 "derechos", y el otro componente 122 para los canales 142 "izquierdos". Los canales ópticos 141 y 142 derechos e izquierdos tienen una estructura idéntica en el ejemplo de la Fig. 1, están dispuestos no obstante desplazados lateralmente unos de otros a razón de una separación de base 15, para obtener en la medida de lo posible muchas informaciones parciales en relación con la escena que se encuentra en el campo visual del dispositivo 10. Los elementos, los cuales están provistos de una referencia, la cual está provista de un índice 1 en la primera posición de la izquierda, forman parte de este modo del primer componente 1 o de un primer módulo para los canales derechos, módulo 1, del dispositivo 10 y los elementos, los cuales están provistos de una referencia, la cual está provista de un índice 2 en la primera posición de la izquierda, forman parte de este modo del segundo componente 2 o de un segundo módulo para los canales izquierdos, módulo 2, del dispositivo 10. Aunque la cantidad de los módulos en la Fig. 1 es de dos, el dispositivo podría tener también más, los cuales estén dispuestos con una separación de base correspondiente entre sí.
En el caso a modo de ejemplo de la Fig. 1 cada pluralidad 141 y 142 de canales ópticos comprende cuatro canales ópticos dispuestos unos junto a los otros. Los canales "derechos" individuales se diferencian por el segundo índice bajo. Los canales se indexan a este respecto de derecha a izquierda. Es decir, el canal óptico 14n, el cual en la Fig. 1 debido a una omisión parcial seleccionada por motivos de claridad, está dispuesto por ejemplo a lo largo de la dirección de separación de base 17, a lo largo del cual están dispuestos los canales izquierdos y derechos desplazados unos con respecto a los otros mediante la separación de base 15, en el borde derecho más exterior, es decir, más alejado de la pluralidad 142 de canales izquierdos, extendiéndose los otros canales derechos 1412 -1414 a lo largo de la dirección de separación de base 17. Los canales 14n - 1414 forman por lo tanto un conjunto de una sola línea de canales ópticos, cuya dirección de extensión de línea se corresponde con la dirección de separación de base 17. De igual modo están estructurados también los canales izquierdos 142. También éstos son diferentes entre sí debido al segundo índice bajo. Los canales izquierdos 1421 - 1424 están dispuestos juntos y se suceden en la misma dirección que los canales derechos 14n - 1414, concretamente de tal manera, que el canal 1421 está más próximo a los canales derechos y el canal 1424 más alejado del último mencionado.
Cada uno de los canales derechos 14n -1414 comprende una correspondiente óptica, las cuales, tal como se indica en la Fig. 1, puede consistir en un sistema de lentes. Alternativamente cada canal podría presentar una lente. Cada canal óptico 14n - 1414 recoge uno de los campos visuales parciales que se solapan de un campo visual completo 28, que se solapan mutuamente y cubren juntos el campo visual completo 28. El canal 14n representa por ejemplo el campo visual parcial 30n en una zona de sensor de imagen 12n, el canal óptico 1412 el campo visual parcial 3012 en una zona de sensor de imagen 1212, el canal óptico 1413 un campo visual parcial 3013 asignado en una correspondiente zona de sensor de imagen 1213 no visible en la Fig. 1, del sensor de imagen 12 y el canal óptico 1414 un campo visual parcial 3014 asignado en una correspondiente zona de sensor de imagen 1214, que tampoco se muestra debido a ocultación en la Fig. 1.
En la Fig. 1 las zonas de sensor de imagen 12n -1214 del sensor de imagen 12 o del componente 121 del sensor de imagen 12 están dispuestas en un plano en paralelo con respecto a la dirección de separación de base 15 o en paralelo con respecto a la dirección de extensión de líneas 17, y son paralelos con respecto a este plano también planos de lente de las ópticas de los canales ópticos 14n -1414. Además de ello las zonas de sensor de imagen 12n - 1214 están dispuestas con una separación entre canales 19 lateral entre sí, con la cual están dispuestas también las ópticas de los canales ópticos 14n - 1414 entre sí en esta dirección, de manera que los ejes ópticos y las trayectorias ópticas de los canales ópticos 14n -1414 entre las zonas de sensor de imagen 12n -1214 y las ópticas 14n -1414 se extienden en paralelo entre sí. Los centros de las zonas de sensor de imagen 12n -1214 y los centros ópticos de las ópticas de los canales ópticos 14n - 1414 están dispuestos por ejemplo en el correspondiente eje óptico, que se extiende en perpendicular con respecto al plano común mencionado anteriormente de las zonas de sensor de imagen 12n -1214.
Los ejes ópticos o trayectorias ópticas de los canales ópticos 14n - 1414 se desvían mediante un dispositivo de desvío de haz 241 y se proveen de este modo de una divergencia, la cual conduce a que los campos visuales parciales 30n - 3014 de los canales ópticos 14n -1414 se solapen mutuamente solo parcialmente, como por ejemplo de tal manera que se solapen por pares los campos visuales parciales 30n - 3014 como mucho en un 50 % en el sentido del ángulo espacial. El dispositivo de desvío de haz 241, tal como se indica en la Fig. 1, puede presentar por ejemplo para cada canal óptico 14n - 1414 una faceta reflexiva, las cuales entre los canales 14n - 1414 tienen un ladeo diferente entre sí. Una inclinación media de las facetas reflexivas con respecto al plano de sensor de imagen desvía el campo visual completo de los canales derechos 14n - 1414 en una dirección, la cual se encuentra por ejemplo en perpendicular con el plano, por el cual se extienden los ejes ópticos de los canales ópticos 14n - 1414 antes o sin desvío de haz por el dispositivo 241, o se desvía de esta dirección perpendicular a razón de menos de 10°. El dispositivo de desvío de haz 241 podría usar alternativamente también prismas para el desvío de haz de los ejes ópticos o trayectorias ópticas individuales de los canales ópticos 14n -1414.
El dispositivo de desvío de haz 241 provee las trayectorias ópticas de los canales ópticos 14n - 1414 de una divergencia, de tal manera que los canales 14n - 1414 dispuestos propiamente dicho linealmente en la dirección 17 unos junto a los otros, cubren bidimensionalmente el campo visual completo 28.
Se indica que las trayectorias ópticas o los ejes ópticos podrían desviarse también del paralelismo descrito, pero el paralelismo de las trayectorias ópticas de los canales ópticos podría aún así tener una configuración tal, que los campos visuales parciales, los cuales quedan cubiertos por los canales 14n -1414 individuales o se representan en las correspondientes zonas de sensor de imagen 12n - 1214, se solapen sin medidas adicionales, como concretamente el desvío de haz, de manera que para cubrir un campo visual completo mediante el dispositivo de representación de imagen de aberturas múltiples 10, el dispositivo de desvío de haz 24 provee de tal manera las trayectorias ópticas de una divergencia adicional, que los campos visuales parciales de los canales 14n - 1414 se solapan mutuamente. El dispositivo de desvío de haz 241 se ocupa por ejemplo de que el campo visual completo presente un ángulo de abertura medio por todos los ángulos azimutales o por todas las direcciones transversales, que sea mayor a 1,5 veces al ángulo de abertura medio correspondiente de los campos visuales parciales de los canales ópticos 14n -1414.
Del mismo modo que los canales derechos 14n - 1414, están estructurados ahora también los canales izquierdos 1421 - 1424 y posicionados en relación con correspondientes zonas de sensor de imagen 1221 - 1224 asignadas, desviándose los ejes ópticos de los canales ópticos 1421 - 1424, que se extienden por el mismo plano que los ejes ópticos de los canales 14n -1414 en paralelo entre sí, mediante un correspondiente dispositivo de desvío de haz 242, de manera que los canales ópticos 1421 -1424 recogen el mismo campo visual completo 28 de modo casi congruente, en concreto en campos visuales parciales 3021 - 3024, en los cuales está dividido bidimensionalmente el campo visual completo 28, que se solapan mutuamente, y de los cuales cada uno se solapa casi por completo con el correspondiente campo visual parcial 30n - 3014 de un correspondiente canal de los canales derechos 14n - 1414. Se solapan por ejemplo casi por completo entre sí los campos visuales parciales 30n y el campo visual parcial 3021, los campos visuales parciales 3012 y 3022, etc.
Las zonas de sensor de imagen 12n - 1224 pueden estar formadas por ejemplo respectivamente a partir de un chip, el cual comprende un correspondiente conjunto de píxeles, pudiendo estar montados los chips sobre un sustrato común o una pletina común o por grupos sobre varias pletinas, tal como se indica en la Fig. 1, y en concreto para el caso de la colocación separada de los chips de las zonas de sensor de imagen 12ii - 12 i4 del componente 12i sobre una pletina y los chips de las zonas de sensor de imagen 1221 - 1224 del componente 122 sobre otra pletina. Alternativamente sería posible naturalmente también que las zonas de sensor de imagen 12n - 1224 juntas o por grupos, como por ejemplo separadas dependiendo de la pertenencia al componente 121 y 122, estén formadas a partir de una parte de un conjunto de píxeles común, el cual se extiende de forma continua por las correspondientes zonas de sensor de imagen, formándose el conjunto de píxeles común por ejemplo sobre un único chip. Se leen entonces únicamente los valores de píxeles del conjunto de píxeles común en las respectivas zonas de sensor de imagen. Son posibles también naturalmente diferentes mezclas de estas alternativas, como por ejemplo la presencia de un chip para dos o más canales y de un chip adicional para por su parte otros canales o similares dentro de un componente 121 y 122.
Adicionalmente a los componentes mencionados anteriormente, el dispositivo de representación de imagen de aberturas múltiples 3D comprende un procesador 85, el cual asume la tarea, de fundir por ejemplo las imágenes, las cuales han sido recogidas en una grabación mediante el dispositivo de representación de imagen de aberturas múltiples 3D 10 mediante los canales ópticos 14n -1414 derechos, dando lugar a una imagen completa. El problema, el cual hay que superar a este respecto, es el siguiente: debido a las separaciones entre canales 19 entre canales adyacentes de los canales derechos 14n - 1414, las imágenes, las cuales se recogen en una grabación a través de los canales 14n -1414 en las zonas de imagen 12n - 1214, no pueden disponerse fácilmente o desplazadas unas con respecto a las otras de forma translatoria o unas sobre las otras. Expresado con otras palabras, no pueden unirse sin más entre sí. Se llama disparidad al desplazamiento lateral a lo largo de la dirección 15, 17 o 19 en las imágenes de las zonas se sensor de imagen 12n - 1214 al recogerse una misma escena, que se corresponden entre sí pero que se encuentran en imágenes diferentes. La disparidad de contenidos de imagen que se corresponden entre sí depende por su parte no obstante, de la separación de este contenido de imagen de la escena, es decir, de la distancia del correspondiente objeto del dispositivo 10. El procesador 85 podría intentar ahora, evaluar disparidades entre las imágenes de las zonas de sensor de imagen 12n - 1214 él mismo, para fundir estas imágenes entre sí dando lugar a una imagen completa, en concreto dando lugar a una "imagen concreta derecha". Es desventajoso no obstante, que la separación entre canales 19 bien es cierto que existe, y con ello da lugar al problema de que la separación entre canales 19 sea por otra parte no obstante relativamente pequeña, de manera que la resolución o el cálculo de profundidades sea únicamente no preciso. El intento de determinar contenidos de imagen correspondientes entre sí en una zona de solapamiento entre dos imágenes, como por ejemplo en la zona de solapamiento 86 entre las imágenes de las zonas de sensor de imagen 12n y 1212 por ejemplo mediante correlación, es por lo tanto difícil.
El procesador de la Fig. 1 usa por lo tanto en la zona de solapamiento 86 entre campos visuales parciales 30n y 3012 para la fusión de disparidades, un par de imágenes, de las cuales una está recogida por uno de los canales izquierdos 1421 o 1422, cuyo segundo campo visual parcial representado, en concreto 3021 o 3022, se solapa con la zona de solapamiento 86. El proceso 85 evalúa por ejemplo para la fusión de las imágenes de las zonas de sensor de imagen 12n y 1212 disparidades en imágenes, de las cuales una está recogida por una de las zonas se sensor de imagen 1221 o 1222 y otra por un canal que participa en la zona de solapamiento 86, es decir, una imagen, la cual está recogida por una de las zonas de sensor de imagen 12n o 1212. Un par de este tipo tiene entonces una separación de base de la separación de base básica 15 más/menos una o ninguna de las separaciones de base de canal 19. Esta última separación de base es claramente mayor que una única separación de base de canal 19, debido a lo cual las disparidades pueden determinarse con mayor facilidad en la zona de solapamiento 86 por parte del procesador 85. El procesador 85 evalúa por lo tanto para la fusión de las imágenes de los canales derechos, disparidades, que resultan con una imagen de los canales izquierdos y en concreto preferentemente, pero no exclusivamente, entre imágenes de uno de los canales derechos y de uno de los canales izquierdos.
Expresado de manera más específica, es posible que el procesador 85 asuma aquella parte del campo visual parcial 3011, que no se solapa con otro de los campos visuales parciales de los canales derechos, en mayor o menor medida directamente a partir de la imagen 12n y asuma lo mismo para las zonas que no se solapan de los campos visuales parciales 3012, 3013 y 3014 basándose en las imágenes de las zonas de sensor de imagen 1212 - 1214, habiendo sido recogidas las imágenes de las zonas de sensor de imagen 12n - 1214 por ejemplo simultáneamente. Únicamente en las zonas de solapamiento de campos visuales parciales adyacentes, como por ejemplo los campos visuales parciales 30n y 3012, el procesador 85 recurre entonces disparidades de pares de imágenes, cuyo solapamiento en el campo visual completo 28 se solapa en la zona de solapamiento, pero de los cuales la mayoría, pero no únicamente, uno se recogió a través de uno de los canales derechos y el otro a través de uno de los canales izquierdos, como por ejemplo por su parte al mismo tiempo.
De acuerdo con un modo de proceder alternativo sería posible no obstante también, que el procesador 85 deforme todas las imágenes del canal derecho, y concretamente de acuerdo con una evaluación de disparidades entre pares de imágenes, de las cuales una se recogió respectivamente a través de los canales derechos y la otra a través de los canales izquierdos. De este modo por ejemplo, la imagen completa, la cual se calcula mediante el procesador 85 para las imágenes de los canales derechos, virtualmente puede no solo en la zona de solapamiento de los campos visuales parciales 30n - 3014 de los canales derechos, sino también en la zona de no solapamiento "deformarse" virtualmente en un punto de visión, el cual se encuentra por ejemplo lateralmente en el centro entre los canales derechos 14ii - 14i4, y concretamente en cuanto que también para aquellas zonas de los campos visuales parciales 30ii - 3014, los cuales no se solapan entre sí, se evalúan disparidades de pares de imágenes mediante el procesador 85, en cuyo caso una imagen fue recogida por uno de los canales derechos y otra imagen por uno de los canales izquierdos.
El dispositivo de representación de imagen de aberturas múltiples 3D 10 de la Fig. 1 no es capaz solamente, de generar una imagen completa a partir de las imágenes de los canales derechos, sino que el dispositivo de representación de imagen de aberturas múltiples 3D 10 de la Fig. 1 es capaz al menos también en un modo de funcionamiento, de generar a partir de una grabación adicional a la imagen completa de los primeros canales, también una imagen completa de las imágenes de los canales izquierdos y/o adicionalmente a la imagen completa de los canales derechos un mapa de profundidad.
De acuerdo con la primera alternativa el procesador 85 está configurado por ejemplo, para fundir imágenes, las cuales están recogidas por los canales ópticos 1421 - 1424 izquierdos o las zonas de sensor de imagen 1221 - 1224, dando lugar a una segunda imagen completa, concretamente una imagen completa del canal izquierdo, y para usar a este respecto en una zona de solapamiento de campos visuales parciales 3021 - 3024 adyacentes lateralmente de los canales ópticos izquierdos, disparidades en un par de imágenes, de las cuales la mayoría, pero no únicamente, una está recogida por un canal óptico 14n -1414 derecho y se solapa con la zona de solapamiento correspondiente del par de campos visuales parciales 3021 - 3024, y la otra está recogida preferentemente por uno de los canales ópticos izquierdos, cuyo campo visual parcial se solapa con la correspondiente zona de solapamiento.
De acuerdo con la primera alternativa el procesador 85 emite por lo tanto para una grabación dos imágenes completas, concretamente una para los canales ópticos derechos y la otra para los canales ópticos izquierdos. Estas dos imágenes completas podrían suministrarse por ejemplo a ambos ojos del usuario por separado y conducir de este modo a una impresión tridimensional de la escena recogida.
De acuerdo con la otra alternativa que se ha mencionado anteriormente el procesador 85 genera adicionalmente a la imagen completa de los canales derechos un mapa de profundidad, y concretamente usando disparidades en pares de imágenes, que presentan al menos para cada uno de los canales derechos 14n - 1414 al menos un par, el cual presenta una imagen, la cual está recogida por el correspondiente canal derecho, y otra imagen, la cual está recogida por uno de los canales izquierdos.
En el ejemplo de realización, en el cual se genera el mapa de profundidad mediante el procesador 85, es posible también llevar a cabo la deformación mencionada anteriormente para todas las imágenes, las cuales están recogidas por los canales derechos, basándose en el mapa de profundidad. Dado que el mapa de profundidad presenta por el campo visual completo 28 informaciones de profundidad, es posible, deformar todas las imágenes, las cuales están recogidas por los canales derechos, es decir, no solo en las zonas de solapamiento de las mismas, sino también en las zonas de no solapamiento, en un punto de abertura común virtual o un centro óptico.
Las dos alternativas pueden ser también desarrolladas ambas por el procesador 85: éste podría generar en primer lugar las dos imágenes completas, concretamente una para los canales ópticos derechos y la otra para los canales ópticos izquierdos, tal como se ha descrito arriba, en cuanto que en la fusión de las imágenes de los canales derechos en las zonas de solapamiento entre las imágenes de los canales derechos se usan también disparidades de pares de imágenes, de las cuales una forma parte de las imágenes de los canales izquierdos, y durante la fusión de las imágenes de los canales izquierdos se usan en las zonas de solapamiento entre las imágenes de los canales izquierdos también disparidades de pares de imágenes, de las cuales una forma parte de las imágenes de los canales derechos, para generar entonces a partir de las imágenes completas obtenidas de este modo, que representan la escena en el campo visual completo desde diferentes perspectivas, una imagen completa con mapa de profundidad correspondiente, como por ejemplo una imagen completa, la cual se encuentra con respecto a una vista virtual o con respecto a un centro óptico virtual entre los centros ópticos de las ópticas de los canales ópticos derechos e izquierdos, posiblemente no obstante no únicamente de forma central entre ellos. Para calcular el mapa de profundidad y para deformar una de las dos imágenes completas o para deformar y fundir las dos imágenes completas en la vista virtual, el procesador 85 usó entonces la imagen completa derecha e izquierda, por así decirlo como resultado intermedio entre la fusión anterior de las imágenes individuales izquierdas y derechas. El procesador evaluó en este caso por lo tanto disparidades en las dos imágenes completas de resultado intermedio, para obtener el mapa de profundidad y llevar a cabo la deformación o la deformación/fusión del mismo.
Se menciona que el procesador lleva a cabo la evaluación de disparidades en un par de imágenes por ejemplo mediante correlación cruzada de zonas de imagen.
La Fig. 2 muestra además, que el procesador 85 representa basándose en la fusión de imágenes, las cuales se excluyeron mediante un par de sensores de imágenes, sobre un par de ópticas de los canales izquierdos un par de campos visuales parciales directamente adyacentes, como es el caso a modo de ejemplo para los campos visuales parciales 30-n y 30i2, más allá de este par de imágenes puede usar aún disparidades en una o en varias de las demás ( 4 ), es decir, "dos de cuatro", fuentes de disparidad, es decir, pares de imágenes de zonas de sensor de imagen, que se refieren a disparidades de objetos de escena en la zona de solapamiento entre este par de campos visuales parciales directamente adyacentes. En la Fig. 2 esto se indica a modo de ejemplo para la zona de solapamiento sombreada de forma cruzada entre los campos visuales parciales 30n y 3012: junto al par de imágenes a fundir de los canales derechos 14n y 1412 mismos (fuente de disparidad 1) existen cuatro pares de imágenes, de las cuales una se representa por un canal derecho y la otra por un canal izquierdo sobre una respectiva zona de sensor de imagen y se recoge por ésta última (fuente de disparidad 2,3, 4, 5), concretamente imágenes las cuales están recogidas mediante los canales 14n y 1421 (fuente de disparidad 2), imágenes las cuales están recogidas mediante los canales 14n y 1422 (fuente de disparidad 3), imágenes las cuales están recogidas mediante los canales 1412 y 1422 (fuente de disparidad 4) e imágenes las cuales están recogidas mediante los canales 1412 y 1421 (fuente de disparidad 5). Existe además de ello un par de imágenes, de las cuales ambas se representan a través de un canal izquierdo sobre una correspondiente zona de sensor de imagen y se recogen por ésta última (fuente de disparidad 6, par 1421 con 1422). El procesador puede usar una o varias de las fuentes 2 a 5 adicionales para reforzar la fusión. En caso de calcular el procesador 85 de acuerdo con la alternativa mencionada arriba, también un mapa de profundidad para el campo visual completo 28, entonces el procesador puede determinar en correspondencia con el modo de proceder durante la fusión de imágenes el mapa de profundidad en cada punto del campo visual 28 a partir de la evaluación de las disparidades de más de un par de imágenes, de las cuales una se representa por un canal derecho y la otra por un canal izquierdo sobre una respectiva zona de sensor de imagen y se recoge por ésta última, en concreto en puntos, en los cuales más allá del campo visual parcial de un canal derecho y el campo visual de un canal izquierdo se solapa mutuamente otro par. En la Fig. 2 este es el caso únicamente en las zonas de solapamiento de campos visuales parciales de canales derechos, que debido a la congruencia con los campos visuales parciales de canales izquierdos son idénticas a las zonas de solapamiento de campos visuales parciales de canales izquierdos, pero en otros ejemplos de realización la congruencia dado el caso posiblemente no exista.
Se menciona que en caso de otra cobertura del campo visual completo 28 mediante los campos visuales parciales de los canales izquierdos por un lado y de los campos visuales parciales de los canales derechos por otro lado, se solapan mutuamente entre sí dado el caso también más de cuatro canales (careciendo de importancia su pertenencia a los canales izquierdos o derechos), como ha sido el caso por ejemplo también en el solapamiento mutuo entre las zonas de solapamiento de campos visuales parciales adyacentes en dirección de línea en dirección de apilamiento, de los ejemplos hasta ahora, en cuyo caso los campos visuales parciales de los canales derechos, así como los campos visuales parciales de los canales izquierdos estaban dispuestos respectivamente en columnas y líneas. Entonces tiene validez para la cantidad de fuentes de disparidad muy en general, que (^), indicando N la cantidad de los canales con campos visuales parciales que se solapan entre sí.
Adicionalmente a la descripción anterior se menciona también, que el procesador 85 lleva a cabo opcionalmente entre otras, una corrección por canal de perturbaciones de representación en perspectiva del correspondiente canal.
Se indica que el ejemplo de realización de la Fig. 1 ha sido en muchos aspectos únicamente a modo de ejemplo. Esto se refiere a por ejemplo la cantidad de canales ópticos. La cantidad de canales ópticos no es por ejemplo cuatro, sino de algún modo mayor o igual a 2 o se encuentra entre 2 y 10, ambos incluidos, y la zona de solapamiento de los campos visuales parciales de los canales ópticos derechos puede, siempre y cuando se tenga en consideración para cada campo visual parcial o cada canal, el par con el mayor solapamiento con el correspondiente campo visual parcial, en lo que a la superficie se refiere para todos estos pares, encontrarse entre 1/2 y 1/1000 de un tamaño medio de imagen de las imágenes, las cuales son recogidas por las zonas de imagen 1211 - 1214, medido por ejemplo en el plano de imagen, es decir, el plano de las zonas de sensor de imagen. Lo mismo se cumple por ejemplo para los canales izquierdos. La cantidad entre los canales derechos y los canales izquierdos puede ser no obstante diferente. Esto quiere decir, que la cantidad de los canales ópticos izquierdos, Nl, y canales ópticos derechos, Nr, no ha de ser necesariamente igual y una distribución del campo visual completo 28 en los campos visuales parciales de los canales izquierdos y los campos visuales parciales de los canales derechos no ha de ser aproximadamente igual, como era el caso en la Fig. 1. En lo que se refiere a los campos visuales parciales y su solapamiento, puede comportarse por ejemplo de tal manera, que los campos visuales parciales penetren entre sí por ejemplo a razón de al menos 20 píxeles, siempre y cuando se tenga en consideración una separación de imagen o una separación de objeto de 10 m, en todo caso para todos los pares con el solapamiento más grande, pudiendo cumplirse esto para los canales derechos, así como para los canales izquierdos.
A diferencia de lo explicado anteriormente, no es necesario tampoco, que los canales ópticos izquierdos o los canales ópticos derechos estén formados de una línea. Los canales izquierdos y/o los derechos podrían formar también un conjunto bidimensional de canales ópticos. Además de ello no es necesario, que los conjuntos individuales presenten una dirección de extensión de líneas colineal. La disposición de la Fig. 1 es ventajosa no obstante, dado que da como resultado una altura constructiva mínima en perpendicular con respecto al plano, en el cual están dirigidos los ejes ópticos o los canales ópticos, es decir, tanto de los canales derechos, como también de los izquierdos, antes de o sin desvío de haz. En lo que se refiere al sensor de imagen 12 ya se ha mencionado que el mismo puede estar formado por uno, dos o varios chips. Podría estar previsto por ejemplo un chip por cada zona de sensor de imagen 12n - 1214 y 1221 - 1224, pudiendo estar fijados varios chips del mismo sobre una o varias pletinas, como por ejemplo una pletina para los canales izquierdos o los sensores de imagen de los canales izquierdos o una pletina para los sensores de imagen de los canales derechos.
En el ejemplo de realización de la Fig. 1 es posible por lo tanto, disponer canales adyacentes dentro de los canales de los canales derechos o izquierdos, tan juntos como sea posible, correspondiéndose en el caso óptimo la separación de canales 19 con el diámetro de lente. De ello resulta una separación de canales reducida y por consiguiente una disparidad reducida. Los canales derechos por un lado y los canales izquierdos por otro lado pueden disponerse no obstante con una separación 15 cualquiera entre sí, de manera que pueden realizarse disparidades grandes. En general resulta la posibilidad de una fusión de imágenes reducida en o también libre de artefactos y de una generación de mapas de profundidad con un sistema de representación óptico pasivo.
Con respecto a los ejemplos anteriores sería posible, usar más de solo dos grupos de canales 141 y 142, antes bien más. La cantidad de grupos podría denominarse con N. En caso de que también en este caso la cantidad de canales por grupo fuese igual, así como la distribución de campo visual completo en campos visuales parciales para todos los grupos fuese igual, entonces resultaría por cada zona de solapamiento de campos visuales parciales del grupo 141, por ejemplo una cantidad de fuentes de disparidad de (2.^). Una distribución de campo visual completo diferente para los grupos de canales es no obstante también concebible, tal como ya se ha mencionado arriba.
Finalmente se indica que en la descripción anterior únicamente se ha tenido en cuenta el caso a modo de ejemplo, de que el procesador 85 funde las imágenes de los canales derechos. El mismo modo de proceder podría llevarse a cabo por parte del procesador 85 tal como se ha mencionado anteriormente para ambos o todos los grupos de canales, o también para los izquierdos o similares.
El dispositivo de representación de imagen de aberturas múltiples 3D de la Fig. 1 puede estar integrado por ejemplo en una carcasa plana de un aparato móvil, como por ejemplo un teléfono móvil. A este respecto el plano de las zonas de sensor de imagen 12n - 1214 y 1221 - 1224, así como cualquier plano de lente de las ópticas de los canales izquierdos y derechos puede extenderse en paralelo con respecto a una dirección de grosor de la carcasa plana. Mediante el desvío de haz a través del dispositivo de desvío de haz 241 o 242, el campo visual completo del dispositivo de representación de imagen de aberturas múltiples 3D se encontraría por ejemplo delante de un lado anterior, en el cual por ejemplo está posicionada la pantalla de un aparato móvil, o delante un lado posterior del aparato móvil.
La Fig. 3 ilustra, cómo el dispositivo 10 de las alternativas descritas anteriormente está integrado por ejemplo en una carcasa plana de un aparato 200 portátil, que puede ser por ejemplo un teléfono móvil, un teléfono inteligente o un reproductor multimedia o similar. El plano de las zonas de sensor de imagen de las partes 121 y 122 y los planos de lentes de las ópticas de los canales 141 y 142 están orientados en perpendicular con respecto a la dirección de extensión plano de la carcasa plana o en paralelo con respecto a la dirección de grosor. De este modo el dispositivo de desvío de haz 241 o 242 se ocuparía por ejemplo de que el campo visual completo del dispositivo de representación de imagen de aberturas múltiples 10 se encontrase delante de un lado anterior 202 de la carcasa plana, que presentase por ejemplo también una pantalla. Alternativamente sería posible también un desvío tal, que el campo visual se encontrase delante de un lado posterior de la carcasa plana, opuesto al lado anterior 202. La carcasa podría presentar una ventana 206 transparente por el lado atravesado 202, para dejar pasar las trayectorias ópticas de los grupos de canales ópticos, 141 y 142. La carcasa del aparato 200 o el aparato mismo pueden ser planos, dado que mediante la posición ilustrada del dispositivo 10 en la carcasa, la altura constructiva del dispositivo 10, que es paralela con respecto al grosor de la carcasa, puede mantenerse reducida. Una incorporación del dispositivo 10 en otro o dado el caso aparato no portátil, como por ejemplo un coche, sería naturalmente también posible.
En relación con el dispositivo de desvío de haz 241 o 242 cabe decir que el mismo representa un elemento opcional. La divergencia de las trayectorias ópticas de los canales ópticos, es decir, de los canales derechos entre sí por un lado y de los canales izquierdos entre sí por otro lado, podría generarse también de otro modo que mediante el uso de un correspondiente dispositivo de desvío de haz 241 - 242. Los centros ópticos de las ópticas de los canales ópticos podrían estar desplazados lateralmente con respecto a las correspondientes zonas de sensor de imagen, para generar únicamente de forma parcial, es decir, no completa, solapamiento de los campos visuales parciales entre los canales izquierdos por un lado y entre los canales derechos por otro lado.
Para ilustrarlo una vez más con mayor detalle, la Fig. 4 muestra una vez más un ejemplo concreto de la configuración de acuerdo con la Fig. 1, en cuyo caso en cada módulo 1 y 2 el correspondiente dispositivo de desvío 241 o 242 genera la divergencia a partir de ejes ópticos 221 o 222 en primer lugar paralelos entre sí, de los canales ópticos 141# o 142#. La Fig. 4 ilustra por motivos de claridad solo el módulo 1 con los canales derechos, pero la representación y la descripción tienen validez naturalmente también de igual modo para el módulo 2.
La Fig. 4 muestra que cada canal óptico 14-n, 14i2, 14i3, 14i4 mediante la correspondiente óptica I 611 - I 614 representa el correspondiente recorte 30n - 3014 individual de canal del campo visual completo 28 en la correspondiente zona de sensor de imagen 12n, 1212, 1213 o 1214 del sensor de imagen 121. Las ópticas 1611 - 1614 consisten por ejemplo respectivamente en una lente o en un grupo de lentes, las cuales, tal como se muestra en la Fig. 4, pueden estar sujetadas por una sujeción 181 común. La sujeción 181 está formada a modo de ejemplo de material transparente y es atravesada por las trayectorias ópticas de los canales ópticos, pero existen naturalmente también otras alternativas para sujeciones. Las zonas de sensor de imagen 12n - 1214 están dispuestas en un plano común, concretamente el plano de imagen de los canales ópticos 141. En la Fig. 4 este plano es a modo de ejemplo paralelo con respecto al plano, el cual se forma por un eje x y un eje y de un sistema de coordenadas cartesiano, que en la Fig. 1 para la simplificación de la descripción posterior se indica y se marca con la referencia 20. En un ejemplo de realización sería el mismo plano, en el cual se encuentran las zonas de sensor de imagen 1221 - 1224. En un plano paralelo con respecto al sensor de imagen 12 , es decir, en paralelo con respecto al plano xy, se encuentran ahora por ejemplo también las ópticas 1611 - 1614 dispuestas unas junto a las otras. En el ejemplo de la Fig. 4 las posiciones relativas de las zonas de sensor de imagen 12n - 1214 están posicionadas en el plano de sensor de imagen además de ello de forma congruente con las posiciones relativas de las ópticas 1611 - 1614 y las ópticas 1611 - 1614 a lo largo de los ejes x e y, es decir, lateralmente, en relación con el sensor de imagen 121, de tal manera que los centros ópticos 161 - 164 están dispuestos centrados con respecto a los centros de las zonas de sensor de imagen 12n - 1214. Esto significa que en el ejemplo de la Fig. 4 ejes ópticos 22n - 2214 de los canales ópticos 14n -1414 se extienden en primer lugar en paralelo entre sí y en paralelo con respecto al eje z del sistema de coordenadas 20, estando posicionadas con respecto a estos ejes ópticos las zonas de sensor de imagen 12n - 1214 y las ópticas 1611 - 1614 centradas. El plano de los centros ópticos sería de acuerdo con un ejemplo de realización de nuevo igual entre los módulos 1 y 2. El sustrato 181 opcionalmente presente podría estar previsto para cada módulo por separado o portar las ópticas de los dos módulos. Es posible que el dispositivo disponga de uno o de varios equipos, los cuales sean capaces, de modificar una posición relativa de las ópticas 1611 - 1614 con respecto a las zonas de sensor de imagen 12n - 1214 en dirección lateral, es decir, en dirección x y/o y, como por ejemplo para la estabilización de imagen. Las ópticas 1611 - 1614 representan objetos en una escena en el campo visual completo 28 en las zonas de sensor de imágenes 12n - 1214 y están posicionadas para ello a una correspondiente distancia o con una correspondiente separación del sensor de imagen 121. Mientras que esta separación podría estar también ajustada de forma fija, podría estar previsto alternativamente un equipo para modificar esta separación de sensor de imagen con respecto a ópticas, como por ejemplo para la modificación de foco manual o automática. El dispositivo de desvío de haz, 241 desvía ahora las trayectorias ópticas o los ejes ópticos 22n - 2214 de la pluralidad de canales ópticos 14, de manera que el campo visual completo 28 no se encuentra en la dirección del eje z, sino en otro lugar. La Fig. 4 representa el caso a modo de ejemplo, de que el campo visual completo 28 se encuentre tras desvío esencialmente a lo largo del eje y, es decir, el desvío se produce esencialmente en el plano zy. Ahora, tal como fue descrito anteriormente, en el ejemplo de realización de la Fig. 4 los ejes ópticos 22n - 2214 son antes del o sin el desvío mediante el dispositivo de desvío de haz 241 o en por ejemplo las ópticas 1611 - 1614, paralelos entre sí. El posicionamiento central correspondiente con ello, de ópticas 1611 - 1614 así como de las zonas de sensor de imagen 1211 - 1214, es fácil de establecer y ventajoso en lo que se refiere a la minimización del espacio constructivo. El paralelismo de las trayectorias ópticas de los canales ópticos condiciona no obstante también, que los campos visuales parciales, los cuales quedan cubiertos por los canales 14n - 1414 individuales o se representan en las correspondientes zonas de sensor de imagen 12n - 1214, se solapen sin medidas adicionales, como por ejemplo el desvío de haz, casi por completo. Para cubrir un campo visual completo 28 más grande, consiste ahora una función adicional del dispositivo de desvío de haz 241 de la Fig. 4 en proveer los ejes ópticos de las trayectorias ópticas de tal manera de una divergencia, es decir, desviar las trayectorias ópticas, que se solapen los campos visuales parciales 30n-30^ de los canales 14n - 1414 menos mutuamente. En el ejemplo de la Fig. 4 las facetas 2611-2614 asignadas a los canales ópticos individuales, del dispositivo de desvío 241, presentan diferente inclinación mutua entre sí o en relación con el sensor de imagen 121, y concretamente inclinaciones tanto a razón del eje x como también en perpendicular con respecto a éste.
Ya se ha indicado más arriba que las trayectorias ópticas o los ejes ópticos podrían desviarse de un paralelismo o desvío de haz. Este hecho se describe en lo sucesivo con que los canales pueden estar provistos de un tipo de divergencia previa de los ejes ópticos. Con esta divergencia previa de los ejes ópticos 22n - 2214 sería posible que por ejemplo no se diferenciasen todas las inclinaciones de faceta, sino que algunos grupos de canales tuviesen por ejemplo las facetas con la misma inclinación. Éstas últimas pueden entonces formarse de una sola pieza o pasando unas a otras, por así decirlo como una faceta, la cual está asignada a este grupo de canales adyacentes en dirección de extensión de líneas. La divergencia de los ejes ópticos de estos canales podría tener su origen entonces en la divergencia de estos ejes ópticos, tal como se logra mediante desplazamiento lateral entre centros ópticos de las ópticas y zonas de sensor de imagen de los canales. La divergencia previa podría limitarse por ejemplo a un plano. Los ejes ópticos podrían por ejemplo extenderse antes de o sin desvío de haz por un plano común, pero en éste de forma divergente, y las facetas dan lugar únicamente ya solo a una divergencia adicional, es decir, desvío o también modificación de dirección en el otro plano transversal, es decir, están inclinadas todas en paralelo con respecto a la dirección de extensión de línea y ya solo de modo diferente con respecto al plano común mencionado anteriormente de los ejes ópticos, pudiendo tener en este caso por su parte varias facetas la misma inclinación o pudiendo estar asignadas conjuntamente a un grupo de canales, cuyos ejes ópticos se diferencian por ejemplo ya en el plano común ya mencionado anteriormente de los ejes ópticos por pares antes de o sin desvío de haz.
La divergencia previa mencionada posiblemente presente puede lograrse, en cuanto que los centros ópticos se encuentran en una recta a lo largo de la dirección de extensión de línea, mientras que los centros de las zonas de sensor de imagen están dispuestos desviándose desde la proyección de los centros ópticos a lo largo de las normales del plano de las zonas de sensor de imagen en puntos sobre una recta en el plano de sensor de imagen, como por ejemplo en puntos, los cuales se desvían de los puntos en la recta mencionada anteriormente en el plano de sensor de imagen individualmente por canal a lo largo de la dirección de extensión de línea y/o a lo largo de la dirección perpendicular con respecto tanto a la dirección de extensión de línea, como también a la normal de sensor de imagen. De manera alternativa puede lograrse divergencia previa, en cuanto que los centro de los sensores de imagen se encuentran sobre una recta a lo largo de la dirección de extensión de línea, mientras que los centros de las ópticas están dispuestos desviándose desde la proyección de los centros ópticos de los sensores de imagen a lo largo de las normales del plano de los centros ópticos de las ópticas en puntos sobre una recta en el plano de centro de óptica, como por ejemplo en puntos, los cuales se desvían de los puntos en la recta mencionada anteriormente en el plano de centro de óptica individualmente por canal a lo largo de la dirección de extensión de línea y/o a lo largo de la dirección perpendicular con respecto tanto a la dirección de extensión de línea, como también a la normal del plano central de óptica. Es preferente, cuando el desvío individual de canal mencionado anteriormente, de la correspondiente proyección, se extiende únicamente en dirección de extensión de línea, es decir, los ejes ópticos se encuentran únicamente en un plano común, siendo provistos de una divergencia previa. Tanto centros ópticos, como también centros de zonas de sensor de imagen, se encuentran entonces respectivamente sobre una recta en paralelo con respecto a la dirección de extensión de línea, pero con diferentes separaciones intermedias. Un desplazamiento lateral entre lentes y sensores de imagen en dirección lateral perpendicular con respecto a la dirección de extensión de línea condujo con respecto a ello a una ampliación de la altura de construcción. Un puro desplazamiento en plano en dirección de extensión de línea no modifica la altura de construcción, pero resultan dado el caso menos facetas y/o las facetas presentan solo un ladeo en una orientación angular, lo cual facilita la estructura. Esto se ilustra en las Figs. 5a y 5b, en las cuales los canales 14n y 1412 adyacentes por un lado y los canales 1413 y 1414 adyacentes que se extienden por el mismo plano, presentan respectivamente ejes ópticos 22n y 2212 o 2213 y 2214 desviados respecto de su posición unos hacia los otros, es decir, provistos de una divergencia previa. Las facetas 26n y 2612 pueden estar formadas por una faceta y las facetas 2613 y 2614 pueden estar formadas por otra faceta, como se muestra mediante líneas a rayas entre los correspondientes pares de facetas, y las únicas dos facetas están únicamente inclinadas en una dirección y las dos en paralelo con respecto a la dirección de extensión de línea.
Se indica que de forma alternativa a las Figs. 5a y 5b, también los canales ópticos 1 y 2 podrían extenderse de forma convergente entre sí, así como extenderse de forma convergente entre sí por otra parte los canales 3 y 4, y los dos pares por su parte de forma divergente entre sí, extendiéndose por su parte no obstante todos los ejes ópticos en un plano. Las facetas podrían estar configuras de este modo más pequeñas en dirección de extensión de línea.
Se indica una vez más que las Figs. 4 y 5a, b muestran debido a motivos de claridad únicamente un módulo, pero que el respectivamente otro módulo puede estar estructurado del mismo modo. Se menciona además de ello una vez más, que la cantidad de canales por módulo no está limitada a cuatro.
Podría estar previsto además de ello, que en un módulo estuviesen asignados algunos canales ópticos al mismo campo visual parcial, como por ejemplo para el fin de la superresolución o para el aumento de la resolución, con la cual se explora el correspondiente campo visual parcial mediante estos canales. Los canales ópticos dentro de un grupo de este tipo se extenderían entonces por ejemplo antes de desvío de haz en paralelo y serían desviador por una faceta a un campo visual parcial. De manera ventajosa las imágenes de píxeles del sensor de imagen de un canal de un grupo se encontrarían en posiciones intermedias entre imágenes de los píxeles del sensor de imagen de otro canal de ese grupo. El campo visual completo de acuerdo con esto, en el sentido de una resolución espacial y no en el sentido de una cantidad por píxel, no sería explorado mediante los módulos de tal manera que cada canal recogiese su parte del campo visual completo, es decir, su campo visual parcial, con la resolución completa, sino solo con una reducida. Solo el aprovechamiento del desplazamiento de píxel conduciría a una imagen completa con mayor resolución, en cuyo caso cada campo visual parcial presentaría más píxeles que las imágenes de los canales que recogiesen este campo visual parcial observado individualmente y no la misma cantidad que arriba. El mapa de profundidad se obtendría no obstante solo con la resolución reducida y no como arriba con la resolución de imagen completa o con un valor de profundidad o píxel de mapa de profundidad por píxel de la imagen completa o de las imágenes completas. Tiene validez además de ello para el dispositivo de desvío de haz y el sensor de imagen algo parecido como se ha mencionado anteriormente con respecto al sustrato de óptica, concretamente que los módulos 1 y 2 podrían compartir también un correspondiente elemento. El dispositivo de desvío de haz podría ser para fines de estabilización de imagen giratorio alrededor de un eje paralelo con respecto al eje x. Junto con el movimiento de traslación de las ópticas a lo largo del eje x da como resultado una estabilización de imagen del campo visual completo en dos direcciones, pudiendo realizarse a través de un movimiento de traslación de las ópticas a lo largo del eje z el control de foco.

Claims (15)

REIVINDICACIONES
1. Dispositivo de representación de imagen de aberturas múltiples 3D para poner a disposición informaciones 3D de una escena con:
un sensor de imagen (12);
una primera pluralidad (141) de canales ópticos (14n, 1412, 1413, 1414) para representar primeros campos visuales parciales (30n, 3012, 3013, 3014) que se solapan de un campo visual completo (28) sobre primeras zonas de sensor de imagen (12n, 1212, 1213, 1214) del sensor de imagen;
una segunda pluralidad (142) de canales ópticos (1421, 1422, 1423, 1424) para representar segundos campos visuales parciales (3021, 3022, 3023, 3024) que se solapan entre sí y con los primeros campos visuales parciales, del campo visual completo (28) sobre segundas zonas de sensor de imagen (1221, 1222, 1223, 1224) del sensor de imagen, estando dispuestas la primera y la segunda pluralidad de canales ópticos lateralmente desplazadas a razón de una separación de base (15) una de la otra;
cubriendo los primeros campos visuales parciales (30n, 3012, 3013, 3014) juntos el campo visual completo (28), y cubriendo los segundos campos visuales parciales juntos el campo visual completo (28);
un procesador (85) para fundir imágenes, las cuales están recogidas por la primera pluralidad de canales ópticos, dando lugar a una primera imagen completa, estando configurado el procesador (85), para llevar a cabo en una zona de solapamiento (86) de primeros campos visuales parciales de un par de canales ópticos de la primera pluralidad de canales ópticos, la fusión mediante el uso de disparidades en un par de imágenes, de las cuales al menos una está recogida por uno de la segunda pluralidad de canales ópticos, cuyo segundo campo visual parcial representado se solapa con la zona de solapamiento.
2. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con la reivindicación 1, siendo la separación de base (15) mayor que una única separación de base de canal (19) entre dos canales ópticos adyacentes de la primera pluralidad de canales ópticos y entre dos canales ópticos adyacentes de la segunda pluralidad de canales ópticos.
3. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con la reivindicación 1 o 2, en cuyo caso está configurado el procesador (85), para fundir imágenes, las cuales están recogidas por la segunda pluralidad de canales ópticos,
dando lugar a una segunda imagen completa, y usar a este respecto en una zona de solapamiento de segundos campos visuales parciales de un par de canales ópticos de la segunda pluralidad de canales ópticos disparidades en otro par de imágenes, de las cuales al menos una está recogida por uno de la primera pluralidad de canales ópticos, cuyo primer campo visual parcial representado se solapa con la zona de solapamiento de los segundos campos visuales parciales.
4. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con la reivindicación 3, en cuyo caso el procesador (85) está configurado para generar un mapa de profundidad usando disparidades entre la primera y la segunda imagen completa.
5. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con la reivindicación 4, en cuyo caso el procesador (85) está configurado para deformar la primera o la segunda imagen completa en un centro virtual óptico o para deformar la primera y la segunda imagen completa en la vista virtual y fundirla, para obtener una imagen completa final, a la cual pertenece el mapa de profundidad.
6. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 5, en cuyo caso el procesador (85) está configurado de tal manera, que las imágenes, las cuales están recogidas por la primera pluralidad de canales ópticos, y las imágenes, las cuales están recogidas por la segunda pluralidad de canales ópticos, y la primera imagen completa tienen una misma resolución espacial lateral.
7. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 6, en cuyo caso el procesador (85) está configurado de tal manera, que los primeros campos visuales parciales, a los cuales está asignada la primera pluralidad de canales ópticos, son diferentes entre sí y congruentes con los segundos campos visuales parciales, a los cuales está asignada la segunda pluralidad de canales ópticos.
8. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con la reivindicación 1 o 3, en cuyo caso el procesador (85) está configurado para generar un mapa de profundidad relativo a la primera imagen completa usando disparidades en pares de imágenes,
que presentan al menos para cada uno de la primera pluralidad de canales ópticos al menos un par, el cual presenta una imagen, la cual está recogida a través del correspondiente de la primera pluralidad de canales ópticos, y otra imagen, la cual está recogida por uno de la segunda pluralidad de canales ópticos.
9. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 8, en cuyo caso una cantidad de la primera pluralidad de canales ópticos se encuentra entre 2 y 100, ambos incluidos, y la zona de solapamiento de los primeros campos visuales parciales del par de canales ópticos de la primera pluralidad de canales ópticos se encuentra en lo que a superficie se refiere entre 1/2 y 1/1000 de un tamaño de imagen medio de las imágenes, las cuales son recogidas por la primera pluralidad de canales ópticos.
10. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 9, en cuyo caso una cantidad de la segunda pluralidad de canales ópticos se encuentra entre 2 y 100, ambos incluidos, y una zona de solapamiento de los segundos campos visuales parciales de un par de canales ópticos de la segunda pluralidad de canales ópticos se encuentra en lo que a superficie se refiere entre 1/2 y 1/1000 de un tamaño de imagen medio de las imágenes, las cuales son recogidas por la primera pluralidad de canales ópticos.
11. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 10, en cuyo caso la cantidad de la primera y de la segunda pluralidad de canales ópticos es igual y una distribución del campo visual completo en los primeros campos visuales parciales es igual a la distribución del campo visual completo en los segundos campos visuales parciales.
12. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 11, en cuyo caso los campos visuales parciales del par de canales ópticos de la primera pluralidad de canales ópticos penetran entre sí a razón de una anchura de la zona de solapamiento de al menos 20 píxeles de las imágenes, las cuales están recogidas por el par de canales ópticos de la primera pluralidad de canales ópticos, con una separación de imagen de 10 m.
13. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 11, en cuyo caso la primera y la segunda pluralidad de canales ópticos están formadas respectivamente como un conjunto de una sola línea y están dispuestas en una línea a lo largo de una dirección de extensión de línea del mismo unas junto a otras desplazadas entre sí a razón de la separación de base.
14. Dispositivo de representación de imagen de aberturas múltiples 3D de acuerdo con una de las reivindicaciones 1 a 13, estando configurado el procesador (85), para determinar las disparidades mediante el uso de una correlación cruzada de secciones locales del par de imágenes.
15. Procedimiento para fundir imágenes, las cuales están recogidas por un dispositivo de representación de imagen de aberturas múltiples 3D, que presenta un sensor de imagen (12), una primera pluralidad (141) de canales ópticos (14n, 1412, 1413, 1414) para representar primeros campos visuales parciales (30n, 3012, 3013, 3014) que se solapan de un campo visual completo (28) sobre primeras zonas de sensor de imagen (12n, 1212, 1213, 1214) del sensor de imagen y una segunda pluralidad (142) de canales ópticos (1421, 1422, 1423, 1424) para representar segundos campos visuales parciales (3021, 3022, 3023, 3024) que se solapan entre sí y con los primeros campos visuales parciales, del campo visual completo (28) sobre segundas zonas de sensor de imagen (1221, 1222, 1223, 1224) del sensor de imagen, estando dispuestas la primera y la segunda pluralidad de canales ópticos lateralmente desplazadas a razón de una separación de base (15) una de la otra, cubriendo los primeros campos visuales parciales juntos el campo visual completo (28), y cubriendo los segundos campos visuales parciales juntos el campo visual completo (28), presentando el procedimiento la siguiente característica:
fusión de imágenes, las cuales están recogidas por la primera pluralidad de canales ópticos, dando lugar a una primera imagen completa, y concretamente en cuanto que se lleva a cabo en una zona de solapamiento (86) de primeros campos visuales parciales de un par de canales ópticos de la primera pluralidad de canales ópticos, la fusión mediante el uso de disparidades en un par de imágenes, de las cuales al menos una está recogida por uno de la segunda pluralidad de canales ópticos, cuyo segundo campo visual parcial representado se solapa con la zona de solapamiento.
ES16757216T 2015-08-24 2016-08-22 Dispositivo de representación de imagen de aberturas múltiples 3D Active ES2770333T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015216140.4A DE102015216140A1 (de) 2015-08-24 2015-08-24 3D-Multiaperturabbildungsvorrichtung
PCT/EP2016/069821 WO2017032749A1 (de) 2015-08-24 2016-08-22 3d-multiaperturabbildungsvorrichtung

Publications (1)

Publication Number Publication Date
ES2770333T3 true ES2770333T3 (es) 2020-07-01

Family

ID=56801537

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16757216T Active ES2770333T3 (es) 2015-08-24 2016-08-22 Dispositivo de representación de imagen de aberturas múltiples 3D

Country Status (9)

Country Link
US (1) US10701340B2 (es)
EP (1) EP3342148B1 (es)
JP (1) JP6530135B2 (es)
KR (1) KR102060585B1 (es)
CN (1) CN108353117B (es)
DE (1) DE102015216140A1 (es)
ES (1) ES2770333T3 (es)
TW (2) TWI668989B (es)
WO (1) WO2017032749A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200287A1 (de) 2016-01-13 2017-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtungen, Verfahren zum Herstellen derselben und Abbildungssystem
TWI638221B (zh) * 2017-01-05 2018-10-11 旺玖科技股份有限公司 具有至少兩個鏡頭的全景影像擷取裝置及其全景影像擷取模組
DE102017204035B3 (de) 2017-03-10 2018-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017206429A1 (de) 2017-04-13 2018-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017206442B4 (de) * 2017-04-13 2021-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Abbildung von Teilgesichtsfeldern, Multiaperturabbildungsvorrichtung und Verfahren zum Bereitstellen derselben
DE102017208709B3 (de) 2017-05-23 2018-10-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrrichtung und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017211586A1 (de) 2017-07-06 2019-01-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung mit geringer falschlichtempfindlichkeit, abbildungssystem und verfahren zum bereitstellen einer multiaperturabbildungsvorrichtung
CN109429055B (zh) * 2017-08-24 2021-02-23 阿里巴巴集团控股有限公司 图像展示、视频文件处理方法及装置
DE102017216172A1 (de) 2017-09-13 2019-03-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung mit geringer bauhöhe und umschaltbarer blickrichtung, abbildungssystem und verfahren zum bereitstellen einer multiaperturabbildungsvorrichtung
US10900776B2 (en) * 2018-02-06 2021-01-26 Saudi Arabian Oil Company Sensor device for distance offset measurements
CN109151281A (zh) * 2018-09-26 2019-01-04 中国计量大学 一种获得深度信息的像素孔径偏移相机
DE102018222865A1 (de) 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung zur Erzeugung einer Tiefenkarte
DE102018222861A1 (de) 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung zum Akkumulieren von Bildinformation
WO2020245356A1 (de) * 2019-06-06 2020-12-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multikanalabbildungsvorrichtung und vorrichtung mit einer multiaperturabbildungsvorrichtung
CN110568715A (zh) * 2019-09-30 2019-12-13 宁波元年文化传媒有限公司 立体球体表面全覆盖投影装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155109A (ja) * 1996-11-22 1998-06-09 Canon Inc 撮像方法及び装置並びに記憶媒体
US8023117B2 (en) * 2002-01-09 2011-09-20 Venture Ad Astra, Llc Establishing and maintaining focus in segmented-optic telescopes
US7132664B1 (en) * 2002-11-09 2006-11-07 Crosetto Dario B Method and apparatus for improving PET detectors
JP2006033570A (ja) * 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
JP2011523538A (ja) * 2008-05-20 2011-08-11 ペリカン イメージング コーポレイション 異なる種類の撮像装置を有するモノリシックカメラアレイを用いた画像の撮像および処理
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
EP2502115A4 (en) * 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US20130033579A1 (en) * 2010-02-19 2013-02-07 Dual Aperture Inc. Processing multi-aperture image data
US20120098971A1 (en) * 2010-10-22 2012-04-26 Flir Systems, Inc. Infrared binocular system with dual diopter adjustment
JP2012227679A (ja) * 2011-04-19 2012-11-15 Mathematec Corp 2眼カメラ
CN103649994B (zh) * 2011-07-05 2016-11-16 欧姆龙株式会社 用于投影体监测的方法和装置
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US9378542B2 (en) * 2011-09-28 2016-06-28 The United States Of America As Represented By The Secretary Of The Army System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles
WO2013056016A1 (en) * 2011-10-14 2013-04-18 Omron Corporation A method and apparatus for projective volume monitoring
JP6112419B2 (ja) * 2012-02-03 2017-04-12 パナソニックIpマネジメント株式会社 撮像装置および測距装置
US20140085431A1 (en) * 2012-09-21 2014-03-27 Sony Corporation Optical element, optical system and image processing method
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US9013543B1 (en) * 2012-11-14 2015-04-21 Google Inc. Depth map generation using multiple scanners to minimize parallax from panoramic stitched images
JP2015037282A (ja) * 2013-08-15 2015-02-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
DE102013222780B3 (de) * 2013-11-08 2015-04-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturvorrichtung und verfahren zur erfassung eines objektbereichs
DE102014213371B3 (de) * 2014-07-09 2015-08-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur erfassung eines objektbereichs
US10257494B2 (en) * 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video
US11205305B2 (en) * 2014-09-22 2021-12-21 Samsung Electronics Company, Ltd. Presentation of three-dimensional video
US10469873B2 (en) * 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10121064B2 (en) * 2015-04-16 2018-11-06 California Institute Of Technology Systems and methods for behavior detection using 3D tracking and machine learning
CN204575985U (zh) * 2015-05-14 2015-08-19 中国船舶重工集团公司第七一七研究所 一种具有四孔径的稀疏合成孔径光学成像装置
US10699476B2 (en) * 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene

Also Published As

Publication number Publication date
US10701340B2 (en) 2020-06-30
EP3342148A1 (de) 2018-07-04
US20180184068A1 (en) 2018-06-28
TW201806383A (zh) 2018-02-16
CN108353117B (zh) 2021-08-24
TW201711457A (zh) 2017-03-16
EP3342148B1 (de) 2020-01-08
KR102060585B1 (ko) 2019-12-30
TWI617177B (zh) 2018-03-01
DE102015216140A1 (de) 2017-03-02
JP6530135B2 (ja) 2019-06-12
CN108353117A (zh) 2018-07-31
WO2017032749A1 (de) 2017-03-02
JP2018533248A (ja) 2018-11-08
TWI668989B (zh) 2019-08-11
KR20180043334A (ko) 2018-04-27

Similar Documents

Publication Publication Date Title
ES2770333T3 (es) Dispositivo de representación de imagen de aberturas múltiples 3D
ES2753807T3 (es) Dispositivo de obtención de imágenes de apertura múltiple, sistema de imagen y procedimiento para la detección de una zona de objeto
ES2724488T3 (es) Dispositivo de imagen de apertura múltiple, sistema de imagen y procedimiento para proporcionar un dispositivo de imagen de apertura múltiple
US11244434B2 (en) Multi-aperture imaging device
ES2864834T3 (es) Dispositivo y método para obtener información de distancia de las vistas
TWI670521B (zh) 近眼顯示系統、演現系統及在近眼顯示系統中使用之方法
JP5306275B2 (ja) 表示装置及び立体画像の表示方法
ES2749711T3 (es) Dispositivo con un dispositivo de imagen de apertura múltiple, procedimiento de fabricación del mismo y procedimiento de detección de un campo visual completo
ES2814351T3 (es) Dispositivo que comprende un dispositivo de imágenes multicanal y procedimiento para producirlo
CN107306507A (zh) 显示装置
ES2561937T3 (es) Sensor para microscopia
ES2795103T3 (es) Sistema, dispositivo y vehículo para grabar imágenes panorámicas
ES2887034T3 (es) Dispositivo de obtención de imágenes de apertura múltiple, sistema de obtención de imágenes y método de proporcionar un dispositivo de obtención de imágenes de apertura múltiple
CN103957770B (zh) 内窥镜
CN108139565A (zh) 具有通道特定可调性的多孔径成像装置
JP2018527829A (ja) 光学基板を有するマルチ開口撮像装置
CN106604017A (zh) 图像显示装置
US10225541B2 (en) Stereoscopic display apparatus and control method
ES2733651T3 (es) Medición de la posición angular de una lámina de lente lenticular
CN112866512B (zh) 复眼摄像装置及复眼系统
TW201243395A (en) Three-dimensional image display apparatus
US10708493B2 (en) Panoramic video
CN110036256B (zh) 标记器和标记器的制造方法
JP2013068682A (ja) 立体表示装置
ES2777524T3 (es) Método de crear un modelo de oclusión dental 3D